Informacyjne sieci rozmyte
Informacyjne sieci rozmyte (IFN) to zachłanny algorytm uczenia maszynowego do uczenia nadzorowanego . Struktura danych generowana przez algorytm uczący jest również nazywana Info Fuzzy Network. Konstrukcja IFN jest dość podobna do drzew decyzyjnych . Jednak IFN konstruuje graf skierowany , a nie drzewo . IFN wykorzystuje również warunkowych informacji wzajemnych w celu wybrania cech na etapie budowy, podczas gdy drzewa decyzyjne zwykle wykorzystują inne metryki, takie jak entropia lub gini .
IFN i etapy procesu odkrywania wiedzy
- Dyskretyzacja cech ciągłych
- Wybór funkcji
- Tworzy model do klasyfikacji
- Ocena wyodrębnionych reguł asocjacyjnych i ustalanie ich priorytetów
- Wykrywanie anomalii
Atrybuty IFN
- Model IFN częściowo rozwiązuje problem fragmentacji występujący w drzewach decyzyjnych (im głębszy węzeł, tym mniej rekordów reprezentuje. W związku z tym liczba rekordów może być zbyt mała do wskazania istotności statystycznej), ponieważ w każdej warstwie wykorzystywany jest cały zbiór rekordów .
- Każdy węzeł w sieci nazywany jest węzłem wewnętrznym lub ukrytym.
- W IFN każda zmienna może występować tylko w jednej warstwie, aw warstwie nie może być więcej niż jeden atrybut. Nie wszystkie atrybuty muszą być używane.
- Przyrost warunkowego MI zmiennej docelowej po zbudowaniu sieci jest równy sumie przyrostów warunkowego MI we wszystkich warstwach.
- Łuki od węzłów końcowych do węzłów zmiennych docelowych są ważone (węzły końcowe to węzły bezpośrednio połączone z węzłami zmiennych docelowych) . Waga jest warunkową wzajemną informacją ze względu na łuk.
- IFN porównano na kilku typowych zestawach danych z algorytmem drzewa decyzyjnego c4.5 . Model IFN zwykle wykorzystywał mniej zmiennych i miał mniej węzłów. Dokładność mniejsza niż drzewa decyzyjnego. Model IFN jest zwykle bardziej stabilny, co oznacza, że niewielkie zmiany w zbiorze uczącym będą miały na niego mniejszy wpływ niż w innych modelach.
Algorytm konstrukcji IFN
Dane wejściowe: lista zmiennych wejściowych, których można użyć, lista rekordów danych (zbiór uczący) oraz minimalna istotność statystyczna używana do podjęcia decyzji, czy podzielić węzeł, czy nie (domyślnie 0,1%).
- Utwórz węzeł główny i warstwę zmiennej docelowej.
- Pętla dopóki nie zużyjemy wszystkich atrybutów lub nie będzie już można poprawiać warunkowych wzajemnych informacji o statystycznym znaczeniu .
- Znajdź atrybut z maksymalną wzajemną informacją warunkową .
- Sprawdź, czy wkład atrybutu ma znaczenie statystyczne, używając testu ilorazu wiarygodności .
- Podziel dowolny węzeł w poprzedniej warstwie, jeśli wkład bieżącego atrybutu ma znaczenie statystyczne. W przeciwnym razie utwórz węzeł z tego węzła do jednego z węzłów wartości zmiennej docelowej, zgodnie z regułą większości .
- zwróć listę zmiennych wybranych do użycia przez sieć i samą sieć.
Linki zewnętrzne
- Fuzzification and Reduction of Information-Teoretic Reguli Sets in Data Mining and Computational Intelligence, A. Kandel, M. Last i H. Bunke (red.), Physica-Verlag, Studies in Fuzziness and Soft Computing, tom. 68, s. 63–93, 2001.
- Badanie porównawcze sztucznych sieci neuronowych i informacyjnych sieci rozmytych pod kątem ich wykorzystania w testowaniu oprogramowania
Kategoria: