Zmienność informacji
W teorii prawdopodobieństwa i teorii informacji zmienność informacji lub odległość wspólnych informacji jest miarą odległości między dwoma skupieniami ( podziałami elementów ). Jest to ściśle związane z wzajemną informacją ; w rzeczywistości jest to proste wyrażenie liniowe obejmujące wzajemne informacje. Jednak w przeciwieństwie do informacji wzajemnych, zmienność informacji jest prawdziwą metryką , ponieważ jest zgodna z nierównością trójkąta .
Definicja
że mamy dwie zbioru na rozłączne , a mianowicie X } i .
Pozwalać:
- i
Wtedy zmienność informacji między dwiema partycjami wynosi:
- .
Jest to równoważne ze wspólną odległością informacyjną między zmiennymi losowymi i i j w odniesieniu do jednolitej miary prawdopodobieństwa na przez dla .
Wyraźna treść informacyjna
Możemy przepisać tę definicję w terminach, które wyraźnie podkreślają zawartość informacyjną tej metryki.
Zbiór wszystkich partycji zbioru tworzy zwartą kratę , której porządek częściowy indukuje dwie operacje, spotkanie i łączenie , gdzie maksimum to partycja z tylko jednym blokiem, tj. wszystkimi elementami zgrupowanymi razem, a minimum to partycja składająca się z wszystkie elementy jako singletony. Spotkanie dwóch partycji i jest łatwe do zrozumienia, ponieważ podział utworzony przez wszystkie przecięcia par jednego bloku , , i jeden, , z . Wynika z tego, że i .
Zdefiniujmy entropię partycji jako
- ,
gdzie . Oczywiście i . Entropia partycji jest monotonną funkcją na siatce partycji w tym sensie, że .
Następnie odległość VI między i Y jest określona przez
- .
Różnica pseudo-metryką jako niekoniecznie oznacza, że . definicji , to jest .
Jeśli na diagramie Hassego narysujemy krawędź z każdej partycji do maksimum przypiszemy jej wagę równą odległości VI między daną , możemy zinterpretować odległość VI jako zasadniczo średnią różnic wag krawędzi do maksimum
- .
Dla zdefiniowanego powyżej, oznacza to, łączna informacja o dwóch partycjach pokrywa się z entropią spotkania H. ( X
i mamy również, że pokrywa się z warunkową entropią spotkania (przecięcia) względem .
Tożsamości
Różnorodność informacji jest zadowalająca
- ,
gdzie ( jest entropią i jest informacją \ i w do jednolitej prawdopodobieństwa Można to przepisać jako
- ,
gdzie jest wspólną entropią X i lub
- ,
gdzie odpowiednimi entropiami warunkowymi .
Zmienność informacji może być również ograniczona, albo pod względem liczby elementów:
- ,
Lub w odniesieniu do maksymalnej liczby klastrów: :
Dalsza lektura
- Arabie, P.; Boorman SA (1973). „Wielowymiarowe skalowanie miar odległości między przegrodami”. Journal of Psychologii Matematycznej . 10 (2): 148–203. doi : 10.1016/0022-2496(73)90012-6 .
- Meila, Marina (2003). „Porównywanie skupień według zmienności informacji”. Teoria uczenia się i maszyny jądrowe . Notatki z wykładów z informatyki. 2777 : 173–187. doi : 10.1007/978-3-540-45167-9_14 . ISBN 978-3-540-40720-1 .
- Meila, M. (2007). „Porównywanie skupień - odległość oparta na informacjach” . Dziennik analizy wielowymiarowej . 98 (5): 873–895. doi : 10.1016/j.jmva.2006.11.013 .
- Kingsford, Carl (2009). „Notatki z teorii informacji” (PDF) . Źródło 22 września 2009 .
- Kraskow, Aleksander; Haralda Stögbauera; Ralph G. Andrzejak; Petera Grassbergera (2003). „Hierarchiczne klastrowanie na podstawie wzajemnych informacji”. arXiv : q-bio/0311039 .
Linki zewnętrzne
- Partanalyzer zawiera implementację VI w C++ oraz inne metryki i indeksy do analizy partycji i grupowania
- Implementacja C++ z plikami MATLAB mex