Zmienność informacji

W teorii prawdopodobieństwa i teorii informacji zmienność informacji lub odległość wspólnych informacji jest miarą odległości między dwoma skupieniami ( podziałami elementów ). Jest to ściśle związane z wzajemną informacją ; w rzeczywistości jest to proste wyrażenie liniowe obejmujące wzajemne informacje. Jednak w przeciwieństwie do informacji wzajemnych, zmienność informacji jest prawdziwą metryką , ponieważ jest zgodna z nierównością trójkąta .

Diagram informacyjny ilustrujący zależność między entropiami informacyjnymi , informacją wzajemną i zmiennością informacji.

Definicja

że mamy dwie zbioru na rozłączne , a mianowicie X } i .

Pozwalać:

i

Wtedy zmienność informacji między dwiema partycjami wynosi:

.

Jest to równoważne ze wspólną odległością informacyjną między zmiennymi losowymi i i j w odniesieniu do jednolitej miary prawdopodobieństwa na przez dla .

Wyraźna treść informacyjna

Możemy przepisać tę definicję w terminach, które wyraźnie podkreślają zawartość informacyjną tej metryki.

Zbiór wszystkich partycji zbioru tworzy zwartą kratę , której porządek częściowy indukuje dwie operacje, spotkanie i łączenie , gdzie maksimum to partycja z tylko jednym blokiem, tj. wszystkimi elementami zgrupowanymi razem, a minimum to partycja składająca się z wszystkie elementy jako singletony. Spotkanie dwóch partycji i jest łatwe do zrozumienia, ponieważ podział utworzony przez wszystkie przecięcia par jednego bloku , , i jeden, , z . Wynika z tego, że i .

Zdefiniujmy entropię partycji jako

,

gdzie . Oczywiście i . Entropia partycji jest monotonną funkcją na siatce partycji w tym sensie, że .

Następnie odległość VI między i Y jest określona przez

.

Różnica pseudo-metryką jako niekoniecznie oznacza, że . definicji , to jest .

Jeśli na diagramie Hassego narysujemy krawędź z każdej partycji do maksimum przypiszemy jej wagę równą odległości VI między daną , możemy zinterpretować odległość VI jako zasadniczo średnią różnic wag krawędzi do maksimum

.

Dla zdefiniowanego powyżej, oznacza to, łączna informacja o dwóch partycjach pokrywa się z entropią spotkania H. ( X

i mamy również, że pokrywa się z warunkową entropią spotkania (przecięcia) względem .

Tożsamości

Różnorodność informacji jest zadowalająca

,

gdzie ( jest entropią i jest informacją \ i w do jednolitej prawdopodobieństwa Można to przepisać jako

,

gdzie jest wspólną entropią X i lub

,

gdzie odpowiednimi entropiami warunkowymi .

Zmienność informacji może być również ograniczona, albo pod względem liczby elementów:

,

Lub w odniesieniu do maksymalnej liczby klastrów: :

Dalsza lektura

Linki zewnętrzne