Informacje o interakcji

Diagram Venna miar teoretycznych informacji dla trzech zmiennych x, y i z, reprezentowanych odpowiednio przez lewe dolne, prawe dolne i górne kółko. Informacje o interakcji są reprezentowane przez szare obszary i jako jedyne mogą być ujemne.

Informacja o interakcji jest uogólnieniem wzajemnej informacji dla więcej niż dwóch zmiennych.

Istnieje wiele nazw informacji o interakcji, w tym ilość informacji , korelacja informacji , współinformacja i po prostu informacja wzajemna . Informacje o interakcji wyrażają ilość informacji (redundancję lub synergię) związaną z zestawem zmiennych, poza tą, która jest obecna w jakimkolwiek podzbiorze tych zmiennych. W przeciwieństwie do informacji wzajemnych, informacje o interakcji mogą być dodatnie lub ujemne. Funkcje te, ich ujemność i minima mają bezpośrednią interpretację w topologii algebraicznej .

Definicja

Warunkowe wzajemne informacje można wykorzystać do indukcyjnego zdefiniowania informacji o interakcji dla dowolnej skończonej liczby zmiennych w następujący sposób:

Gdzie

Niektórzy autorzy inaczej definiują informacje o interakcji, zamieniając miejscami dwa odejmowane terminy w poprzednim równaniu. Powoduje to odwrócenie znaku dla nieparzystej liczby zmiennych.

zmiennych informacje o interakcji przez ja

gdzie ( X; Y jest wzajemną informacją między zmiennymi i to warunkowa wzajemna informacja między zmiennymi i podana . Informacje o interakcji są symetryczne , więc nie ma znaczenia, która zmienna jest uwarunkowana. Łatwo to zauważyć, gdy informacje o interakcji są zapisane w postaci entropii i wspólnej entropii, jak następuje:

Ogólnie rzecz biorąc, dla zbioru zmiennych , informacje o interakcji można zapisać w następującej postaci (porównaj z przybliżeniem Kirkwooda ):

W przypadku trzech zmiennych informacje o interakcji mierzą wpływ zmiennej na ilość informacji udostępnianych między i . termin może niż , informacja o interakcji może być zarówno ujemna, jak i pozytywna. Stanie się tak na przykład, gdy są ale nie warunkowo niezależne, biorąc . Pozytywne informacje o interakcji wskazują, że zmienna (tj. wyjaśnia lub wyjaśnia niektóre) korelację między a , podczas gdy informacje o negatywnych interakcjach wskazują, że zmienna wzmacnia korelację.

Nieruchomości

Informacje o interakcji są ograniczone. W przypadku trzech zmiennych jest ograniczony przez

Jeśli trzy zmienne tworzą łańcuch Markowa , to } ale . Dlatego

Przykłady

Informacje o pozytywnych interakcjach

Informacje o pozytywnych interakcjach wydają się znacznie bardziej naturalne niż informacje o negatywnych interakcjach w tym sensie, że takie efekty wyjaśniające są typowe dla struktur o wspólnej przyczynie. Na przykład chmury powodują deszcz, a także blokują słońce; dlatego korelację między deszczem a ciemnością częściowo tłumaczy obecność chmur, . Rezultatem _

Informacje o negatywnych interakcjach

Silnik samochodu może się nie uruchomić z powodu rozładowanego akumulatora lub zablokowanej pompy paliwowej. zakładamy, że śmierć akumulatora i . Ale wiedząc, że samochód nie odpala, jeśli przegląd wykaże, że akumulator jest w dobrym stanie, możemy stwierdzić, że pompa paliwa musi być zablokowana. Dlatego .

Trudność interpretacji

Ewentualna negatywność informacji o interakcji może być źródłem pewnego zamieszania. Wielu autorów przyjęło informację o zerowej interakcji jako znak, że trzy lub więcej zmiennych losowych nie oddziałuje na siebie, ale ta interpretacja jest błędna.

zestaw binarnych . Połącz te zmienne w następujący sposób:

Ponieważ nakładają się na siebie (są zbędne) na , spodziewalibyśmy się, że informacja o interakcji będzie równa 3 bity, co robi. Rozważmy jednak teraz zmienne aglomerowane

Są to te same zmienne, co poprzednio, z dodatkiem . Jednak w tym przypadku jest w rzeczywistości równe , co wskazuje na mniejszą redundancję. Jest to poprawne w tym sensie, że

ale pozostaje trudne do interpretacji.

Używa

  • Jakulin i Bratko (2003b) dostarczają algorytm uczenia maszynowego, który wykorzystuje informacje o interakcji.
  • Killian, Kravitz i Gilson (2007) wykorzystują ekspansję informacji wzajemnych, aby wyodrębnić szacunki entropii z symulacji molekularnych.
  • LeVine i Weinstein (2014) wykorzystują informacje o interakcjach i inne miary informacji o N-ciałach do ilościowego określania sprzężeń allosterycznych w symulacjach molekularnych.
  • Moore i in. (2006), Chanda P, Zhang A, Brazeau D, Sucheston L, Freudenheim JL, Ambrosone C, Ramanathan M. (2007) i Chanda P, Sucheston L, Zhang A, Brazeau D, Freudenheim JL, Ambrosone C, Ramanathan M. (2008) demonstrują wykorzystanie informacji o interakcjach do analizy interakcji gen-gen i gen-środowisko związanych ze złożonymi chorobami.
  • Pandey i Sarkar (2017) wykorzystują informacje o interakcjach w kosmologii do badania wpływu środowisk na dużą skalę na właściwości galaktyk.
  • Dostępny jest pakiet Pythona do obliczania wszystkich wielowymiarowych interakcji lub wzajemnych informacji, warunkowych wzajemnych informacji, wspólnych entropii, całkowitych korelacji, odległości informacyjnej w zbiorze danych n zmiennych.

Zobacz też