Miara informacji względnej w teorii prawdopodobieństwa
Diagram Venna przedstawiający zależności addytywne i odejmujące różne
miary informacyjne związane ze skorelowanymi zmiennymi i
. Obszar zawarty w obu okręgach to
wspólna entropia . Kółko po lewej stronie (czerwone i fioletowe) to
entropia , przy czym czerwony to entropia warunkowa
. Kółko po prawej stronie (niebieskie i fioletowe) to
, a niebieski to
. Fiolet to
wzajemna informacja .
W teorii informacji entropia warunkowa określa ilościowo ilość informacji do opisania wyniku zmiennej losowej, znana jest wartość innej zmiennej losowej Tutaj informacje są mierzone w shannons , nats lub hartleys . Entropia uwarunkowana na zapisywana jako .
Definicja
Warunkowa entropia zdefiniowana
|
|
()
|
gdzie i oznaczają zestawy wsparcia { .
Uwaga: Konwencja jest tutaj taka, że wyrażenie powinno być traktowane jako równe zeru. Dzieje się tak, ponieważ .
definicji oczekiwanej i prawdopodobieństwa warunkowego zapisać X , gdzie jest zdefiniowany jako . Można pomyśleć o z mierzącą zawartość informacji podane . Ta ilość jest bezpośrednio związana z ilością informacji potrzebnych do opisania danego zdarzenia podane . Stąd przez obliczenie oczekiwanej wartości dla wszystkich par wartości entropia warunkowa ile informacji średnio o .
Motywacja
Niech entropią zmiennej losowej \ dyskretną zmienną losową przyjmując określoną wartość . Oznacz zestawy wsparcia i przez i . Niech ma funkcję masy prawdopodobieństwa . Bezwarunkowa entropia jest obliczana jako , tj
gdzie { jest treścią informacyjną wyniku przyjęcia wartości . Entropia uwarunkowana przyjęciem wartości definiowana analogicznie przez warunkowe oczekiwanie :
Zauważ, że jest wynikiem uśredniania wszystkimi możliwymi wartościami , które mogą przyjąć próbkę wartość znany w niektórych domenach jako dwuznaczność .
Biorąc pod uwagę dyskretne zmienne losowe z obrazem i obrazem entropia warunkowa dany jest definiowany jako ważona suma dla każdej możliwej wartości , używając jako wag:
Nieruchomości
Entropia warunkowa jest równa zeru
wtedy i tylko wtedy, gdy wartość jest całkowicie określona przez wartość .
Entropia warunkowa niezależnych zmiennych losowych
) wtedy i tylko wtedy, gdy i to niezależne zmienne losowe .
Zasada łańcuchowa
Załóżmy, że połączony system określony przez dwie zmienne losowe i ma wspólną entropię , to znaczy: potrzebujemy aby opisać wartość , . Gdy , potrzebujemy tylko bitów do opisania stan całego systemu. Ta wielkość jest dokładnie równa , co daje regułę łańcuchową entropii warunkowej:
-
Reguła łańcucha wynika z powyższej definicji entropii warunkowej:
Ogólnie rzecz biorąc, obowiązuje reguła łańcuchowa dla wielu zmiennych losowych:
-
Ma podobną formę do reguły łańcuchowej w teorii prawdopodobieństwa, z tą różnicą, że zamiast mnożenia używa się dodawania.
Reguła Bayesa
Reguła Bayesa dla warunkowych stanów entropii
Dowód. i . } . Odjęcie dwóch równań implikuje regułę Bayesa.
Jeśli jest warunkowo niezależny danej , :
Inne właściwości
Dla każdego i :
gdzie jest wzajemną informacją między i .
Dla niezależnych i :
-
i
specyficzna entropia warunkowa mniejsza lub większa niż dla danej losowej zmiennej z , nigdy nie może przekroczyć .
Warunkowa entropia różniczkowa
Definicja
Powyższa definicja dotyczy dyskretnych zmiennych losowych. Ciągła wersja dyskretnej entropii warunkowej nazywana jest warunkową różnicową (lub ciągłą) entropią . Niech i będą ciągłymi zmiennymi losowymi o funkcji gęstości prawdopodobieństwa . Różniczkowa entropia warunkowa jest zdefiniowana jako
|
|
()
|
Nieruchomości
W przeciwieństwie do warunkowej entropii dla dyskretnych zmiennych losowych, warunkowa entropia różniczkowa może być ujemna.
Podobnie jak w przypadku dyskretnym istnieje reguła łańcuchowa dla entropii różniczkowej:
-
Zauważ jednak, że ta reguła może nie być prawdziwa, jeśli zaangażowane entropie różniczkowe nie istnieją lub są nieskończone.
Wspólna entropia różniczkowa jest również używana do definiowania wzajemnej informacji między ciągłymi zmiennymi losowymi:
wtedy i tylko wtedy, gdy i .
Związek z błędem estymatora
Warunkowa entropia różniczkowa daje dolną granicę oczekiwanego błędu kwadratowego estymatora . Dla dowolnej zmiennej losowej obserwacji i estymatora zachodzi: X {\ displaystyle
Jest to związane z zasadą nieoznaczoności z mechaniki kwantowej .
Uogólnienie do teorii kwantowej
W kwantowej teorii informacji warunkowa entropia jest uogólniana na warunkową entropię kwantową . Ten ostatni może przyjmować wartości ujemne, w przeciwieństwie do swojego klasycznego odpowiednika.
Zobacz też