Entropia (teoria informacji)
Teoria informacji |
---|
W teorii informacji entropia zmiennej losowej to średni poziom „informacji”, „niespodzianki” lub „niepewności” związany z możliwymi wynikami zmiennej. Biorąc pod dyskretną zmienną losową , która przyjmuje wartości w alfabecie dystrybuowana zgodnie z :
Pojęcie entropii informacyjnej zostało wprowadzone przez Claude'a Shannona w jego artykule z 1948 r. „ Mathematical Theory of Communication ” i jest również określane jako entropia Shannona . Teoria Shannona definiuje transmisji danych składający się z trzech elementów: źródła danych, kanału komunikacyjnego i odbiornika. „Podstawowym problemem komunikacji” – jak to określił Shannon – jest to, aby odbiorca był w stanie zidentyfikować, jakie dane wygenerowało źródło, na podstawie sygnału, który odbiera kanałem. Shannon rozważał różne sposoby kodowania, kompresji i przesyłania wiadomości ze źródła danych i udowodnił w swoim słynnym twierdzeniu o kodowaniu źródłowym , że entropia stanowi absolutną matematyczną granicę tego, jak dobrze dane ze źródła mogą być bezstratnie skompresowane na idealnie bezszumowym kanale. Shannon znacznie wzmocnił ten wynik dla hałaśliwych kanałów w swoim twierdzeniu o kodowaniu hałaśliwych kanałów .
Entropia w teorii informacji jest bezpośrednio analogiczna do entropii w termodynamice statystycznej . Analogia pojawia się, gdy wartości zmiennej losowej wyznaczają energie mikrostanów, więc wzór Gibbsa na entropię jest formalnie identyczny ze wzorem Shannona. Entropia ma znaczenie dla innych dziedzin matematyki, takich jak kombinatoryka i uczenie maszynowe . Definicję można wyprowadzić z zestawu aksjomatów stanowiących, że entropia powinna być miarą tego, jak informacyjny jest średni wynik zmiennej. W przypadku ciągłej zmiennej losowej entropia różniczkowa jest analogiczna do entropii.
Wstęp
Podstawową ideą teorii informacji jest to, że „wartość informacyjna” przekazywanego komunikatu zależy od stopnia zaskoczenia treści komunikatu. Jeśli wystąpi wysoce prawdopodobne zdarzenie, wiadomość zawiera bardzo mało informacji. Z drugiej strony, jeśli wystąpi wysoce nieprawdopodobne zdarzenie, wiadomość zawiera znacznie więcej informacji. Na przykład wiedza, że jakaś konkretna liczba nie będzie zwycięską liczbą na loterii, dostarcza bardzo mało informacji, ponieważ żadna konkretna wybrana liczba prawie na pewno nie wygra. Jednak wiedza o tym, że dana liczba wygra na loterii, ma dużą wartość informacyjną, ponieważ komunikuje wynik zdarzenia o bardzo niskim prawdopodobieństwie.
Treść informacyjna , także zaskoczeniem lub samoinformacją, zdarzenia funkcją, która rośnie . Kiedy , zaskoczenie wydarzeniem jest niskie, ale jeśli jest bliskie 0, zaskoczenie wydarzeniem jest jest wysoko. Zależność ta jest opisana przez funkcję
W związku tym możemy zdefiniować informację lub zaskoczenie zdarzenia
Entropia mierzy oczekiwaną (tj. średnią) ilość przekazywanych informacji, identyfikując wynik próby losowej. Oznacza to, że rzut kostką ponieważ każdy wynik rzutu kostką ma mniejsze prawdopodobieństwo (około ) wynik rzutu monetą ( ).
Rozważmy tendencyjną monetę z prawdopodobieństwem p wypadnięcia reszki i prawdopodobieństwem 1 − p wypadnięcia reszki. Maksymalną niespodzianką jest sytuacja, gdy p = 1/2 , dla której nie oczekuje się jednego wyniku w stosunku do drugiego. W tym przypadku rzut monetą ma entropię jednego bitu . (Podobnie, jeden trit z równoprawnymi wartościami zawiera (około 1,58496) bitów informacji, ponieważ może mieć jedną z trzech wartości.) Minimalnym zaskoczeniem jest p = 0 lub p = 1 , gdy wynik zdarzenia jest znany z wyprzedzeniem, a entropia wynosi zero bitów. Kiedy entropia wynosi zero bitów, jest to czasami określane jako jedność, gdzie nie ma żadnej niepewności - nie ma wolności wyboru - nie ma informacji . Inne wartości p dają entropie od zera do jednego bitu.
Teoria informacji jest przydatna do obliczenia najmniejszej ilości informacji wymaganej do przekazania wiadomości, jak w przypadku kompresji danych . Rozważmy na przykład transmisję sekwencji zawierających 4 znaki „A”, „B”, „C” i „D” przez kanał binarny. Jeśli wszystkie 4 litery są równie prawdopodobne (25%), nie można zrobić nic lepszego niż użycie dwóch bitów do zakodowania każdej litery. „A” może kodować jako „00”, „B” jako „01”, „C” jako „10”, a „D” jako „11”. Jeśli jednak prawdopodobieństwo każdej litery jest nierówne, powiedzmy, że „A” występuje z 70% prawdopodobieństwem, „B” z 26%, a „C” i „D” z 2% każda, można przypisać kody o zmiennej długości. W tym przypadku „A” byłoby zakodowane jako „0”, „B” jako „10”, „C” jako „110”, a D jako „111”. Przy tej reprezentacji w 70% przypadków wystarczy wysłać tylko jeden bit, w 26% przypadków dwa bity, a tylko w 4% przypadków 3 bity. Średnio potrzeba mniej niż 2 bity, ponieważ entropia jest niższa (ze względu na dużą częstość występowania „A”, po którym następuje „B” – razem 96% znaków). Obliczenie sumy prawdopodobieństw logarytmicznych ważonych prawdopodobieństwem mierzy i uwzględnia ten efekt. Tekst angielski, traktowany jako ciąg znaków, ma dość niską entropię, czyli jest dość przewidywalny. Możemy być całkiem pewni, że na przykład „e” będzie znacznie bardziej powszechne niż „z”, że kombinacja „qu” będzie znacznie bardziej powszechna niż jakakolwiek inna kombinacja zawierająca „q” i że kombinacja „th” będzie bardziej powszechne niż „z”, „q” lub „qu”. Po kilku pierwszych literach często można odgadnąć resztę słowa. Tekst w języku angielskim ma od 0,6 do 1,3 bitów entropii na znak wiadomości.
Definicja
Nazwany na cześć twierdzenia Η Boltzmanna , Shannon zdefiniował entropię Η (grecka wielka litera eta ) dyskretnej zmiennej losowej , która przyjmuje wartości w alfabecie i jest p , że :
Tutaj operatorem wartości oczekiwanej , a I treścią informacyjną X . sam w sobie jest zmienną losową.
Entropię można wyraźnie zapisać jako:
W przypadku dla pewnego wartość odpowiedniej sumy 0 logb(0) is taken to be 0, which is consistent with the limit:
Można również zdefiniować entropię warunkową dwóch zmiennych i przyjmując wartości ze zbiorów i odpowiednio, jako:
Teoria miary
w języku teorii miary w następujący sposób przestrzenią prawdopodobieństwa Niech będzie zdarzeniem . Niespodzianką jest ZA {
Oczekiwaną niespodzianką jest ZA
ZA -prawie partycja jest zbiorem rodziny taka, że i dla wszystkich różnych . (Jest to złagodzenie zwykłych warunków podziału). Entropia wynosi P
Niech będzie algebrą sigma na . Entropia wynosi M
Definicja Ellermana
David Ellerman chciał wyjaśnić, dlaczego entropia warunkowa i inne funkcje mają właściwości podobne do funkcji z teorii prawdopodobieństwa. Twierdzi, że poprzednie definicje oparte na teorii miary działały tylko z potęgami 2.
Ellerman stworzył „logikę partycji”, czyli dualność podzbiorów uniwersalnego zbioru. Informacje są określane ilościowo jako „dits” (wyróżnienia), miary dotyczące partycji. „Dits” można przekształcić w bity Shannona , aby uzyskać wzory na entropię warunkową itp.
Przykład
Rozważ rzut monetą ze znanym, niekoniecznie uczciwym, prawdopodobieństwem wypadnięcia orła lub reszki; można to modelować jako proces Bernoulliego .
Entropia nieznanego wyniku następnego rzutu monetą jest maksymalizowana, jeśli moneta jest uczciwa (to znaczy, jeśli reszka i orzeł mają równe prawdopodobieństwo 1/2). Jest to sytuacja maksymalnej niepewności, ponieważ najtrudniej jest przewidzieć wynik następnego rzutu; wynik każdego rzutu monetą dostarcza jednego pełnego bitu informacji. To dlatego, że
Jeśli jednak wiemy, że moneta nie jest uczciwa, ale wypadnie orzeł lub reszka z prawdopodobieństwem p i q , gdzie p ≠ q , wtedy jest mniejsza niepewność. Za każdym razem, gdy jest rzucany, jedna strona jest bardziej prawdopodobna niż druga. Zmniejszona niepewność jest kwantyfikowana w niższej entropii: średnio każdy rzut monetą dostarcza mniej niż jeden pełny bit informacji. Na przykład, jeśli p = 0,7, to
Jednolite prawdopodobieństwo daje maksymalną niepewność, a zatem maksymalną entropię. Entropia może zatem zmniejszać się tylko od wartości związanej z jednolitym prawdopodobieństwem. Skrajnym przypadkiem jest moneta z dwoma reszkami, która nigdy nie wypada reszką, lub moneta z podwójnymi reszkami, która nigdy nie kończy się reszką. Wtedy nie ma niepewności. Entropia wynosi zero: każdy rzut monetą nie dostarcza żadnych nowych informacji, ponieważ wynik każdego rzutu jest zawsze pewny.
Entropię można znormalizować, dzieląc ją przez długość informacji. Stosunek ten nazywany jest entropią metryczną i jest miarą losowości informacji.
Charakteryzacja
Aby zrozumieć znaczenie −Σ p i log( pi ) prawdopodobieństwem , najpierw zdefiniuj funkcję informacyjną I w kategoriach zdarzenia i z p i . Ilość informacji uzyskanych dzięki obserwacji zdarzenia i wynika z rozwiązania Shannona podstawowych własności informacji :
- I( p ) maleje monotonicznie w p : wzrost prawdopodobieństwa zdarzenia zmniejsza informację z obserwowanego zdarzenia i odwrotnie.
- I(1) = 0 : zdarzenia, które zawsze występują, nie przekazują informacji.
- I( p 1 · p 2 ) = I( p 1 ) + I ( p 2 ) : informacja uzyskana z niezależnych zdarzeń jest sumą informacji uzyskanych z każdego zdarzenia.
Biorąc pod uwagę dwa niezależne zdarzenia, jeśli pierwsze zdarzenie może przynieść jeden z n równie prawdopodobnych wyników, a drugie ma jeden z m równie prawdopodobnych wyników, to istnieje mn równie prawdopodobnych wyników wspólnego zdarzenia. Oznacza to, że jeśli log 2 ( n ) bitów jest potrzebnych do zakodowania pierwszej wartości i log 2 ( m ) do zakodowania drugiej, potrzeba log 2 ( mn ) = log 2 ( m ) + log 2 ( n ) do zakodowania obu .
Shannon odkrył, że odpowiedni wybór daje:
W rzeczywistości jedynymi możliwymi wartościami są dla . Dodatkowo wartości dla k równoznaczne z wybraniem wartości dla że x odpowiada podstawa logarytmu . Zatem entropia charakteryzuje się powyższymi czterema właściwościami.
Dowód Niech To różniczkowe rozwiązania pewnego . Właściwość 2 daje . Właściwość 1 i 2 dają to wszystkich ja .
Różne jednostki informacji ( bity dla logarytmu binarnego log 2 , nat dla logarytmu naturalnego ln , bany dla logarytmu dziesiętnego log 10 i tak dalej) są stałymi wielokrotnościami siebie. Na przykład, w przypadku uczciwego rzutu monetą, orzeł zapewnia log 2 (2) = 1 bit informacji, co odpowiada w przybliżeniu 0,693 natów lub 0,301 cyfr dziesiętnych. Ze względu na addytywność n rzutów dostarcza n bitów informacji, co odpowiada w przybliżeniu 0,693 n nat lub 0,301 n cyfr dziesiętnych.
Znaczenie obserwowanych zdarzeń (znaczenie komunikatów ) nie ma znaczenia w definicji entropii. Entropia bierze pod uwagę tylko prawdopodobieństwo zaobserwowania określonego zdarzenia, więc informacje, które zawiera, to informacje o leżącym u podstaw rozkładzie prawdopodobieństwa , a nie o znaczeniu samych zdarzeń.
Alternatywna charakterystyka
Inna charakterystyka entropii wykorzystuje następujące właściwości. Oznaczamy p ja = Pr( X = x ja ) i Η n ( p 1 , ..., p n ) = Η ( X ) .
- Ciągłość: H powinno być ciągłe , więc zmiana wartości prawdopodobieństw o bardzo małą wartość powinna zmienić entropię tylko o niewielką wartość.
- Symetria: H powinno pozostać niezmienione, jeśli wyniki x i zostaną ponownie uporządkowane. H. dla dowolnej permutacji z .
- Maksimum: wyniki są jednakowo .
- Rosnąca liczba wyników: dla zdarzeń równo prawdopodobnych entropia powinna rosnąć wraz z liczbą wyników, tj.
- Addytywność: biorąc pod uwagę zespół n równomiernie rozłożonych elementów, które są podzielone na k pudeł (podsystemów) z b 1 , ..., b k elementów w każdym, entropia całego zespołu powinna być równa sumie entropii system pudełek i indywidualne entropie pudełek, z których każda ważona jest prawdopodobieństwem znalezienia się w tym konkretnym pudełku.
Reguła addytywności ma następujące konsekwencje: dla dodatnich liczb całkowitych b i gdzie b 1 + ... + b k = n ,
Wybierając k = n , b 1 = ... = b n = 1 oznacza to, że entropia pewnego wyniku wynosi zero: Η 1 (1) = 0 . Oznacza to, że wydajność alfabetu źródłowego z n symbolami można po prostu zdefiniować jako równą jego n -arnej entropii. Zobacz także Nadmiarowość (teoria informacji) .
Charakteryzacja alternatywna poprzez addytywność i subaddytywność
Inna zwięzła aksjomatyczna charakterystyka entropii Shannona została podana przez Aczéla , Forte i Ng, poprzez następujące właściwości:
- Subaddytywność: dla wspólnie rozłożonych zmiennych losowych .
- addytywność: zmienne .
- Rozszerzalność: wyniku z prawdopodobieństwem zerowym nie zmienia entropii.
- Symetria: jest niezmiennikiem przy permutacji .
- Małe dla małych prawdopodobieństw: .
Wykazano, że każda funkcja musi być stałą wielokrotnością entropii Shannona, z nieujemną stałą. W porównaniu do wcześniej wspomnianych charakterystyk entropii, ta charakterystyka skupia się raczej na właściwościach entropii jako funkcji zmiennych losowych (subaddytywność i addytywność), niż na właściwościach entropii jako funkcji wektora prawdopodobieństwa .
że jeśli odrzucimy właściwość „małe dla małych prawdopodobieństw”, to to być nieujemna liniowa kombinacja entropii Shannona i entropii Hartleya .
Dalsze właściwości
Entropia Shannona spełnia następujące właściwości, z których niektóre warto interpretować entropię jako oczekiwaną ilość uzyskanych informacji (lub wyeliminowaną niepewność) poprzez ujawnienie wartości zmiennej losowej X :
- Dodanie lub usunięcie zdarzenia z prawdopodobieństwem zerowym nie ma wpływu na entropię:
- .
- Można potwierdzić za pomocą nierówności Jensena , a następnie nierówności Sedrakyana , że
- .
- Ta maksymalna entropia log b ( n ) jest skutecznie osiągana przez alfabet źródłowy o jednolitym rozkładzie prawdopodobieństwa: niepewność jest maksymalna, gdy wszystkie możliwe zdarzenia są jednakowo prawdopodobne.
- Entropia lub ilość informacji ujawniona przez oszacowanie ( X , Y ) (czyli jednoczesne oszacowanie X i Y ) jest równa informacji ujawnionej przez przeprowadzenie dwóch następujących po sobie eksperymentów: najpierw oszacowanie wartości Y , a następnie ujawnienie wartości X pod warunkiem, że znasz wartość Y . Można to zapisać jako:
- daje Jeśli gdzie jest funkcją, to . poprzedniego
- więc , entropia zmiennej może się zmniejszyć tylko wtedy, gdy ta ostatnia przechodzi przez funkcję.
- Jeśli X i Y są dwiema niezależnymi zmiennymi losowymi, to znajomość wartości Y nie wpływa na naszą wiedzę o wartości X (ponieważ obie nie wpływają na siebie nawzajem przez niezależność):
- Bardziej ogólnie, dla dowolnych zmiennych losowych X i Y mamy
- .
- Entropia dwóch jednoczesnych zdarzeń jest nie większa niż suma entropii każdego pojedynczego zdarzenia, tj. , z równością wtedy i tylko wtedy, gdy dwa zdarzenia są niezależne.
- Entropia jest wklęsła w funkcji masy prawdopodobieństwa tj.
- masy i \
- W związku z tym funkcja entropii ujemnej (negentropii) jest wypukła, a jej koniugat wypukły to LogSumExp .
Aspekty
Związek z entropią termodynamiczną
Inspiracją do przyjęcia słowa entropia w teorii informacji było bliskie podobieństwo wzoru Shannona do bardzo podobnych wzorów znanych z mechaniki statystycznej .
W termodynamice statystycznej najbardziej ogólnym wzorem na entropię termodynamiczną S układu termodynamicznego jest entropia Gibbsa ,
gdzie k B jest stałą Boltzmanna , a pi jest prawdopodobieństwem mikrostanu . Entropia Gibbsa została zdefiniowana przez J. Willarda Gibbsa w 1878 r. Po wcześniejszej pracy Boltzmanna (1872).
Entropia Gibbsa przekłada się prawie niezmieniona na świat fizyki kwantowej, dając entropię von Neumanna , wprowadzoną przez Johna von Neumanna w 1927 r.,
gdzie ρ jest macierzą gęstości układu mechaniki kwantowej, a Tr jest śladem .
Na codziennym poziomie praktycznym powiązania między entropią informacyjną a entropią termodynamiczną nie są oczywiste. Fizycy i chemicy są bardziej zainteresowani zmianami entropii, gdy układ spontanicznie ewoluuje od swoich warunków początkowych, zgodnie z drugą zasadą termodynamiki , niż niezmiennym rozkładem prawdopodobieństwa. Jak wskazuje drobiazgowość stałej Boltzmanna k B , zmiany S / k B dla nawet niewielkich ilości substancji w procesach chemicznych i fizycznych reprezentują wielkości entropii, które są niezwykle duże w porównaniu z czymkolwiek w kompresji danych lub przetwarzaniu sygnałów . W klasycznej termodynamice entropia jest definiowana w kategoriach pomiarów makroskopowych i nie odnosi się do żadnego rozkładu prawdopodobieństwa, który ma kluczowe znaczenie dla definicji entropii informacyjnej.
Związek między termodynamiką a tym, co jest obecnie znane jako teoria informacji, został po raz pierwszy dokonany przez Ludwiga Boltzmanna i wyrażony jego słynnym równaniem :
gdzie jest entropią termodynamiczną określonego makrostanu (określoną przez parametry termodynamiczne, takie jak temperatura, objętość, energia itp.), liczbą mikrostanów (różne kombinacje cząstek w różnych stanach energetycznych), które mogą dają dany makrostan, a k B jest stałą Boltzmanna . Zakłada się, że każdy mikrostan jest jednakowo prawdopodobny, tak że prawdopodobieństwo danego mikrostanu wynosi p i = 1/ W . Gdy te prawdopodobieństwa podstawimy do powyższego wyrażenia na entropię Gibbsa (lub równoważnie k B razy entropia Shannona), otrzymamy równanie Boltzmanna. W kategoriach teorii informacji entropia informacyjna systemu to ilość „brakujących” informacji potrzebnych do określenia mikrostanu przy danym makrostanie.
Zdaniem Jaynesa (1957), entropię termodynamiczną, wyjaśnioną przez mechanikę statystyczną , należy postrzegać jako zastosowanie teorii informacji Shannona: entropię termodynamiczną interpretuje się jako proporcjonalną do ilości dalszych informacji Shannona potrzebnych do zdefiniowania szczegółowej mikroskopowej stan układu, którego nie komunikuje opis wyłącznie w kategoriach makroskopowych zmiennych klasycznej termodynamiki, przy czym stała proporcjonalności jest po prostu stałą Boltzmanna . Dodanie ciepła do układu zwiększa jego entropię termodynamiczną, ponieważ zwiększa liczbę możliwych stanów mikroskopowych układu, które są zgodne z mierzalnymi wartościami jego zmiennych makroskopowych, wydłużając każdy pełny opis stanu. (Patrz artykuł: termodynamika maksymalnej entropii ). Demon Maxwella może (hipotetycznie) zmniejszyć entropię termodynamiczną układu, wykorzystując informacje o stanach poszczególnych cząsteczek; ale, jak Landauer (z 1961 r.) i współpracownicy, aby sam demon mógł funkcjonować, musi zwiększyć entropię termodynamiczną w procesie przynajmniej o ilość informacji Shannona, które zamierza najpierw zdobyć i przechować; więc całkowita entropia termodynamiczna nie maleje (co rozwiązuje paradoks). Zasada Landauera nakłada dolną granicę na ilość ciepła, jaką komputer musi wytworzyć, aby przetworzyć określoną ilość informacji, chociaż nowoczesne komputery są znacznie mniej wydajne.
Kompresja danych
Definicja entropii Shannona zastosowana do źródła informacji może określić minimalną przepustowość kanału wymaganą do niezawodnego przesyłania źródła jako zakodowanych cyfr binarnych. Entropia Shannona mierzy informacje zawarte w wiadomości w przeciwieństwie do części wiadomości, która jest określona (lub przewidywalna). Przykładami tych ostatnich są redundancja w strukturze języka lub właściwości statystyczne dotyczące częstości występowania par liter lub słów, trójek itp. Minimalną przepustowość kanału można zrealizować w teorii za pomocą typowego zestawu lub w praktyce za pomocą Huffmana , Lempla - Ziva lub kodowanie arytmetyczne . (Zobacz także złożoność Kołmogorowa ). W praktyce algorytmy kompresji celowo zawierają pewną rozsądną redundancję w postaci sum kontrolnych w celu ochrony przed błędami. Współczynnik entropii źródła danych to średnia liczba bitów na symbol potrzebna do jego zakodowania. Eksperymenty Shannona z ludzkimi predyktorami pokazują szybkość informacji między 0,6 a 1,3 bitów na znak w języku angielskim; algorytm kompresji PPM może osiągnąć stopień kompresji 1,5 bita na znak w tekście angielskim.
Jeśli schemat kompresji jest bezstratny — taki, w którym zawsze można odzyskać całą oryginalną wiadomość przez dekompresję — to skompresowana wiadomość zawiera taką samą ilość informacji jak oryginał, ale jest przekazywana mniejszą liczbą znaków. Ma więcej informacji (wyższa entropia) na postać. Skompresowana wiadomość ma mniejszą redundancję . Twierdzenie Shannona o kodowaniu źródłowym stwierdza, że bezstratny schemat kompresji nie może skompresować wiadomości średnio tak, aby zawierały więcej niż jeden bit informacji na bit wiadomości, ale dowolna wartość mniejsza niż jeden bit informacji na bit wiadomości może zostać osiągnięta przez zastosowanie odpowiedniego schemat kodowania. Entropia wiadomości na bit pomnożona przez długość tej wiadomości jest miarą całkowitej ilości informacji zawartych w wiadomości. Twierdzenie Shannona sugeruje również, że żaden schemat bezstratnej kompresji nie może skrócić wszystkich wiadomości. Jeśli niektóre wiadomości wychodzą krócej, przynajmniej jedna musi wyjść dłużej ze względu na zasadę przegródki . W praktyce nie stanowi to na ogół problemu, ponieważ zwykle interesuje nas kompresja tylko niektórych rodzajów wiadomości, takich jak dokument w języku angielskim, w przeciwieństwie do bełkotliwego tekstu lub fotografii cyfrowych, a nie szumu, i nie ma znaczenia, czy algorytm kompresji powoduje, że niektóre nieprawdopodobne lub nieciekawe sekwencje stają się większe.
Badanie z 2011 roku w Science szacuje światową zdolność technologiczną do przechowywania i przekazywania optymalnie skompresowanych informacji, znormalizowanych na podstawie najskuteczniejszych algorytmów kompresji dostępnych w roku 2007, szacując w ten sposób entropię technologicznie dostępnych źródeł.
Rodzaj informacji | 1986 | 2007 |
---|---|---|
Składowanie | 2.6 | 295 |
Audycja | 432 | 1900 |
Telekomunikacja | 0,281 | 65 |
Autorzy szacują możliwości technologiczne ludzkości do przechowywania informacji (w pełni skompresowanej entropicznie) w 1986 i ponownie w 2007. Dzielą informacje na trzy kategorie — przechowywanie informacji na nośniku, otrzymywanie informacji za pośrednictwem jednokierunkowych sieci rozgłoszeniowych lub wymiana informacji przez dwukierunkowe sieci telekomunikacyjne .
Entropia jako miara różnorodności
Entropia jest jednym z kilku sposobów pomiaru różnorodności biologicznej i jest stosowana w postaci wskaźnika Shannona . Indeks różnorodności jest ilościową miarą statystyczną tego, ile różnych typów istnieje w zbiorze danych, takich jak gatunki w społeczności, co odpowiada za bogactwo ekologiczne , równość i dominację . W szczególności entropia Shannona jest logarytmem 1 D , prawdziwego wskaźnika różnorodności z parametrem równym 1. Wskaźnik Shannona jest powiązany z proporcjonalną obfitością typów.
Ograniczenia entropii
Istnieje wiele koncepcji związanych z entropią, które w pewien sposób matematycznie określają zawartość informacji:
- samoinformacja pojedynczego komunikatu lub symbolu zaczerpnięta z danego rozkładu prawdopodobieństwa ,
- entropia danego rozkładu prawdopodobieństwa wiadomości lub symboli oraz
- szybkość entropii procesu stochastycznego .
(„Szybkość samoinformacji” można również zdefiniować dla określonej sekwencji komunikatów lub symboli generowanych przez dany proces stochastyczny: zawsze będzie ona równa szybkości entropii w przypadku procesu stacjonarnego). Inne ilości informacji są również używane do porównywania lub powiązania różnych źródeł informacji.
Ważne jest, aby nie mylić powyższych pojęć. Często jasne jest tylko z kontekstu, o który z nich chodzi. Na przykład, gdy ktoś mówi, że „entropia” języka angielskiego wynosi około 1 bitu na znak, w rzeczywistości modeluje język angielski jako proces stochastyczny i mówi o współczynniku entropii . Sam Shannon użył tego terminu w ten sposób.
Jeśli używane są bardzo duże bloki, oszacowanie współczynnika entropii na znak może stać się sztucznie zaniżone, ponieważ rozkład prawdopodobieństwa sekwencji nie jest dokładnie znany; to tylko szacunki. Jeśli weźmie się pod uwagę tekst każdej kiedykolwiek opublikowanej książki jako sekwencję, gdzie każdy symbol jest tekstem całej książki, i jeśli jest N opublikowanych książek, a każda książka została opublikowana tylko raz, oszacowanie prawdopodobieństwa każdej książki wynosi 1/ N , a entropia (w bitach) to −log 2 (1/ N ) = log 2 ( N ) . Jako praktyczny kod odpowiada to przypisywaniu każdej książce unikalnego identyfikatora i używaniu go zamiast tekstu książki, ilekroć ktoś chce się do niej odnieść. Jest to niezwykle przydatne do mówienia o książkach, ale nie jest tak przydatne do charakteryzowania zawartości informacyjnej pojedynczej książki lub ogólnie języka: nie można zrekonstruować książki na podstawie jej identyfikatora bez znajomości rozkładu prawdopodobieństwa, tj. , pełny tekst wszystkich książek. Kluczową ideą jest to, że należy wziąć pod uwagę złożoność modelu probabilistycznego. Złożoność Kołmogorowa jest teoretycznym uogólnieniem tej idei, które pozwala na rozważenie zawartości informacyjnej sekwencji niezależnej od jakiegokolwiek konkretnego modelu prawdopodobieństwa; bierze pod uwagę najkrótszy program dla uniwersalnego komputera , który wyświetla sekwencję. Kod, który osiąga współczynnik entropii sekwencji dla danego modelu, plus książka kodów (tj. model probabilistyczny), jest jednym z takich programów, ale może nie być najkrótszy.
Ciąg Fibonacciego to 1, 1, 2, 3, 5, 8, 13, .... traktując ciąg jako wiadomość, a każdą liczbę jako symbol, jest prawie tyle symboli, ile jest znaków w wiadomości, dając entropia około log 2 ( n ) . Pierwsze 128 symboli ciągu Fibonacciego ma entropię około 7 bitów/symbol, ale sekwencję można wyrazić za pomocą wzoru [ F ( n ) = F ( n −1) + F ( n −2) dla n = 3 , 4, 5, ... , F(1) =1 , F(2) = 1 ] i ten wzór ma znacznie niższą entropię i dotyczy dowolnej długości ciągu Fibonacciego.
Ograniczenia entropii w kryptografii
W kryptoanalizie entropia jest często z grubsza używana jako miara nieprzewidywalności klucza kryptograficznego, chociaż jego rzeczywista niepewność jest niemierzalna. Na przykład klucz 128-bitowy, który jest generowany w sposób jednolity i losowy, ma 128 bitów entropii. wymaga również (średnio) zgadywania Entropii nie udaje się uchwycić liczby wymaganych domysłów, jeśli możliwe klucze nie są wybierane jednolicie. Zamiast tego do pomiaru wysiłku wymaganego do ataku siłowego można zastosować miarę zwaną zgadywaniem .
Inne problemy mogą wynikać z niejednorodnych rozkładów stosowanych w kryptografii. Na przykład jednorazowy pad binarny o długości 1 000 000 cyfr przy użyciu wyłączności lub. Jeśli podkładka ma 1 000 000 bitów entropii, jest idealna. Jeśli podkładka ma 999 999 bitów entropii, równomiernie rozłożonych (każdy pojedynczy bit płytki ma 0,999999 bitów entropii), może zapewnić dobre bezpieczeństwo. Ale jeśli pad ma 999 999 bitów entropii, gdzie pierwszy bit jest ustalony, a pozostałe 999 999 bitów jest całkowicie losowych, pierwszy bit tekstu zaszyfrowanego w ogóle nie zostanie zaszyfrowany.
Dane jako proces Markowa
Powszechny sposób definiowania entropii dla tekstu opiera się na modelu tekstu Markowa . Dla źródła rzędu 0 (każdy znak jest wybierany niezależnie od ostatnich znaków) entropia binarna wynosi:
gdzie p i jest prawdopodobieństwem i . Dla źródła Markowa pierwszego rzędu (takiego, w którym prawdopodobieństwo wyboru znaku zależy tylko od znaku bezpośrednio poprzedzającego) współczynnik entropii wynosi:
- potrzebne źródło ]
gdzie i jest stanem pewne poprzedzające znaki), prawdopodobieństwem j podanego jako znaku
Dla źródła Markowa drugiego rzędu współczynnik entropii wynosi
Wydajność (znormalizowana entropia)
Alfabet źródłowy z nierównomiernym rozkładem będzie miał mniejszą entropię niż gdyby te symbole miały rozkład równomierny (tj. „alfabet zoptymalizowany”). Ten niedobór entropii można wyrazić jako stosunek zwany wydajnością [ Ten cytat wymaga cytowania ] :
Stosując podstawowe właściwości logarytmu, wielkość tę można również wyrazić jako:
Wydajność jest przydatna w ilościowym określaniu efektywnego wykorzystania kanału komunikacyjnego . To sformułowanie jest również określane jako znormalizowana entropia, ponieważ entropia jest dzielona przez maksymalny . Ponadto wydajność jest obojętna na wybór (dodatniej) podstawy b , na co wskazuje niewrażliwość w końcowym logarytmie powyżej.
Entropia dla ciągłych zmiennych losowych
Entropia różniczkowa
Entropia Shannona jest ograniczona do zmiennych losowych przyjmujących wartości dyskretne. Odpowiedni wzór na ciągłą zmienną losową z funkcją gęstości prawdopodobieństwa fa ( x ) ze skończonym lub nieskończonym wsparciem na linii rzeczywistej jest definiowany przez analogię, przy użyciu powyższej postaci entropii jako oczekiwania :
Jest to entropia różniczkowa (lub entropia ciągła). Prekursorem ciągłej entropii h [ f ] jest wyrażenie na funkcjonał Η w H- twierdzeniu Boltzmanna .
Chociaż analogia między obiema funkcjami jest sugestywna, należy zadać następujące pytanie: czy entropia różniczkowa jest prawidłowym rozszerzeniem dyskretnej entropii Shannona? Entropia różniczkowa nie ma wielu właściwości, które ma dyskretna entropia Shannona - może nawet być ujemna - i zaproponowano poprawki, w szczególności ograniczające gęstość dyskretnych punktów .
Aby odpowiedzieć na to pytanie, należy ustanowić połączenie między dwiema funkcjami:
Aby uzyskać ogólnie skończoną miarę, gdy rozmiar pojemnika spada do zera. W przypadku dyskretnym rozmiar pojemnika jest (niejawną) szerokością każdego z n (skończonych lub nieskończonych) pojemników, których prawdopodobieństwa są oznaczone przez p n . Ponieważ domena ciągła jest uogólniona, szerokość musi być wyraźna.
Aby to zrobić, zacznij od funkcji ciągłej f podzielonej na przedziały o rozmiarze . Z twierdzenia o wartości średniej wynika, że w każdym przedziale istnieje taka wartość x i, że
będziemy oznaczać
Ponieważ Δ → 0 mamy
Notatka; log(Δ) → −∞ jak Δ → 0 , wymaga specjalnej definicji entropii różniczkowej lub ciągłej:
która jest, jak powiedziano wcześniej, określana jako entropia różniczkowa. Oznacza to, że entropia różniczkowa nie jest granicą entropii Shannona dla n → ∞ . Różni się raczej od granicy entropii Shannona nieskończonym przesunięciem (zobacz także artykuł o wymiarze informacyjnym ).
Gęstość graniczna punktów dyskretnych
W rezultacie okazuje się, że w przeciwieństwie do entropii Shannona, entropia różniczkowa na ogół nie jest dobrą miarą niepewności lub informacji. Na przykład entropia różniczkowa może być ujemna; nie jest również niezmienna w przypadku ciągłych transformacji współrzędnych. Problem ten można zilustrować zmianą jednostek, gdy x jest zmienną wymiarową. f ( x ) będzie wtedy miało jednostki 1/ x . Argument logarytmu musi być bezwymiarowy, w przeciwnym razie jest niewłaściwy, więc podana powyżej entropia różniczkowa będzie niewłaściwa. Jeśli Δ jest jakąś „standardową” wartością x (tj. „rozmiarem pojemnika”) i dlatego ma te same jednostki, to zmodyfikowaną entropię różniczkową można zapisać we właściwej postaci jako:
a wynik będzie taki sam dla dowolnego wyboru jednostek dla x . W rzeczywistości granica dyskretnej entropii jako również termin , który ogólnie byłby nieskończony. Można się tego spodziewać: zmienne ciągłe miałyby zazwyczaj nieskończoną entropię po dyskretyzacji. gęstość punktów dyskretnych jest w rzeczywistości miarą tego, o ile łatwiej jest opisać rozkład niż rozkład, który jest jednorodny w swoim schemacie kwantyzacji.
Względna entropia
Inną przydatną miarą entropii, która działa równie dobrze w przypadku dyskretnym, jak i ciągłym, jest względna entropia rozkładu. Definiuje się ją jako rozbieżność Kullbacka – Leiblera od rozkładu do miary odniesienia m w następujący sposób. Załóżmy, że rozkład prawdopodobieństwa p jest absolutnie ciągły względem miary m , tj. ma postać p ( dx ) = f ( x ) m ( dx ) dla pewnej nieujemnej m -całkowej funkcji f z m -całką 1, wtedy względną entropię można zdefiniować jako
W tej postaci entropia względna uogólnia (aż do zmiany znaku) zarówno entropię dyskretną, gdzie miarą m jest miara licząca , jak i entropię różniczkową, gdzie miarą m jest miara Lebesgue'a . Jeśli miara m sama jest rozkładem prawdopodobieństwa, względna entropia jest nieujemna i wynosi zero, jeśli p = m jako miary. Jest ona zdefiniowana dla dowolnej przestrzeni miary, a więc jest niezależna od współrzędnych i niezmienna przy reparametryzacji współrzędnych, jeśli odpowiednio uwzględni się transformację miary m . Względna entropia i (domyślnie) entropia i entropia różniczkowa zależą od miary „referencyjnej” m .
Zastosowanie w kombinatoryce
Entropia stała się użyteczną wielkością w kombinatoryce .
Nierówność Loomisa-Whitneya
Prostym tego przykładem jest alternatywny dowód nierówności Loomisa-Whitneya : dla każdego podzbioru A ⊆ Z d mamy
gdzie P i jest rzutem ortogonalnym w i- tej współrzędnej:
Dowód jest prostym następstwem nierówności Shearera : jeśli X 1 , ..., X d są zmiennymi losowymi i S 1 , ..., S n są podzbiorami {1, ..., d } takimi, że każda liczba całkowita zatem między 1 a d leży dokładnie w r tych podzbiorów
gdzie jest iloczynem kartezjańskim zmiennych losowych X j z indeksami j w S ja (więc wymiar tego wektor jest równy rozmiarowi S i ).
Naszkicujemy, w jaki sposób wynika z tego Loomis-Whitney: Rzeczywiście, niech X będzie zmienną losową o jednolitym rozkładzie z wartościami w A i tak, aby każdy punkt w A występował z równym prawdopodobieństwem. Wtedy (na podstawie dalszych właściwości entropii wspomnianych powyżej) Η( X ) = log| | _ , gdzie | | _ oznacza kardynalność A . Niech S ja = {1, 2, ..., ja −1, ja +1, ..., re }. Zakres jest zawarty w P ja ( ZA ) i stąd . Teraz użyj tego, aby powiązać prawą stronę nierówności Shearera i potęgować przeciwne strony otrzymanej nierówności.
Przybliżenie do współczynnika dwumianowego
Dla liczb całkowitych 0 < k < n niech q = k / n . Następnie
Gdzie
Dowód (szkic) to jeden Zmiana układu daje górną granicę. W przypadku dolnej granicy najpierw pokazuje się, używając pewnej algebry, że jest to największy wyraz w sumowaniu. Ale wtedy,
w sumowaniu jest n + 1 wyrazów. Zmiana układu daje dolną granicę.
Dobrą interpretacją tego jest to, że liczba łańcuchów binarnych o długości n z dokładnie k wieloma jedynekami wynosi około .
Zastosowanie w uczeniu maszynowym
uczenia maszynowego wywodzą się w dużej mierze ze statystyki, a także teorii informacji. Ogólnie rzecz biorąc, entropia jest miarą niepewności, a celem uczenia maszynowego jest zminimalizowanie niepewności.
uczenia się drzew decyzyjnych wykorzystują względną entropię do określenia reguł decyzyjnych rządzących danymi w każdym węźle. informacji w drzewach decyzyjnych entropią entropią warunkową biorąc pod uwagę podstawie dodatkowej znajomości wartości atrybutu . Zysk informacji służy do określenia, które atrybuty zbioru danych dostarczają najwięcej informacji i powinien być wykorzystany do optymalnego podziału węzłów drzewa.
wnioskowania bayesowskiego często stosują zasadę maksymalnej entropii w celu uzyskania rozkładów prawdopodobieństwa a priori . Chodzi o to, że dystrybucja, która najlepiej reprezentuje aktualny stan wiedzy o systemie, to ta z największą entropią, a zatem nadaje się do bycia priorytetem.
Klasyfikacja w uczeniu maszynowym przeprowadzana za pomocą regresji logistycznej lub sztucznych sieci neuronowych często wykorzystuje standardową funkcję strat, zwaną utratą entropii krzyżowej , która minimalizuje średnią entropię krzyżową między prawdą podstawową a przewidywanymi rozkładami. Ogólnie rzecz biorąc, entropia krzyżowa jest miarą różnic między dwoma zbiorami danych, podobnie jak dywergencja KL (inaczej entropia względna).
Zobacz też
- Przybliżona entropia (ApEn)
- Entropia (termodynamika)
- Entropia krzyżowa - jest miarą średniej liczby bitów potrzebnych do zidentyfikowania zdarzenia ze zbioru możliwości między dwoma rozkładami prawdopodobieństwa
- Entropia (strzałka czasu)
- Kodowanie entropijne - schemat kodowania, który przypisuje kody do symboli, aby dopasować długości kodu do prawdopodobieństw symboli.
- Szacowanie entropii
- Nierówność mocy entropii
- Informacje Fishera
- Wykres entropii
- Odległość Hamminga
- Historia entropii
- Historia teorii informacji
- Złożoność fluktuacji informacji
- Geometria informacji
- Entropia Kołmogorowa-Synaju w układach dynamicznych
- Odległość Levenshteina
- Wzajemne informacje
- Zakłopotanie
- Zmienność jakościowa – inne miary rozproszenia statystycznego dla rozkładów nominalnych
- Entropia względna kwantowa – miara rozróżnialności dwóch stanów kwantowych.
- Entropia Rényi – uogólnienie entropii Shannona; jest to jeden z rodziny funkcjonałów służących do ilościowego określania różnorodności, niepewności lub losowości systemu.
- Losowość
- Próbka entropii (SampEn)
- Indeks Shannona
- Indeks Theila
- Typoglikemia
Ten artykuł zawiera materiał z entropii Shannona na PlanetMath , który jest objęty licencją Creative Commons Attribution/Share-Alike License .
Dalsza lektura
Podręczniki z teorii informacji
- Okładka, TM , Thomas, JA (2006), Elementy teorii informacji - wyd. 2. , Wiley-Interscience, ISBN 978-0-471-24195-9
- MacKay, DJC (2003), Teoria informacji, wnioskowanie i algorytmy uczenia się , Cambridge University Press, ISBN 978-0-521-64298-9
- Arndt, C. (2004), Środki informacyjne: informacja i jej opis w nauce i inżynierii , Springer, ISBN 978-3-540-40855-0
- Gray, RM (2011), Entropia i teoria informacji , Springer.
-
Martin, Nathaniel FG i Anglia, James W. (2011). Matematyczna teoria entropii . Wydawnictwo Uniwersytetu Cambridge. ISBN 978-0-521-17738-2 .
{{ cite book }}
: CS1 maint: używa parametru autorów ( link ) - Shannon, CE , Weaver, W. (1949) Matematyczna teoria komunikacji , Univ of Illinois Press. ISBN 0-252-72548-4
- Stone, JV (2014), rozdział 1 teorii informacji: wprowadzenie do samouczka , University of Sheffield, Anglia. ISBN 978-0956372857 .
Linki zewnętrzne
Zasoby biblioteczne dotyczące entropii (teoria informacji) |
- „Entropia” , Encyklopedia matematyki , EMS Press , 2001 [1994]
- „Entropia” w Rosetta Code — repozytorium implementacji entropii Shannona w różnych językach programowania.
- Entropia to interdyscyplinarne czasopismo poświęcone wszystkim aspektom koncepcji entropii. Otwarty dostęp.