Binarny kanał symetryczny
Binarny kanał symetryczny (lub BSC p ) to powszechny model kanału komunikacyjnego używany w teorii kodowania i teorii informacji . W tym modelu nadajnik chce wysłać bit (zero lub jedynkę), a odbiornik otrzyma bit. Bit zostanie „odwrócony” z „ prawdopodobieństwem przecięcia ” równym p , a poza tym zostanie odebrany poprawnie. Model ten można zastosować do różnych kanałów komunikacyjnych, takich jak linie telefoniczne czy masowa na dyskach .
Twierdzenie o kodowaniu kanałów z szumem stosuje się do BSC p , mówiąc, że informacje mogą być przesyłane z dowolną szybkością aż do pojemności kanału z dowolnie niskim błędem. Pojemność kanału wynosi bitów, gdzie to binarna funkcja entropii . Kody, w tym kod Forneya, zostały zaprojektowane w celu wydajnego przesyłania informacji w kanale.
Definicja
Binarny kanał symetryczny z prawdopodobieństwem przecięcia przez BSC p , to kanał z wejściem binarnym i wyjściem binarnym oraz prawdopodobieństwem błędu . Oznacza to, że jeśli jest przesyłaną zmienną losową , a odbieraną zmienną, to kanał charakteryzuje się prawdopodobieństwami warunkowymi :
Zakłada się, że . Jeśli , 0 i odwrotnie) i uzyskać równoważny kanał z .
Pojemność
Pojemność kanału binarnego kanału symetrycznego w bitach wynosi:
gdzie jest binarną funkcją entropii , zdefiniowaną przez:
Dowód Pojemność jest definiowana jako maksymalna wzajemna informacja między wejściem a wyjściem dla wszystkich możliwych rozkładów wejściowych : Wzajemne informacje można przeformułować jako
gdzie pierwszy i drugi krok wynika odpowiednio z definicji informacji wzajemnej i entropii warunkowej . Entropia na wyjściu dla danego i ustalonego symbolu wejściowego ( do trzeciego wiersza i dalsze uproszczenie.
W ostatnim wierszu tylko pierwszy termin zależy od rozkładu danych wejściowych. . Entropia zmiennej binarnej wynosi co najwyżej 1 bit, a równość jest osiągana, jeśli jej rozkład prawdopodobieństwa jest jednolity. Dlatego wystarczy przedstawić rozkład wejściowy, który daje jednolity rozkład prawdopodobieństwa dla wyniku. Y W tym celu należy zauważyć, że właściwością dowolnego binarnego kanału symetrycznego jest to, że jednolity rozkład prawdopodobieństwa wejścia skutkuje jednolitym rozkładem prawdopodobieństwa wyjścia. Stąd wartość { . Do .
Twierdzenie o kodowaniu kanałów szumowych
Shannona o hałaśliwym kanale kodowania daje wynik dotyczący szybkości informacji, które mogą być przesyłane kanałem komunikacyjnym z dowolnie niskim błędem. Badamy szczególny przypadek .
Szum , który charakteryzuje zmienną z n niezależnych losowych bitów (n jest zdefiniowane poniżej), gdzie każdy losowy z prawdopodobieństwem za { z prawdopodobieństwem . Wskazujemy to, pisząc „ ”.
Twierdzenie - Dla wszystkich wszystkie wszystkie wystarczająco w i wszystkie , istnieje para funkcji kodowania i dekodowania i odpowiednio, tak że każda wiadomość ma następującą właściwość:
- .
wiadomość wybrana z pomocą losowej funkcji kodowania wysłana hałaśliwy , istnieje bardzo duże prawdopodobieństwo odzyskania oryginalnej wiadomości przez dekodowanie, jeśli lub w efekcie szybkość kanału jest ograniczona przez wielkość określoną w twierdzeniu. Prawdopodobieństwo błędu dekodowania jest wykładniczo małe.
Dowód
Twierdzenie można dowieść bezpośrednio metodą probabilistyczną . Rozważ wybraną funkcję kodowania losowo. to, że dla wartość jest wybierany losowo (z równym prawdopodobieństwem). Dla danej funkcji kodowania mi dekodowania w następujący sposób: biorąc pod uwagę , takie, że odległość Hamminga jest tak mały, jak to możliwe (z arbitralnie zerwanymi krawatami). ( funkcją dekodowania największej wiarygodności ).
że co najmniej jeden taki wybór wniosek twierdzenia poprzez Załóżmy i . Najpierw pokazujemy, że dla ustalonego wybranego prawdopodobieństwa niepowodzenia przez szum jest wykładniczo mały w n . W tym momencie dowód działa dla ustalonej wiadomości . Następnie rozszerzamy ten wynik, aby działał dla wszystkich wiadomości . Osiągamy to poprzez wyeliminowanie połowy słów kodowych z kodu z argumentem, że dowód na prawdopodobieństwo błędu dekodowania zachodzi dla co najmniej połowy słów kodowych. Ta ostatnia metoda nazywa się oczyszczeniem. Daje to całemu procesowi nazwę losowego kodowania z usuwaniem .
Kontynuacja dowodu (szkic) Napraw i . Biorąc , musimy oszacować oczekiwaną wartość wraz z szumem oddać na dekodowanie Oznacza to, że musimy oszacować: Niech będzie kodowym. Aby zdekodowane słowo kodowe nie było równe wiadomości musi wystąpić jedno z następujących zdarzeń:
- nie leży w kuli Hamminga o promieniu wyśrodkowanym w . Ten warunek jest używany głównie w celu ułatwienia obliczeń.
- Jest że . Innymi słowy, błędy spowodowane szumem zbliżają przesyłane słowo kodowe do innej zakodowanej wiadomości.
Możemy zastosować wiązanie Chernoffa , aby zapewnić brak wystąpienia pierwszego zdarzenia; otrzymujemy:
Jest to wykładniczo małe dla dużych , że ).
W przypadku drugiego zdarzenia zauważamy, że prawdopodobieństwo, że jest gdzie to kula Hamminga o promieniu wyśrodkowana na wektorze i to jego objętość. Wykorzystując przybliżenie do oszacowania liczby słów kodowych w kuli Hamminga, mamy wynosi Teraz używając związku związkowego , my może górna granica istnienia takiego przez , czyli , zgodnie z życzeniem przez wybór .
Kontynuacja dowodu (szczegóły) Na podstawie powyższej analizy obliczamy prawdopodobieństwo zdarzenia, w którym zdekodowane słowo kodowe plus szum kanału nie jest tożsame z oryginalną wysłaną wiadomością. Wprowadzimy tutaj kilka symboli. Niech oznacza prawdopodobieństwo otrzymania słowa kodowego , biorąc pod uwagę to słowo kodowe został wysłany. Niech oznacza Ostatnią nierówność otrzymujemy z naszej analizy przy użyciu powyższej granicy Chernoffa . Teraz biorąc pod uwagę oczekiwania po obu stronach mamy,
odpowiednio wybierając wartość . . Ponieważ powyższa granica obowiązuje dla każdej wiadomości, mamy
i wyboru funkcji kodowania . Stąd:
Podsumowując, metodą probabilistyczną mamy pewną funkcję kodowania odpowiednią funkcję dekodowania taką, że
W tym momencie dowód działa dla ustalonej wiadomości . musimy się upewnić, że powyższa granica obowiązuje wszystkich wiadomości jednocześnie . W tym celu posortujmy według prawdopodobieństwa ich błędów Teraz, stosując nierówność Markowa , możemy pokazać pierwszych co najwyżej . aby potwierdzić, że powyższy warunek obowiązuje dla , moglibyśmy prostu odciąć ostatnie posortowanej kolejności. To zasadniczo daje nam inną funkcję kodowania dekodowania z prawdopodobieństwem błędu dekodowania co najwyżej z tą samą szybkością. Biorąc za równe związaliśmy prawdopodobieństwo błędu dekodowania z . Ten proces oczyszczania kończy dowód.
Odwrotność twierdzenia Shannona o pojemności
Odwrotność twierdzenia o pojemności zasadniczo stwierdza, że szybkość, jaką można osiągnąć w Formalnie twierdzenie stwierdza:
Twierdzenie - Jeśli to następujące stwierdzenie jest prawdziwe dla każdej funkcji kodowania i dekodowania mi { i re { odpowiednio: [ re .
Intuicja stojąca za dowodem wskazuje jednak, że liczba błędów szybko rośnie, gdy szybkość przekracza pojemność kanału. Chodzi że nadawca generuje wiadomości o wymiarze podczas gdy kanał wprowadza błędy transmisji Gdy pojemność kanału wynosi , liczba błędów wynosi zazwyczaj dla kod długości bloku . Maksymalna liczba wiadomości to . strony wyjście kanału ma wartości. Jeśli istnieje jakiekolwiek zamieszanie między dowolnymi dwoma komunikatami, jest prawdopodobne, że . Stąd mielibyśmy , przypadek, którego chcielibyśmy uniknąć aby prawdopodobieństwo błędu dekodowania było wykładniczo małe.
Kody
Bardzo niedawno wykonano i nadal wykonuje się wiele pracy w celu zaprojektowania jawnych kodów korygujących błędy, aby osiągnąć możliwości kilku standardowych kanałów komunikacyjnych. Motywacją do projektowania takich kodów jest powiązanie szybkości kodu z ułamkiem błędów, które może poprawić.
Podejście stojące za projektowaniem kodów, które spełniają możliwości kanału lub binarnego kanału kasowania polegało na poprawieniu mniejszej liczby błędy z dużym prawdopodobieństwem i osiągnięcie jak najwyższego wskaźnika. Twierdzenie Shannona daje nam najlepszą stopę, jaką można osiągnąć przez nie daje nam wyobrażenia o żadnych wyraźnych kodach, które osiągają tę szybkość. W rzeczywistości takie kody są zwykle konstruowane tak, aby korygować tylko niewielką część błędów z dużym prawdopodobieństwem, ale osiągają bardzo dobry wskaźnik. Pierwszy taki kod został napisany przez George'a D. Forneya w 1966 roku. Kod jest kodem połączonym przez połączenie dwóch różnych rodzajów kodów.
kod Forneya
skonstruował kod kanału twierdzenie o kodowaniu dla . W swoim kodzie
- Kod zewnętrzny o długości bloku szybkości nad polem i Displaystyle . Dodatkowo mamy algorytm dekodowania dla poprawić do ułamka najgorsze błędy i działa w czasie
- Wewnętrzny kod jest kodem długości bloku wymiaru i } Dodatkowo mamy algorytm dekodowania dla z prawdopodobieństwem błędu dekodowania co najwyżej przez i działa w czas.
W przypadku kodu zewnętrznego Reeda-Solomona byłby pierwszym kodem, który przyszedłby na Widzielibyśmy jednak, że konstrukcji takiego kodu nie można wykonać w czasie wielomianowym. dlatego kod liniowy używany do .
kodu wewnętrznego liniowy , przeszukując kod liniowy o długości bloku wymiarze którego szybkość pojemność hałaśliwym kodowaniu kanału.
Szybkość co prawie spełnia pojemność. że kodowanie i dekodowanie można wykonać w czasie wielomianowym w odniesieniu W rzeczywistości kodowanie czasu . algorytm tak długo, jak ; i .
Prawdopodobieństwo błędu dekodowania
Naturalnym algorytmem dekodowania dla jest: do
- Załóżmy
- Wykonaj na
Zauważ, że każdy blok kodu dla jest uważany za symbol . Teraz, ponieważ prawdopodobieństwo błędu w dowolnym indeksie { wynosi co najwyżej a błędy w niezależne, oczekiwana liczba błędów dla wynosi co najwyżej przez liniowość oczekiwań. Stosując teraz ograniczenie Chernoffa , mamy związane prawdopodobieństwo błędu większe niż występujące błędy mi . Ponieważ kod zewnętrzny poprawić co najwyżej , jest to dekodowania . Wyrażone asymptotycznie, daje nam prawdopodobieństwo błędu . Zatem osiągnięte prawdopodobieństwo błędu dekodowania hałaśliwym kanale kodowania
Podaliśmy ogólną technikę konstruowania . Aby uzyskać bardziej szczegółowe opisy i przeczytaj poniższe odniesienia. Ostatnio skonstruowano również kilka innych kodów dla osiągnięcia tych zdolności. LDPC zostały wzięte pod uwagę w tym celu ze względu na ich szybszy czas dekodowania.
Aplikacje
Binarny kanał symetryczny może modelować dysk używany do przechowywania pamięci: wejście kanału reprezentuje bit zapisywany na dysku, a wyjście odpowiada bitowi później odczytywanemu. Błąd może wynikać z odwrócenia magnetyzacji, szumu tła lub błędu głowicy piszącej. Inne obiekty, które może modelować binarny kanał symetryczny, obejmują telefoniczną lub radiową linię komunikacyjną lub podział komórki , z którego komórki potomne zawierają informacje DNA z ich komórki macierzystej.
Ten kanał jest często używany przez teoretyków, ponieważ jest jednym z najłatwiejszych do analizy kanałów z szumem . Wiele problemów w teorii komunikacji można zredukować do BSC. I odwrotnie, możliwość skutecznej transmisji przez BSC może dać początek rozwiązaniom dla bardziej skomplikowanych kanałów.
Zobacz też
Notatki
- Okładka, Thomas M.; Thomas, Joy A. (1991). Elementy teorii informacji . Hoboken, New Jersey: Wiley. ISBN 978-0-471-24195-9 .
- G. David Forney. Kody łączone . MIT Press, Cambridge, MA, 1966.
- Kurs Venkata Guruswamy'ego na temat [1] Kody korekcji błędów: konstrukcje i algorytmy], jesień 2006.
- MacKay, David JC (2003). Teoria informacji, wnioskowanie i algorytmy uczenia się . Wydawnictwo Uniwersytetu Cambridge. ISBN 0-521-64298-1 .
- Kurs Atri Rudry na temat kodów korygujących błędy: kombinatoryka, algorytmy i aplikacje (jesień 2007), wykłady 9 , 10 , 29 i 30 .
- Kurs Madhu Sudan na temat algorytmicznego wprowadzenia do teorii kodowania (jesień 2001), wykład 1 i 2 .
- Matematyczna teoria komunikacji C. E Shannon, ACM SIGMOBILE Mobile Computing and Communications Review.
- Nowoczesna teoria kodowania autorstwa Toma Richardsona i Rudigera Urbanke., Cambridge University Press