Binarny kanał symetryczny

Binarny kanał symetryczny (lub BSC p ) to powszechny model kanału komunikacyjnego używany w teorii kodowania i teorii informacji . W tym modelu nadajnik chce wysłać bit (zero lub jedynkę), a odbiornik otrzyma bit. Bit zostanie „odwrócony” z „ prawdopodobieństwem przecięcia ” równym p , a poza tym zostanie odebrany poprawnie. Model ten można zastosować do różnych kanałów komunikacyjnych, takich jak linie telefoniczne czy masowa na dyskach .

Twierdzenie o kodowaniu kanałów z szumem stosuje się do BSC p , mówiąc, że informacje mogą być przesyłane z dowolną szybkością aż do pojemności kanału z dowolnie niskim błędem. Pojemność kanału wynosi bitów, gdzie to binarna funkcja entropii . Kody, w tym kod Forneya, zostały zaprojektowane w celu wydajnego przesyłania informacji w kanale.

Definicja

Binary symmetric channel
Binarny kanał symetryczny widzi każdy bit wiadomości przesłanej poprawnie z prawdopodobieństwem 1– p i niepoprawnie z prawdopodobieństwem p , z powodu szumu w medium transmisyjnym.

Binarny kanał symetryczny z prawdopodobieństwem przecięcia przez BSC p , to kanał z wejściem binarnym i wyjściem binarnym oraz prawdopodobieństwem błędu . Oznacza to, że jeśli jest przesyłaną zmienną losową , a odbieraną zmienną, to kanał charakteryzuje się prawdopodobieństwami warunkowymi :

Zakłada się, że . Jeśli , 0 i odwrotnie) i uzyskać równoważny kanał z .

Pojemność

Pojemność kanału binarnego kanału symetrycznego w bitach wynosi:

gdzie jest binarną funkcją entropii , zdefiniowaną przez:

Twierdzenie o kodowaniu kanałów szumowych

Shannona o hałaśliwym kanale kodowania daje wynik dotyczący szybkości informacji, które mogą być przesyłane kanałem komunikacyjnym z dowolnie niskim błędem. Badamy szczególny przypadek .

Szum , który charakteryzuje zmienną z n niezależnych losowych bitów (n jest zdefiniowane poniżej), gdzie każdy losowy z prawdopodobieństwem za { z prawdopodobieństwem . Wskazujemy to, pisząc „ ”.

Twierdzenie - Dla wszystkich wszystkie wszystkie wystarczająco w i wszystkie , istnieje para funkcji kodowania i dekodowania i odpowiednio, tak że każda wiadomość ma następującą właściwość:

.

wiadomość wybrana z pomocą losowej funkcji kodowania wysłana hałaśliwy , istnieje bardzo duże prawdopodobieństwo odzyskania oryginalnej wiadomości przez dekodowanie, jeśli lub w efekcie szybkość kanału jest ograniczona przez wielkość określoną w twierdzeniu. Prawdopodobieństwo błędu dekodowania jest wykładniczo małe.

Dowód

Twierdzenie można dowieść bezpośrednio metodą probabilistyczną . Rozważ wybraną funkcję kodowania losowo. to, że dla wartość jest wybierany losowo (z równym prawdopodobieństwem). Dla danej funkcji kodowania mi dekodowania w następujący sposób: biorąc pod uwagę , takie, że odległość Hamminga jest tak mały, jak to możliwe (z arbitralnie zerwanymi krawatami). ( funkcją dekodowania największej wiarygodności ).

że co najmniej jeden taki wybór wniosek twierdzenia poprzez Załóżmy i . Najpierw pokazujemy, że dla ustalonego wybranego prawdopodobieństwa niepowodzenia przez szum jest wykładniczo mały w n . W tym momencie dowód działa dla ustalonej wiadomości . Następnie rozszerzamy ten wynik, aby działał dla wszystkich wiadomości . Osiągamy to poprzez wyeliminowanie połowy słów kodowych z kodu z argumentem, że dowód na prawdopodobieństwo błędu dekodowania zachodzi dla co najmniej połowy słów kodowych. Ta ostatnia metoda nazywa się oczyszczeniem. Daje to całemu procesowi nazwę losowego kodowania z usuwaniem .

Odwrotność twierdzenia Shannona o pojemności

Odwrotność twierdzenia o pojemności zasadniczo stwierdza, że szybkość, jaką można osiągnąć w Formalnie twierdzenie stwierdza:

Twierdzenie - Jeśli to następujące stwierdzenie jest prawdziwe dla każdej funkcji kodowania i dekodowania mi { i re { odpowiednio: [ re .

Intuicja stojąca za dowodem wskazuje jednak, że liczba błędów szybko rośnie, gdy szybkość przekracza pojemność kanału. Chodzi że nadawca generuje wiadomości o wymiarze podczas gdy kanał wprowadza błędy transmisji Gdy pojemność kanału wynosi , liczba błędów wynosi zazwyczaj dla kod długości bloku . Maksymalna liczba wiadomości to . strony wyjście kanału ma wartości. Jeśli istnieje jakiekolwiek zamieszanie między dowolnymi dwoma komunikatami, jest prawdopodobne, że . Stąd mielibyśmy , przypadek, którego chcielibyśmy uniknąć aby prawdopodobieństwo błędu dekodowania było wykładniczo małe.

Kody

Bardzo niedawno wykonano i nadal wykonuje się wiele pracy w celu zaprojektowania jawnych kodów korygujących błędy, aby osiągnąć możliwości kilku standardowych kanałów komunikacyjnych. Motywacją do projektowania takich kodów jest powiązanie szybkości kodu z ułamkiem błędów, które może poprawić.

Podejście stojące za projektowaniem kodów, które spełniają możliwości kanału lub binarnego kanału kasowania polegało na poprawieniu mniejszej liczby błędy z dużym prawdopodobieństwem i osiągnięcie jak najwyższego wskaźnika. Twierdzenie Shannona daje nam najlepszą stopę, jaką można osiągnąć przez nie daje nam wyobrażenia o żadnych wyraźnych kodach, które osiągają tę szybkość. W rzeczywistości takie kody są zwykle konstruowane tak, aby korygować tylko niewielką część błędów z dużym prawdopodobieństwem, ale osiągają bardzo dobry wskaźnik. Pierwszy taki kod został napisany przez George'a D. Forneya w 1966 roku. Kod jest kodem połączonym przez połączenie dwóch różnych rodzajów kodów.

kod Forneya

skonstruował kod kanału twierdzenie o kodowaniu dla . W swoim kodzie

  • Kod zewnętrzny o długości bloku szybkości nad polem i Displaystyle . Dodatkowo mamy algorytm dekodowania dla poprawić do ułamka najgorsze błędy i działa w czasie
  • Wewnętrzny kod jest kodem długości bloku wymiaru i } Dodatkowo mamy algorytm dekodowania dla z prawdopodobieństwem błędu dekodowania co najwyżej przez i działa w czas.

W przypadku kodu zewnętrznego Reeda-Solomona byłby pierwszym kodem, który przyszedłby na Widzielibyśmy jednak, że konstrukcji takiego kodu nie można wykonać w czasie wielomianowym. dlatego kod liniowy używany do .

kodu wewnętrznego liniowy , przeszukując kod liniowy o długości bloku wymiarze którego szybkość pojemność hałaśliwym kodowaniu kanału.

Szybkość co prawie spełnia pojemność. że kodowanie i dekodowanie można wykonać w czasie wielomianowym w odniesieniu W rzeczywistości kodowanie czasu . algorytm tak długo, jak ; i .

Prawdopodobieństwo błędu dekodowania

Naturalnym algorytmem dekodowania dla jest: do

  • Załóżmy
  • Wykonaj na

Zauważ, że każdy blok kodu dla jest uważany za symbol . Teraz, ponieważ prawdopodobieństwo błędu w dowolnym indeksie { wynosi co najwyżej a błędy w niezależne, oczekiwana liczba błędów dla wynosi co najwyżej przez liniowość oczekiwań. Stosując teraz ograniczenie Chernoffa , mamy związane prawdopodobieństwo błędu większe niż występujące błędy mi . Ponieważ kod zewnętrzny poprawić co najwyżej , jest to dekodowania . Wyrażone asymptotycznie, daje nam prawdopodobieństwo błędu . Zatem osiągnięte prawdopodobieństwo błędu dekodowania hałaśliwym kanale kodowania

Podaliśmy ogólną technikę konstruowania . Aby uzyskać bardziej szczegółowe opisy i przeczytaj poniższe odniesienia. Ostatnio skonstruowano również kilka innych kodów dla osiągnięcia tych zdolności. LDPC zostały wzięte pod uwagę w tym celu ze względu na ich szybszy czas dekodowania.

Aplikacje

Binarny kanał symetryczny może modelować dysk używany do przechowywania pamięci: wejście kanału reprezentuje bit zapisywany na dysku, a wyjście odpowiada bitowi później odczytywanemu. Błąd może wynikać z odwrócenia magnetyzacji, szumu tła lub błędu głowicy piszącej. Inne obiekty, które może modelować binarny kanał symetryczny, obejmują telefoniczną lub radiową linię komunikacyjną lub podział komórki , z którego komórki potomne zawierają informacje DNA z ich komórki macierzystej.

Ten kanał jest często używany przez teoretyków, ponieważ jest jednym z najłatwiejszych do analizy kanałów z szumem . Wiele problemów w teorii komunikacji można zredukować do BSC. I odwrotnie, możliwość skutecznej transmisji przez BSC może dać początek rozwiązaniom dla bardziej skomplikowanych kanałów.

Zobacz też

Notatki

  •   Okładka, Thomas M.; Thomas, Joy A. (1991). Elementy teorii informacji . Hoboken, New Jersey: Wiley. ISBN 978-0-471-24195-9 .
  • G. David Forney. Kody łączone . MIT Press, Cambridge, MA, 1966.
  • Kurs Venkata Guruswamy'ego na temat [1] Kody korekcji błędów: konstrukcje i algorytmy], jesień 2006.
  •   MacKay, David JC (2003). Teoria informacji, wnioskowanie i algorytmy uczenia się . Wydawnictwo Uniwersytetu Cambridge. ISBN 0-521-64298-1 .
  • Kurs Atri Rudry na temat kodów korygujących błędy: kombinatoryka, algorytmy i aplikacje (jesień 2007), wykłady 9 , 10 , 29 i 30 .
  • Kurs Madhu Sudan na temat algorytmicznego wprowadzenia do teorii kodowania (jesień 2001), wykład 1 i 2 .
  • Matematyczna teoria komunikacji C. E Shannon, ACM SIGMOBILE Mobile Computing and Communications Review.
  • Nowoczesna teoria kodowania autorstwa Toma Richardsona i Rudigera Urbanke., Cambridge University Press