Probabilistyczna sieć neuronowa

Probabilistyczna sieć neuronowa (PNN) to sieć neuronowa z wyprzedzeniem , szeroko stosowana w problemach związanych z klasyfikacją i rozpoznawaniem wzorców. W algorytmie PNN nadrzędna funkcja rozkładu prawdopodobieństwa (PDF) każdej klasy jest aproksymowana przez okno Parzena i funkcję nieparametryczną. Następnie, korzystając z pliku PDF każdej klasy, szacuje się prawdopodobieństwo klasy nowych danych wejściowych, a następnie stosuje się regułę Bayesa w celu przydzielenia klasy o najwyższym prawdopodobieństwie późniejszym do nowych danych wejściowych. Dzięki tej metodzie prawdopodobieństwo błędnej klasyfikacji jest zminimalizowane. Ten typ sztucznej sieci neuronowej (ANN) wyprowadzono z sieci Bayesa i algorytmu statystycznego zwanego analizą dyskryminacyjną Kernel Fisher . Został wprowadzony przez DF Specht w 1966 roku. W PNN operacje są zorganizowane w wielowarstwową sieć wyprzedzającą z czterema warstwami:

  • Warstwa wejściowa
  • Warstwa wzoru
  • Warstwa podsumowująca
  • Warstwa wyjściowa

Warstwy

PNN jest często używany w problemach klasyfikacyjnych. Gdy dane wejściowe są obecne, pierwsza warstwa oblicza odległość od wektora wejściowego do wejściowych wektorów szkoleniowych. Tworzy to wektor, którego elementy wskazują, jak blisko sygnału wejściowego znajduje się sygnał wejściowy szkolenia. Druga warstwa sumuje udział każdej klasy danych wejściowych i generuje wynik netto jako wektor prawdopodobieństw. Wreszcie funkcja transferu konkurencji na wyjściu drugiej warstwy wybiera maksimum z tych prawdopodobieństw i daje 1 (identyfikacja pozytywna) dla tej klasy i 0 (identyfikacja negatywna) dla klas niebędących przedmiotem zainteresowania.

Warstwa wejściowa

Każdy neuron w warstwie wejściowej reprezentuje zmienną predykcyjną. W zmiennych kategorycznych N-1 , gdy istnieje liczba kategorii. Standaryzuje zakres wartości, odejmując medianę i dzieląc przez rozstęp międzykwartylowy . Następnie neurony wejściowe przekazują wartości każdemu z neuronów w warstwie ukrytej.

Warstwa wzoru

Warstwa ta zawiera jeden neuron dla każdego przypadku w zbiorze danych uczących. Przechowuje wartości zmiennych predykcyjnych dla przypadku wraz z wartością docelową. Ukryty neuron oblicza odległość euklidesową przypadku testowego od punktu centralnego neuronu, a następnie stosuje jądro radialnej funkcji bazowej , korzystając z wartości sigma.

Warstwa podsumowująca

W przypadku PNN istnieje jeden neuron wzorcowy dla każdej kategorii zmiennej docelowej. Rzeczywista kategoria docelowa każdego przypadku szkoleniowego jest przechowywana z każdym ukrytym neuronem; wartość ważona wychodząca z ukrytego neuronu jest podawana tylko neuronowi wzorcowemu, który odpowiada kategorii ukrytego neuronu. Neurony wzorcowe dodają wartości dla klasy, którą reprezentują.

Warstwa wyjściowa

Warstwa wyjściowa porównuje głosy ważone dla każdej kategorii docelowej zgromadzone w warstwie wzorców i wykorzystuje największy głos do przewidywania kategorii docelowej.

Zalety

Stosowanie PNN zamiast perceptronu wielowarstwowego ma kilka zalet i wad .

  • Sieci PNN są znacznie szybsze niż wielowarstwowe sieci perceptronowe.
  • Sieci PNN mogą być dokładniejsze niż wielowarstwowe sieci perceptronowe.
  • Sieci PNN są stosunkowo niewrażliwe na wartości odstające.
  • Sieci PNN generują dokładne przewidywane wyniki prawdopodobieństwa docelowego.
  • PNN zbliżają się do optymalnej klasyfikacji Bayesa.

Niedogodności

  • PNN wolniej niż wielowarstwowe sieci perceptronowe klasyfikują nowe przypadki.
  • PNN wymagają więcej miejsca w pamięci do przechowywania modelu.

Aplikacje oparte na PNN

  • Probabilistyczne sieci neuronowe w modelowaniu degradacji strukturalnej rur deszczowych.
  • Metoda probabilistycznych sieci neuronowych do diagnostyki próbek endoskopu żołądkowego w oparciu o spektroskopię FTIR.
  • Zastosowanie probabilistycznych sieci neuronowych do farmakokinetyki populacyjnej.
  • Probabilistyczne sieci neuronowe do przewidywania klasowego białaczki i guza zarodkowego centralnego układu nerwowego.
  • Identyfikacja statków za pomocą probabilistycznych sieci neuronowych.
  • Probabilistyczne zarządzanie konfiguracją czujników w oparciu o sieć neuronową w bezprzewodowej sieci ad hoc .
  • Probabilistyczne sieci neuronowe w rozpoznawaniu znaków.
  • Klasyfikacja obrazów teledetekcyjnych.