Ogólna sieć neuronowa regresji
Sieć neuronowa z uogólnioną regresją (GRNN) jest odmianą radialnych sieci neuronowych . GRNN został zaproponowany przez DF Spechta w 1991 roku.
GRNN może być używany do regresji , przewidywania i klasyfikacji . GRNN może być również dobrym rozwiązaniem dla systemów dynamicznych online .
GRNN reprezentuje udoskonaloną technikę w sieciach neuronowych opartą na regresji nieparametrycznej . Pomysł polega na tym, że każda próbka treningowa będzie reprezentować średnią dla radialnego neuronu bazowego .
Reprezentacja matematyczna
Gdzie:
- jest przewidywaną wartością wejścia
- jest wagą aktywacji neuronu warstwy wzorca przy
- to jądro radialnej funkcji bazowej (jądro Gaussa), jak sformułowano poniżej.
Jądro Gaussa
gdzie próbkami treningowymi
Realizacja
GRNN został zaimplementowany w wielu językach komputerowych, w tym MATLAB , R - język programowania , Python (język programowania) i Node.js.
Sieci neuronowe (w szczególności wielowarstwowy Perceptron) mogą wyznaczać nieliniowe wzorce w danych, łącząc je z uogólnionymi modelami liniowymi, biorąc pod uwagę rozkład wyników (znacząco różni się od oryginalnego GRNN). Było kilka udanych zmian, w tym regresja Poissona, porządkowa regresja logistyczna, regresja kwantylowa i wielomianowa regresja logistyczna , które opisał Fallah w 2009 roku.
Zalety i wady
Podobnie jak RBFNN, GRNN ma następujące zalety:
- Jednoprzebiegowe uczenie się, więc nie jest wymagana wsteczna propagacja .
- Wysoka dokładność oszacowania, ponieważ wykorzystuje funkcje Gaussa .
- Może obsługiwać szumy na wejściach.
- Wymaga tylko mniejszej liczby zestawów danych.
Główne wady GRNN to:
- Jego rozmiar może być ogromny, co spowodowałoby, że byłby kosztowny obliczeniowo.
- Nie ma optymalnej metody na jego poprawę.