Ogólna sieć neuronowa regresji

Sieć neuronowa z uogólnioną regresją (GRNN) jest odmianą radialnych sieci neuronowych . GRNN został zaproponowany przez DF Spechta w 1991 roku.

GRNN może być używany do regresji , przewidywania i klasyfikacji . GRNN może być również dobrym rozwiązaniem dla systemów dynamicznych online .

GRNN reprezentuje udoskonaloną technikę w sieciach neuronowych opartą na regresji nieparametrycznej . Pomysł polega na tym, że każda próbka treningowa będzie reprezentować średnią dla radialnego neuronu bazowego .

Reprezentacja matematyczna

Gdzie:

  • jest przewidywaną wartością wejścia
  • jest wagą aktywacji neuronu warstwy wzorca przy
  • to jądro radialnej funkcji bazowej (jądro Gaussa), jak sformułowano poniżej.

Jądro Gaussa

gdzie próbkami treningowymi

Realizacja

GRNN został zaimplementowany w wielu językach komputerowych, w tym MATLAB , R - język programowania , Python (język programowania) i Node.js.

Sieci neuronowe (w szczególności wielowarstwowy Perceptron) mogą wyznaczać nieliniowe wzorce w danych, łącząc je z uogólnionymi modelami liniowymi, biorąc pod uwagę rozkład wyników (znacząco różni się od oryginalnego GRNN). Było kilka udanych zmian, w tym regresja Poissona, porządkowa regresja logistyczna, regresja kwantylowa i wielomianowa regresja logistyczna , które opisał Fallah w 2009 roku.

Zalety i wady

Podobnie jak RBFNN, GRNN ma następujące zalety:

  • Jednoprzebiegowe uczenie się, więc nie jest wymagana wsteczna propagacja .
  • Wysoka dokładność oszacowania, ponieważ wykorzystuje funkcje Gaussa .
  • Może obsługiwać szumy na wejściach.
  • Wymaga tylko mniejszej liczby zestawów danych.

Główne wady GRNN to:

  • Jego rozmiar może być ogromny, co spowodowałoby, że byłby kosztowny obliczeniowo.
  • Nie ma optymalnej metody na jego poprawę.