Przycinanie (sztuczna sieć neuronowa)


W kontekście sztucznych sieci neuronowych przycinanie to praktyka polegająca na usuwaniu parametrów (co może pociągać za sobą usuwanie pojedynczych parametrów lub parametrów w grupach, na przykład przez neurony ) z istniejącej sieci. Celem tego procesu jest utrzymanie dokładności sieci przy jednoczesnym zwiększeniu jej wydajności . Można to zrobić, aby zmniejszyć zasoby obliczeniowe wymagane do uruchomienia sieci neuronowej.

Podstawowy algorytm przycinania jest następujący:

  1. Oceń znaczenie każdego neuronu.
  2. Uszereguj neurony według ich ważności (zakładając, że istnieje jasno określona miara „ważności”).
  3. Usuń najmniej ważny neuron.
  4. Sprawdź warunek zakończenia (określony przez użytkownika), aby zobaczyć, czy kontynuować czyszczenie.

Niedawno wysoce przycinająca trójwarstwowa architektura drzewa osiągnęła podobny wskaźnik sukcesu jak LeNet-5 na zbiorze danych CIFAR-10 przy mniejszej złożoności obliczeniowej.