Przycinanie (sztuczna sieć neuronowa)
W kontekście sztucznych sieci neuronowych przycinanie to praktyka polegająca na usuwaniu parametrów (co może pociągać za sobą usuwanie pojedynczych parametrów lub parametrów w grupach, na przykład przez neurony ) z istniejącej sieci. Celem tego procesu jest utrzymanie dokładności sieci przy jednoczesnym zwiększeniu jej wydajności . Można to zrobić, aby zmniejszyć zasoby obliczeniowe wymagane do uruchomienia sieci neuronowej.
Podstawowy algorytm przycinania jest następujący:
- Oceń znaczenie każdego neuronu.
- Uszereguj neurony według ich ważności (zakładając, że istnieje jasno określona miara „ważności”).
- Usuń najmniej ważny neuron.
- Sprawdź warunek zakończenia (określony przez użytkownika), aby zobaczyć, czy kontynuować czyszczenie.
Niedawno wysoce przycinająca trójwarstwowa architektura drzewa osiągnęła podobny wskaźnik sukcesu jak LeNet-5 na zbiorze danych CIFAR-10 przy mniejszej złożoności obliczeniowej.