Przenieś naukę

Transfer learning ( TL ) to problem badawczy w uczeniu maszynowym (ML), który koncentruje się na przechowywaniu wiedzy zdobytej podczas rozwiązywania jednego problemu i zastosowaniu jej do innego, ale powiązanego problemu. Na przykład wiedza zdobyta podczas nauki rozpoznawania samochodów może być wykorzystana podczas próby rozpoznawania ciężarówek. Ten obszar badań ma pewien związek z długą historią literatury psychologicznej dotyczącej transferu wiedzy , chociaż praktyczne powiązania między tymi dwiema dziedzinami są ograniczone. Z praktycznego punktu widzenia ponowne wykorzystywanie lub przenoszenie informacji z wcześniej wyuczonych zadań do uczenia się nowych zadań może znacznie poprawić efektywność próbki agenta uczenia się przez wzmacnianie .

Historia

W 1976 roku Stevo Bozinovski i Ante Fulgosi opublikowali artykuł wyraźnie odnoszący się do nauczania transferowego w szkoleniu sieci neuronowych. Artykuł przedstawia matematyczny i geometryczny model transferu uczenia się. W 1981 roku opublikowano raport na temat zastosowania transferu uczenia się w szkoleniu sieci neuronowej na zbiorze danych obrazów reprezentujących litery terminali komputerowych. Eksperymentalnie wykazano zarówno pozytywne, jak i negatywne uczenie się transferu.

W 1993 roku Lorien Pratt opublikował artykuł na temat transferu w uczeniu maszynowym , formułując algorytm transferu oparty na rozróżnialności (DBT).

W 1997 roku Pratt i Sebastian Thrun zredagowali gościnnie specjalne wydanie Machine Learning poświęcone nauczaniu transferowemu, a do 1998 roku dziedzina ta rozwinęła się, obejmując uczenie się wielozadaniowe wraz z bardziej formalną analizą jego podstaw teoretycznych. Learning to Learn , pod redakcją Thruna i Pratta, jest przeglądem tego tematu z 1998 roku.

Uczenie się transferu zostało również zastosowane w kognitywistyce , a Pratt również gościnnie redagował numer Connection Science na temat ponownego wykorzystania sieci neuronowych poprzez transfer w 1996 roku.

Andrew Ng powiedział w swoim poradniku NIPS 2016, że TL będzie kolejnym motorem sukcesu komercyjnego ML po nadzorowanym uczeniu się , aby podkreślić znaczenie TL.

W artykule z 2020 r. „Przemyślenie treningu przedtreningowego i samokształcenia”, Zoph i in. pokaż, że szkolenie wstępne może zaszkodzić dokładności, i zamiast tego opowiadaj się za samokształceniem.

Definicja

Definicja nauczania transferowego jest podana w kategoriach dziedzin i zadań. Domena z: cech krańcowego rozkładu prawdopodobieństwa, } gdzie . Biorąc pod uwagę określoną domenę, zadanie składa się z dwóch elementów : przestrzeń etykiet obiektywna funkcja predykcyjna . Funkcja do przewidywania odpowiedniej nowej instancji . To zadanie, oznaczone przez , uczy się na podstawie danych treningowych składający się z par , gdzie i .

Biorąc pod uwagę domenę źródłową zadanie uczenia się domena docelowa i zadanie uczenia się , gdzie lub przeniesienie uczenia się ma na celu poprawę uczenia się docelowej funkcji predykcyjnej w korzystając z wiedzy w i .

Aplikacje

Dostępne są algorytmy uczenia transferowego w sieciach logiki Markowa i sieciach bayesowskich . Uczenie się transferu zostało również zastosowane do wykrywania podtypów raka, wykorzystania budynków , ogólnych gier , klasyfikacji tekstu , rozpoznawania cyfr, obrazowania medycznego i filtrowania spamu .

W 2020 roku odkryto, że ze względu na ich podobny charakter fizyczny możliwe jest przenoszenie uczenia się między sygnałami elektromiograficznymi (EMG) z mięśni i klasyfikacją zachowań fal mózgowych elektroencefalograficznych (EEG), z domeny rozpoznawania gestów do domeny rozpoznawania stanu psychicznego. Zauważono również, że ta zależność działała odwrotnie, pokazując, że EEG może być również używany do klasyfikacji EMG. Eksperymenty wykazały, że dokładność sieci neuronowych i konwolucyjnych sieci neuronowych zostały ulepszone poprzez uczenie transferowe zarówno w pierwszej epoce (przed jakimkolwiek uczeniem, tj. w porównaniu ze standardowym losowym rozkładem wag), jak i asymptocie (koniec procesu uczenia). Oznacza to, że algorytmy są ulepszane przez ekspozycję na inną domenę. Co więcej, użytkownik końcowy wstępnie wytrenowanego modelu może zmieniać strukturę w pełni połączonych warstw, aby osiągnąć najwyższą wydajność.

Oprogramowania

W ciągu ostatnich dziesięcioleci wdrożono kilka kompilacji algorytmów uczenia się transferu i adaptacji domen:

  • ADAPTUJ (Python)
  • TLlib (Python)
  • Zestaw narzędzi do adaptacji domeny (Matlab)

Zobacz też

Źródła