Struktura przewidywania pamięci
Ramy przewidywania pamięci to teoria funkcji mózgu stworzona przez Jeffa Hawkinsa i opisana w jego książce On Intelligence z 2004 roku . Teoria ta dotyczy roli kory nowej ssaków i jej powiązań z hipokampem i wzgórzem w dopasowywaniu bodźców sensorycznych do przechowywanych wzorców pamięci oraz tego, jak ten proces prowadzi do przewidywania tego, co wydarzy się w przyszłości.
Przegląd
Teoria opiera się na zaobserwowanych podobieństwach między strukturami mózgu (zwłaszcza tkanką kory nowej ), które są wykorzystywane do szerokiego zakresu zachowań dostępnych dla ssaków. Teoria zakłada, że niezwykle jednorodny fizyczny układ tkanki korowej odzwierciedla pojedynczą zasadę lub algorytm, który leży u podstaw całego przetwarzania informacji w korze mózgowej. Przypuszcza się, że podstawową zasadą przetwarzania jest pętla sprzężenia zwrotnego/przywołania , która obejmuje zarówno udział korowy , jak i pozakorowy (ten ostatni ze wzgórza i hipokampa w szczególności).
Teoria podstawowa: rozpoznawanie i predykcja w hierarchiach dwukierunkowych
, że oddolne dane wejściowe są dopasowywane w hierarchii rozpoznawania i wywołują serię odgórnych oczekiwań zakodowanych jako wzmocnienia. Oczekiwania te wchodzą w interakcję z sygnałami oddolnymi, aby zarówno analizować te dane wejściowe, jak i generować prognozy kolejnych oczekiwanych danych wejściowych. Każdy poziom hierarchii zapamiętuje często obserwowane sekwencje czasowe wzorców wejściowych i generuje etykiety lub „nazwy” dla tych sekwencji. Kiedy sekwencja wejściowa pasuje do zapamiętanej sekwencji na danym poziomie hierarchii, etykieta lub „nazwa” jest propagowana w górę hierarchii - eliminując w ten sposób szczegóły na wyższych poziomach i umożliwiając im naukę sekwencji wyższego rzędu. Proces ten powoduje zwiększoną niezmienność na wyższych poziomach. Wyższe poziomy przewidują przyszłe dane wejściowe, dopasowując częściowe sekwencje i projektując swoje oczekiwania na niższe poziomy. Jednak gdy występuje niezgodność między sekwencjami wejściowymi a zapamiętanymi/przewidywanymi sekwencjami, pełniejsza reprezentacja propaguje się w górę. Powoduje to aktywację alternatywnych „interpretacji” na wyższych poziomach, co z kolei generuje inne prognozy na niższych poziomach.
Rozważmy na przykład proces widzenia . Informacje oddolne zaczynają się jako siatkówkowe niskiego poziomu (wskazujące na obecność prostych elementów wizualnych i kontrastów). Na wyższych poziomach hierarchii wydobywane są coraz bardziej znaczące informacje dotyczące obecności linii , regionów , ruchów itd. Jeszcze wyżej w hierarchii aktywność odpowiada obecności określonych obiektów – a następnie zachowaniom tych obiektów. Informacje odgórne uzupełniają szczegółowe informacje o rozpoznanych obiektach, a także o ich oczekiwanym zachowaniu w miarę upływu czasu.
Hierarchia sensoryczna powoduje szereg różnic między różnymi poziomami. Gdy ktoś przesuwa się w górę hierarchii, reprezentacje wzrosły:
- Zasięg – na przykład większe obszary pola widzenia lub bardziej rozległe obszary dotykowe.
- Stabilność czasowa – byty niższego poziomu zmieniają się szybko, podczas gdy percepty wyższego poziomu są bardziej stabilne.
- Abstrakcja – w procesie sukcesywnej ekstrakcji niezmiennych cech rozpoznaje się coraz bardziej abstrakcyjne byty.
Związek między przetwarzaniem sensorycznym i motorycznym jest ważnym aspektem podstawowej teorii. Proponuje się, aby obszary motoryczne kory mózgowej składały się z hierarchii behawioralnej podobnej do hierarchii sensorycznej, przy czym najniższe poziomy składają się z wyraźnych poleceń motorycznych dla mięśni, a najwyższe poziomy odpowiadają abstrakcyjnym zaleceniom (np. „zmień rozmiar przeglądarki”). Hierarchie sensoryczne i motoryczne są ze sobą ściśle powiązane, a zachowanie prowadzi do oczekiwań sensorycznych i percepcji sensorycznej, które napędzają procesy motoryczne.
Na koniec należy zauważyć, że wszystkich wspomnień w hierarchii korowej trzeba się nauczyć – ta informacja nie jest wstępnie zaprogramowana w mózgu. Dlatego proces wydobywania tej reprezentacji z przepływu danych wejściowych i zachowań jest teoretyzowany jako proces, który zachodzi nieustannie podczas poznania .
Inne warunki
Hawkins ma rozległe szkolenie jako inżynier elektryk. Innym sposobem opisania teorii (wspomnianym w jego książce) jest hierarchia uczenia się stochastycznych maszyn stanu ze sprzężeniem zwrotnym . Z tego punktu widzenia mózg jest analizowany jako problem z kodowaniem, który nie różni się zbytnio od kodów korekcji błędów przewidujących przyszłość. Hierarchia jest hierarchią abstrakcji , przy czym stany maszyn wyższego poziomu reprezentują bardziej abstrakcyjne warunki lub zdarzenia, a te stany predysponują maszyny niższego poziomu do wykonywania pewnych przejść. Maszyny niższego poziomu modelują ograniczone domeny doświadczenia lub kontrolują lub interpretują czujniki lub efektory. Cały system faktycznie kontroluje zachowanie organizmu. Ponieważ maszyna stanów jest „feed forward”, organizm reaguje na przyszłe zdarzenia przewidziane na podstawie danych z przeszłości. Ponieważ jest hierarchiczny, system wykazuje elastyczność behawioralną, łatwo wytwarzając nowe sekwencje zachowań w odpowiedzi na nowe dane sensoryczne. Ponieważ system się uczy, nowe zachowanie dostosowuje się do zmieniających się warunków.
Oznacza to, że ewolucyjnym celem mózgu jest przewidywanie przyszłości na wprawdzie ograniczone sposoby, aby ją zmienić.
Realizacja neurofizjologiczna
Teoretyzuje się, że hierarchie opisane powyżej występują głównie w korze nowej ssaków. W szczególności zakłada się, że kora nowa składa się z dużej liczby kolumn (jak przypuszczał również Vernon Benjamin Mountcastle z rozważań anatomicznych i teoretycznych). Każda kolumna jest dostrojona do określonej funkcji na danym poziomie w hierarchii. Otrzymuje dane wejściowe oddolne z niższych poziomów i dane wejściowe odgórne z wyższych poziomów. (Inne kolumny na tym samym poziomie również zasilają daną kolumnę i służą głównie do blokowania wyłącznych reprezentacji aktywacji). kolumna generuje dane wyjściowe, które z kolei propagują się zarówno na niższych, jak i wyższych poziomach.
Kora
Procesy te dobrze odwzorowują określone warstwy w korze ssaków. (Warstw korowych nie należy mylić z różnymi poziomami hierarchii przetwarzania: wszystkie warstwy w jednej kolumnie uczestniczą jako jeden element na jednym poziomie hierarchicznym). Dane wejściowe oddolne docierają do warstwy 4 (L4), skąd są propagowane do warstw L2 i L3 w celu rozpoznania zawartości niezmiennej. Aktywacja z góry na dół dociera do L2 i L3 przez L1 (głównie warstwę aksonalną, która rozprowadza aktywację lokalnie w kolumnach). L2 i L3 porównują informacje od dołu do góry i od góry do dołu i generują albo niezmienne „nazwy”, gdy zostanie osiągnięte wystarczające dopasowanie, albo bardziej zmienne sygnały, które pojawiają się, gdy to się nie powiedzie. Sygnały te są propagowane w górę hierarchii (przez L5), a także w dół hierarchii (przez L6 i L1).
Wzgórze
Aby uwzględnić przechowywanie i rozpoznawanie sekwencji wzorców, sugeruje się połączenie dwóch procesów. Niespecyficzne wzgórze działa jak „linia opóźniająca” – to znaczy L5 aktywuje ten obszar mózgu, który ponownie aktywuje L1 z niewielkim opóźnieniem. Zatem dane wyjściowe z jednej kolumny generują aktywność L1, która zbiegnie się z danymi wejściowymi do kolumny, która jest czasowo następna w sekwencji. To uporządkowanie czasu działa w połączeniu z identyfikacją sekwencji wyższego poziomu, która nie zmienia się w czasie; stąd aktywacja reprezentacji sekwencji powoduje, że składowe niższego poziomu są przewidywane jeden po drugim. (Oprócz tej roli w sekwencjonowaniu, wzgórze jest również aktywne jako stacja sensoryczna – te role najwyraźniej obejmują odrębne obszary tej anatomicznie niejednorodnej struktury.)
hipokamp
Inną anatomicznie zróżnicowaną strukturą mózgu, która ma odgrywać ważną rolę w hierarchicznym poznaniu, jest hipokamp . Powszechnie wiadomo, że uszkodzenie obu hipokampów upośledza tworzenie długotrwałej pamięci deklaratywnej ; osoby z takim uszkodzeniem nie są w stanie tworzyć nowych wspomnień o charakterze epizodycznym, chociaż mogą bez trudności przywoływać wspomnienia wcześniejsze, a także uczyć się nowych umiejętności. W obecnej teorii hipokampy są uważane za najwyższy poziom hierarchii korowej; są wyspecjalizowane w zachowywaniu wspomnień o wydarzeniach, które rozprzestrzeniają się aż na szczyt. Ponieważ takie zdarzenia pasują do przewidywalnych wzorców, stają się łatwe do zapamiętania na niższych poziomach hierarchii. (Takie przemieszczanie się wspomnień w dół hierarchii jest, nawiasem mówiąc, ogólną prognozą teorii.) Tak więc hipokamp nieustannie zapamiętuje „nieoczekiwane” zdarzenia (to znaczy te, których nie przewidziano na niższych poziomach); jeśli są uszkodzone, cały proces zapamiętywania poprzez hierarchię jest zagrożony.
W 2016 roku Jeff Hawkins postawił hipotezę, że kolumny korowe nie tylko wychwytują odczucie, ale także względne położenie tego odczucia, w trzech wymiarach, a nie w dwóch ( wychwytywanie umiejscowione ), w stosunku do tego, co było wokół niego. „Kiedy mózg buduje model świata, wszystko ma swoje położenie względem wszystkiego innego” — Jeff Hawkins.
Wyjaśniające sukcesy i prognozy
Ramy przewidywania pamięci wyjaśniają szereg psychologicznie najistotniejszych aspektów poznania. Na przykład zdolność ekspertów w dowolnej dziedzinie do bezproblemowego analizowania i zapamiętywania złożonych problemów w swojej dziedzinie jest naturalną konsekwencją tworzenia przez nich coraz bardziej wyrafinowanych hierarchii pojęciowych. Również proces od „ postrzegania ” do „ zrozumienia ” jest łatwo zrozumiały w wyniku dopasowania odgórnych i oddolnych oczekiwań . W przeciwieństwie do tego niedopasowania generują znakomitą zdolność biologicznego poznania do wykrywania nieoczekiwanych percepcji i sytuacji. (Niedociągnięcia w tym zakresie są wspólną cechą obecnych podejść do sztucznej inteligencji.)
Oprócz tych subiektywnie satysfakcjonujących wyjaśnień, ramy zawierają również szereg dających się przetestować przewidywań . Na przykład ważna rola przewidywania w hierarchii czuciowej wymaga przewidywania aktywności neuronalnej w pewnych komórkach kory czuciowej. Ponadto komórki, które „nazywają” pewne niezmienniki, powinny pozostać aktywne przez cały czas obecności tych niezmienników, nawet jeśli podstawowe dane wejściowe ulegną zmianie. Przewidywane wzorce działań oddolnych i odgórnych – przy czym te pierwsze są bardziej złożone, gdy oczekiwania nie są spełnione – mogą być wykrywalne, na przykład za pomocą funkcjonalnego obrazowania metodą rezonansu magnetycznego ( fMRI ).
Chociaż przewidywania te nie są wysoce specyficzne dla proponowanej teorii, są wystarczająco jednoznaczne, aby umożliwić weryfikację lub odrzucenie jej głównych założeń. Zobacz On Intelligence , aby uzyskać szczegółowe informacje na temat przewidywań i ustaleń.
Wkład i ograniczenia
Z założenia obecna teoria opiera się na pracach wielu neurobiologów i można argumentować, że większość z tych pomysłów została już zaproponowana przez badaczy takich jak Grossberg i Mountcastle . Z drugiej strony, nowe oddzielenie mechanizmu pojęciowego (tj. dwukierunkowego przetwarzania i rozpoznawania niezmiennego) od szczegółów biologicznych (tj. warstw neuronowych, kolumn i struktur) kładzie podwaliny pod abstrakcyjne myślenie o szerokim zakresie procesów poznawczych.
Najbardziej znaczącym ograniczeniem tej teorii jest jej obecny brak szczegółów. Na przykład pojęcie niezmienności odgrywa kluczową rolę; Hawkins zakłada „ komórki nazw ” przynajmniej dla niektórych z tych niezmienników. (Zobacz także Zespół neuronowy # Kodowanie dla neuronów babci , które wykonują tego typu funkcje, oraz neurony lustrzane dla układu somatosensorycznego punktu widzenia.) Jednak wcale nie jest oczywiste, jak opracować matematycznie ścisłą definicję, która przeniesie wymagany ładunek pojęciowy we wszystkich dziedzinach przedstawionych przez Hawkinsa. Podobnie, kompletna teoria będzie wymagać wiarygodnych szczegółów zarówno krótkoterminowej dynamiki, jak i procesów uczenia się, które umożliwią warstwom korowym zachowywanie się zgodnie z reklamą.
IBM wdraża model Hawkinsa.
Modele uczenia maszynowego
Teoria przewidywania pamięci twierdzi, że wszystkie regiony kory nowej stosują wspólny algorytm. Teoria ta doprowadziła do powstania wielu modeli oprogramowania, których celem jest symulowanie tego wspólnego algorytmu przy użyciu hierarchicznej struktury pamięci. Rok na poniższej liście wskazuje, kiedy model był ostatnio aktualizowany.
Modele oparte na sieciach bayesowskich
Poniższe modele wykorzystują propagację przekonań lub rewizję przekonań w pojedynczo połączonych sieciach bayesowskich .
- Hierarchical Temporal Memory (HTM), model, powiązana platforma programistyczna i kod źródłowy firmy Numenta, Inc. (2008).
- HtmLib [ martwy link ] , alternatywna implementacja algorytmów HTM autorstwa Grega Kochaniaka z szeregiem modyfikacji poprawiających dokładność i szybkość rozpoznawania (2008).
-
Project Neocortex , projekt typu open source do modelowania struktury przewidywania pamięci (2008).
- Strona badawcza Sauliusa Garaleviciusa , artykuły naukowe i programy prezentujące wyniki eksperymentów wraz z modelem struktury przewidywania pamięci, będącej podstawą projektu Neocortex (2007).
-
George, Dileep (2005). „Hierarchiczny bayesowski model niezmiennego rozpoznawania wzorców w korze wzrokowej”: 1812–1817. CiteSeerX 10.1.1.132.6744 .
{{ cite journal }}
: Cite journal wymaga|journal=
( help ) artykułu opisującego wcześniejszy model bayesowski sprzed HTM autorstwa współzałożyciela Numenty. Jest to pierwszy model struktury przewidywania pamięci, który wykorzystuje sieci bayesowskie, a wszystkie powyższe modele są oparte na tych początkowych pomysłach. Kod źródłowy Matlaba tego modelu był dostępny bezpłatnie do pobrania przez wiele lat.
Inne modele
- Implementation of MPF , artykuł Sauliusa Garaleviciusa opisujący metodę klasyfikacji i przewidywania w modelu, który przechowuje sekwencje czasowe i wykorzystuje uczenie bez nadzoru (2005).
- M5 , maszyna wzorcowa dla Palm OS, która przechowuje sekwencje wzorców i przywołuje wzorce odpowiednie dla jego obecnego środowiska (2007).
- BrainGame , klasa predyktorów open source, która uczy się wzorców i może być powiązana z innymi predyktorami (2005).
Zobacz też
- Vernon Mountcastle , neurobiolog, który odkrył i scharakteryzował kolumnową organizację kory mózgowej.
- Teoria rezonansu adaptacyjnego , architektura sieci neuronowej opracowana przez Stephena Grossberga .
- Neuronauka obliczeniowa
- Darwinizm neuronowy
- Kodowanie predykcyjne
- Uczenie się przewidujące
- Rzadka pamięć rozproszona
Dalsza lektura
- Jeff Hawkins (2004), O inteligencji , Nowy Jork: Henry Holt. Bibliografia, indeks, 251 stron. ISBN 0-8050-7456-2
Linki zewnętrzne
-
Hierarchiczny kod źródłowy algorytmu widzenia i dane - podobny do Memory-Prediction Framework (z MIT Center for Biological & Computational Learning ) -
Grupa artykułów o neuronauce i sztucznej inteligencji - Grupa artykułów i artykułów wspierających teorię MPF Jeffa. - MIT Technology Review Poniedziałek, 12 lutego 2007: Budowanie rdzenia w krzemie