Teoria wielu śladów
W psychologii teoria wielu śladów jest modelem konsolidacji pamięci rozwijanym jako model alternatywny do teorii siły . Zakłada, że za każdym razem, gdy jakaś informacja jest przedstawiana osobie, jest ona kodowana neuronowo w unikalnym śladzie pamięci składającym się z kombinacji jej atrybutów. Dalsze poparcie dla tej teorii przyszło w latach sześćdziesiątych XX wieku z badań empirycznych odkrycia, że ludzie mogą zapamiętać określone atrybuty obiektu, nie pamiętając samego obiektu. Tryb, w jakim informacje są prezentowane, a następnie kodowane, można elastycznie włączyć do modelu. Ten ślad pamięci jest wyjątkowy spośród wszystkich innych, podobnych do niego ze względu na różnice w niektórych aspektach atrybutów przedmiotu, a wszystkie ślady pamięci włączone od urodzenia są łączone w reprezentację wielu śladów w mózgu. W badaniach nad pamięcią matematyczne sformułowanie tej teorii może z powodzeniem wyjaśniać zjawiska empiryczne obserwowane w zadaniach rozpoznawania i przypominania .
Atrybuty
Atrybuty, które posiada przedmiot, tworzą jego ślad i mogą należeć do wielu kategorii. Kiedy element jest zapisywany w pamięci, informacje z każdej z tych kategorii atrybucji są kodowane w śladzie elementu. W grę może wchodzić rodzaj semantycznej kategoryzacji, w ramach której pojedynczy ślad jest włączany do nadrzędnych koncepcji obiektu. Na przykład, kiedy osoba widzi gołębia, ślad jest dodawany do skupiska „gołębich” śladów w jej umyśle. Ten nowy ślad „gołębia”, chociaż można go odróżnić i podzielić od innych przypadków gołębi, które dana osoba mogła widzieć w swoim życiu, służy do wspierania bardziej ogólnej i nadrzędnej koncepcji gołębia.
Fizyczny
Atrybuty fizyczne przedmiotu zawierają informacje o właściwościach fizycznych prezentowanego przedmiotu. W przypadku słowa może to obejmować kolor, czcionkę, pisownię i rozmiar, podczas gdy w przypadku obrazu równoważnymi aspektami mogą być kształty i kolory obiektów. Eksperymentalnie wykazano, że ludzie, którzy nie są w stanie przypomnieć sobie pojedynczego słowa, mogą czasami przypomnieć sobie pierwszą lub ostatnią literę, a nawet rymujące się słowa, wszystkie aspekty zakodowane w fizycznej ortografii śladu słowa. Nawet jeśli przedmiot nie jest prezentowany wizualnie, po zakodowaniu może mieć pewne aspekty fizyczne oparte na wizualnej reprezentacji przedmiotu.
Kontekstowy
Atrybuty kontekstowe to szeroka klasa atrybutów, które definiują cechy wewnętrzne i zewnętrzne, które są równoczesne z prezentacją przedmiotu. Kontekst wewnętrzny to poczucie wewnętrznej sieci, którą wywołuje ślad. Może to obejmować aspekty nastroju jednostki lub inne skojarzenia semantyczne, które wywołuje prezentacja tego słowa. Z drugiej strony kontekst zewnętrzny koduje informacje o aspektach przestrzennych i czasowych w miarę przedstawiania informacji. Może to odzwierciedlać na przykład porę dnia lub pogodę. Atrybuty przestrzenne mogą odnosić się zarówno do środowiska fizycznego, jak i środowiska wyobrażonego. Metoda loci , strategia mnemoniczna obejmująca wyobrażoną pozycję przestrzenną, przypisuje względne pozycje przestrzenne różnym zapamiętanym elementom, a następnie „przechodzi” przez te przypisane pozycje, aby zapamiętać pozycje.
Modalny
Atrybuty modalności posiadają informację o sposobie, w jaki pozycja została przedstawiona. Najczęstszymi rodzajami modalności w warunkach eksperymentalnych są słuchowe i wizualne. Praktycznie można wykorzystać każdą modalność sensoryczną.
Klasyfikacja
Atrybuty te odnoszą się do kategoryzacji prezentowanych pozycji. Przedmioty należące do tych samych kategorii będą miały te same atrybuty klasowe. Na przykład, gdyby element „przyłożenie” został przedstawiony, przywołałby nadrzędną koncepcję „piłka nożna” lub bardziej ogólnie „sport” i prawdopodobnie miałby wspólne atrybuty klasowe z „strefą końcową” i innymi elementami, które pasują do ta sama koncepcja. Pojedynczy przedmiot może pasować do różnych koncepcji w czasie, gdy jest prezentowany, w zależności od innych atrybutów elementu, takich jak kontekst. Na przykład słowo „gwiazda” może należeć do klasy astronomii po wizycie w muzeum kosmosu lub klasie ze słowami takimi jak „celebryta” lub „sławny” po obejrzeniu filmu.
Sformułowanie matematyczne
Matematyczne sformułowanie śladów pozwala na model pamięci jako stale rosnącej matrycy, która w sposób ciągły odbiera i włącza informacje w postaci wektorów atrybutów. Teoria wielu śladów głosi, że każdy element kiedykolwiek zakodowany, od narodzin do śmierci, będzie istniał w tej matrycy jako wiele śladów. Odbywa się to poprzez nadanie każdemu możliwemu atrybutowi pewnej wartości liczbowej w celu sklasyfikowania go w postaci zakodowanej, więc każda zakodowana pamięć będzie miała unikalny zestaw atrybutów numerycznych.
Macierzowa definicja śladów
Przypisując wartości liczbowe do wszystkich możliwych atrybutów, wygodnie jest skonstruować kolumnową reprezentację wektorową każdego zakodowanego elementu. Ta reprezentacja wektorowa może być również wprowadzana do modeli obliczeniowych mózgu, takich jak sieci neuronowe , które przyjmują jako dane wejściowe wektorowe „wspomnienia” i symulują ich biologiczne kodowanie za pośrednictwem neuronów.
Formalnie pamięć zaszyfrowaną można oznaczyć poprzez numeryczne przyporządkowanie wszystkim jej możliwym atrybutom. Jeśli dwa przedmioty są postrzegane jako mające ten sam kolor lub doświadczane w tym samym kontekście, liczby oznaczające odpowiednio ich kolor i atrybuty kontekstowe będą stosunkowo bliskie. za każdym razem, gdy widzimy obiekt, kodujemy łącznie L atrybutów. Następnie, gdy pamięć jest zakodowana, można ją zapisać jako m 1 z L całkowitą liczbą wpisów w wektorze kolumnowym:
- .
Podzbiór atrybutów L będzie poświęcony atrybutom kontekstowym, podzbiór atrybutom fizycznym i tak dalej. Jednym z podstawowych założeń teorii wielu śladów jest to, że konstruując wiele wspomnień, organizujemy atrybuty w tej samej kolejności. Zatem możemy podobnie zdefiniować wektory m2 , , m3 , ..., mn aby uwzględnić n całkowitych zakodowanych pamięci. Teoria wielu śladów mówi, że te wspomnienia łączą się w naszym mózgu, tworząc macierz pamięci z prostego połączenia poszczególnych wspomnień:
- .
Dla L atrybutów ogółem i n pamięci ogółem, M będzie miało L wierszy i n kolumn. Należy zauważyć, że chociaż n śladów jest połączonych w dużą macierz pamięci, każdy ślad jest indywidualnie dostępny jako kolumna w tej macierzy.
W tym sformułowaniu n różnych wspomnień jest mniej lub bardziej niezależnych od siebie. Jednak elementy prezentowane razem w niektórych ustawieniach zostaną stycznie powiązane przez podobieństwo ich wektorów kontekstu. Jeśli wiele elementów jest powiązanych ze sobą i celowo zakodowanych w ten sposób, powiedzmy element a i element b , to można skonstruować pamięć dla tych dwóch, z których każdy ma k atrybutów w następujący sposób:
- .
Kontekst jako wektor stochastyczny
Kiedy przedmiotów uczymy się jeden po drugim, kuszące jest stwierdzenie, że uczymy się ich w tym samym kontekście czasowym. Jednak w rzeczywistości istnieją subtelne różnice w kontekście. Dlatego często uważa się, że atrybuty kontekstowe zmieniają się w czasie, zgodnie z modelem procesu stochastycznego . Biorąc pod uwagę wektor zawierający tylko r i+1 całkowitych atrybutów kontekstu t i reprezentujący kontekst pamięci mi t , kontekst następnej zakodowanej pamięci jest określony wzorem :
Więc,
Tutaj ε(j) jest liczbą losową pobraną z rozkładu Gaussa .
Suma podobieństwa
Jak wyjaśniono w następnej sekcji, cechą charakterystyczną teorii wielu śladów jest możliwość porównania pewnego elementu sondy z istniejącą wcześniej matrycą zakodowanych wspomnień. Symuluje to proces przeszukiwania pamięci, dzięki czemu możemy określić, czy kiedykolwiek widzieliśmy sondę, jak w zadaniach rozpoznawania, czy też sonda powoduje powstanie innej wcześniej zakodowanej pamięci, jak w przypadku przypominania.
Najpierw sonda p jest kodowana jako wektor atrybutów. Kontynuując poprzedni przykład macierzy pamięci M , sonda będzie miała L wpisów:
- .
To p jest następnie porównywane jeden po drugim ze wszystkimi wcześniej istniejącymi wspomnieniami (śladami) w M poprzez określenie mi odległości euklidesowej między p a każdym :
- .
Ze względu na stochastyczny charakter kontekstu, w teorii wielu śladów prawie nigdy nie jest tak, że element sondy dokładnie pasuje do zakodowanej pamięci. Mimo to na duże podobieństwo między p i m i wskazuje niewielka odległość euklidesowa. W związku z tym należy przeprowadzić kolejną operację na odległości, która prowadzi do bardzo małego podobieństwa dla dużej odległości i bardzo dużego podobieństwa dla małej odległości. Operacja liniowa nie eliminuje wystarczająco ostro elementów o niskim podobieństwie. Intuicyjnie najbardziej odpowiedni wydaje się model rozkładu wykładniczego:
gdzie τ jest parametrem rozpadu, który można wyznaczyć eksperymentalnie. Możemy przejść do zdefiniowania podobieństwa do całej macierzy pamięci przez zsumowane podobieństwo SS(p,M) między sondą p a macierzą pamięci M :
- .
Jeśli element sondy jest bardzo podobny do choćby jednej z zakodowanych pamięci, SS otrzymuje duże wzmocnienie. Na przykład, mając m 1 jako element sondujący, otrzymamy odległość bliską 0 (niezupełnie z powodu kontekstu) dla i=1, co doda prawie maksymalne możliwe wzmocnienie do SS . W celu odróżnienia od podobieństwa tła (na przykład zawsze będzie jakieś niskie podobieństwo do kontekstu lub kilka atrybutów), SS często porównuje się z jakimś arbitralnym kryterium. Jeśli jest wyższa niż kryterium, to sonda jest zaliczana do zakodowanych. Kryterium można zmieniać w zależności od charakteru zadania i chęci zapobiegania fałszywe alarmy . Zatem teoria wielu śladów przewiduje, że biorąc pod uwagę jakąś wskazówkę, mózg może porównać tę wskazówkę z kryterium, aby odpowiedzieć na pytania typu „czy ta wskazówka była wcześniej doświadczana?” (rozpoznanie) lub „jakie wspomnienie wywołuje ta wskazówka?” (przypomnienie ze wskazówką), które są zastosowaniami zsumowanego podobieństwa opisanymi poniżej.
Zastosowania do zjawisk pamięciowych
Uznanie
Teoria wielu śladów dobrze pasuje do pojęciowych ram rozpoznawania . Rozpoznanie wymaga od osoby ustalenia, czy widziała przedmiot wcześniej. Na przykład rozpoznawanie twarzy określa, czy dana osoba widziała już twarz. Zapytany o pomyślnie zakodowany przedmiot (coś, co rzeczywiście widziano wcześniej), rozpoznanie powinno nastąpić z dużym prawdopodobieństwem. W matematycznych ramach tej teorii możemy modelować rozpoznawanie pojedynczego elementu sondy p przez zsumowane podobieństwo z kryterium. Tłumaczymy element testowy na wektor atrybutów, tak jak zrobiliśmy to dla zakodowanych wspomnień i porównujemy z każdym napotkanym śladem. Jeśli zsumowane podobieństwo spełnia kryterium, mówimy, że widzieliśmy przedmiot już wcześniej. Oczekuje się, że sumaryczne podobieństwo będzie bardzo niskie, jeśli przedmiot nigdy nie był widziany, ale względnie wyższe, jeśli tak, ze względu na podobieństwo atrybutów sondy do jakiejś pamięci macierzy pamięci.
Można to zastosować zarówno do rozpoznawania pojedynczych pozycji, jak i rozpoznawania asocjacyjnego dla dwóch lub więcej pozycji razem.
Przypomnij sobie
Teoria może również uwzględniać zapamiętywanie ze wskazówką . Tutaj podana jest pewna wskazówka, która ma na celu wydobycie elementu z pamięci. Na przykład pytanie dotyczące faktów, takie jak „Kto był pierwszym prezydentem Stanów Zjednoczonych?” jest wskazówką do uzyskania odpowiedzi „George'a Washingtona”. W „ab” możemy wziąć wszystkie atrybuty obecne mab w wskazówce i wymienić je jako element a w zakodowanym powiązaniu, gdy próbujemy przypomnieć sobie część b pamięć. W tym przykładzie atrybuty takie jak „first”, „President” i „United States” zostaną połączone w celu utworzenia wektora a, który został już sformułowany w pamięci mab , której wartości b kodują „George Washington”. Biorąc pod uwagę a , istnieją dwa popularne modele tego, w jaki sposób możemy pomyślnie przypomnieć sobie b :
1) Możemy przejrzeć i określić podobieństwo (nie zsumowane podobieństwo, patrz powyżej dla rozróżnienia) do każdego elementu w pamięci dla atrybutów a , a następnie wybrać tę pamięć, która ma największe podobieństwo dla a . Jakiekolwiek b , z którymi jesteśmy powiązani, dają to, co pamiętamy. Pamięć mab elementy daje największe szanse na przywołanie, ponieważ jej a będą miały duże podobieństwo do pamięci a . Mimo to, ponieważ wspomnienie nie zawsze występuje, możemy powiedzieć, że podobieństwo musi spełnić kryterium, aby w ogóle zaszło wspomnienie. Jest to podobne do działania maszyny IBM Watson . Tutaj podobieństwo porównuje tylko atrybuty typu a z mab .
2) Możemy zastosować probabilistyczną regułę wyboru, aby określić prawdopodobieństwo przypomnienia sobie przedmiotu jako proporcjonalne do jego podobieństwa. Jest to podobne do rzucania lotką w tarczę z większymi obszarami reprezentowanymi przez większe podobieństwa do elementu wskazującego. Matematycznie rzecz biorąc, biorąc pod uwagę wskazówkę a , prawdopodobieństwo przywołania żądanej pamięci mab wynosi :
Przy obliczaniu zarówno podobieństwa, jak i podobieństwa zsumowanego, bierzemy pod uwagę tylko relacje między atrybutami typu a . Dodajemy składnik błędu , ponieważ bez niego prawdopodobieństwo przywołania jakiejkolwiek pamięci w M wyniesie 1, ale z pewnością są chwile, kiedy przywołanie w ogóle nie występuje.
Wyjaśnienie innych typowych wyników
Zjawiska w pamięci związane między innymi z powtarzaniem, częstotliwością słów, aktualnością, zapominaniem i ciągłością można łatwo wyjaśnić w dziedzinie teorii wielu śladów. Wiadomo, że pamięć poprawia się przy wielokrotnym kontakcie z przedmiotami. Na przykład kilkukrotne usłyszenie słowa z listy poprawi później rozpoznawanie i przypominanie sobie tego słowa. Dzieje się tak, ponieważ wielokrotna ekspozycja po prostu dodaje pamięć do stale rosnącej matrycy pamięci, więc zsumowane podobieństwo tej pamięci będzie większe, a zatem z większym prawdopodobieństwem spełni kryterium.
W rozpoznawaniu bardzo popularne słowa są trudniejsze do rozpoznania jako część zapamiętanej listy, gdy są testowane, niż rzadkie słowa. Jest to znane jako efekt częstotliwości słów i można je również wyjaśnić teorią wielu śladów. W przypadku popularnych słów sumaryczne podobieństwo będzie stosunkowo wysokie, niezależnie od tego, czy słowo było widoczne na liście, czy nie, ponieważ jest prawdopodobne, że słowo to zostało napotkane i zakodowane w macierzy pamięci kilka razy w ciągu życia. W związku z tym mózg zazwyczaj wybiera wyższe kryterium przy określaniu, czy popularne słowa są częścią listy, co utrudnia ich pomyślny wybór. Jednak rzadsze słowa są zwykle spotykane rzadziej przez całe życie, więc ich obecność w matrycy pamięci jest ograniczona. W związku z tym niskie ogólne zsumowane podobieństwo doprowadzi do łagodniejszego kryterium. Jeśli słowo było obecne na liście, wysokie podobieństwo kontekstu w czasie testu i podobieństwo innych atrybutów doprowadzi do wystarczającego zwiększenia sumarycznego podobieństwa, aby przekroczyć kryterium, a tym samym pomyślnie rozpoznać rzadkie słowo.
Niedawność efektu pozycji szeregowej można wytłumaczyć tym, że nowsze zakodowane wspomnienia będą miały kontekst czasowy najbardziej podobny do obecnego kontekstu, ponieważ stochastyczna natura czasu nie będzie miała tak wyraźnego efektu. W związku z tym podobieństwo kontekstu będzie wysokie w przypadku ostatnio zakodowanych elementów, więc ogólne podobieństwo będzie również stosunkowo wyższe w przypadku tych elementów. Uważa się również, że stochastyczny dryf kontekstualny odpowiada za zapominanie, ponieważ kontekst, w którym zakodowano pamięć, jest z czasem tracony, więc zsumowane podobieństwo elementu prezentowanego tylko w tym kontekście będzie się zmniejszać z czasem.
Wreszcie, dane empiryczne wykazały efekt przyległości , w wyniku którego elementy, które są prezentowane razem czasowo, nawet jeśli mogą nie być zakodowane jako pojedyncza pamięć, jak w paradygmacie „ ab” opisanym powyżej, są bardziej prawdopodobne, że zostaną zapamiętane razem. Można to uznać za wynik niskiego dryfu kontekstowego między elementami zapamiętanymi razem, więc podobieństwo kontekstowe między dwoma przedmiotami prezentowanymi razem jest wysokie.
niedociągnięcia
Jedną z największych wad teorii wielu śladów jest wymaganie jakiegoś elementu, z którym można porównać macierz pamięci przy określaniu udanego kodowania. Jak wspomniano powyżej, działa to całkiem dobrze w rozpoznawaniu i przywoływaniu wskazówek, ale istnieje rażąca niemożność włączenia swobodnego przypominania do modelu. Swobodne przywoływanie wymaga od osoby swobodnego zapamiętania jakiejś listy pozycji. Chociaż sama prośba o przypomnienie może działać jako wskazówka, która może następnie wywołać techniki przywoływania wskazań, jest mało prawdopodobne, aby wskazówka była wystarczająco wyjątkowa, aby spełnić kryterium zsumowanego podobieństwa lub w inny sposób osiągnąć wysokie prawdopodobieństwo przypomnienia.
Innym ważnym problemem jest przełożenie modelu na istotność biologiczną. Trudno sobie wyobrazić, że mózg ma nieograniczone możliwości śledzenia tak dużej matrycy wspomnień i ciągłego jej powiększania o każdy element, z jakim kiedykolwiek został mu przedstawiony. Ponadto przeszukiwanie tej macierzy jest wyczerpującym procesem, który nie byłby istotny w biologicznych skalach czasowych.