Teoria tłumienia

Teoria tłumienia jest modelem selektywnej uwagi zaproponowanym przez Anne Treisman i może być postrzegana jako rewizja modelu filtra Donalda Broadbenta . Treisman zaproponował teorię tłumienia jako sposób wyjaśnienia, w jaki sposób bodźce pozostawione bez nadzoru czasami były przetwarzane w bardziej rygorystyczny sposób niż to, co mógłby wyjaśnić model filtra Broadbenta. W rezultacie teoria tłumienia dodała kolejne warstwy wyrafinowania do pierwotnego pomysłu Broadbenta dotyczącego tego, jak może działać selektywna uwaga: twierdząc, że zamiast filtra, który blokuje nienadzorowane sygnały wejściowe przed wejściem do świadomości, był to proces tłumienie . Tak więc tłumienie nienadzorowanych bodźców utrudniłoby, ale nie uniemożliwiłoby wydobycie znaczącej treści z nieistotnych danych wejściowych, o ile bodźce nadal miały wystarczającą „siłę” po tłumieniu, aby przejść przez hierarchiczny proces analizy.

Krótki przegląd i wcześniejsze badania

selektywnej uwagi mają na celu wyjaśnienie, dlaczego i jak jednostki mają tendencję do przetwarzania tylko niektórych części otaczającego ich świata, ignorując inne. Biorąc pod uwagę, że informacje sensoryczne nieustannie oblegają nas z pięciu modalności sensorycznych , interesujące było nie tylko wskazanie, gdzie zachodzi selekcja uwagi, ale także wyjaśnienie, w jaki sposób ludzie ustalają priorytety i przetwarzają bodźce sensoryczne. Wczesne teorie uwagi , takie jak te zaproponowane przez Broadbenta i Treismana, miały wąskie gardło perspektywiczny. Oznacza to, że wywnioskowali, że nie można było zająć się wszystkimi dostępnymi informacjami sensorycznymi w dowolnym momencie ze względu na ograniczone możliwości przetwarzania . W wyniku tej ograniczonej zdolności przetwarzania informacji sensorycznych wierzono, że istnieje filtr, który zapobiegałby przeciążeniu poprzez zmniejszenie ilości informacji przekazywanych do przetwarzania.

Metodologia

Wczesne badania pochodziły z epoki skupiającej się głównie na odsłuchu i wyjaśnianiu zjawisk, takich jak efekt koktajlu . Z tego wynikało zainteresowanie tym, w jaki sposób ludzie mogą wybierać i zwracać uwagę na pewne dźwięki w naszym otoczeniu, a na głębszym poziomie, czym różni się przetwarzanie odbieranych sygnałów mowy od tych, na które nie zwraca się uwagi. Uwaga słuchowa jest często opisywana jako wybór kanału, wiadomości, ucha, bodźca lub, używając bardziej ogólnego sformułowania użytego przez Treismana, „wybór między wejściami”. Ponieważ przesłuchanie stało się preferowanym sposobem badania selektywnej uwagi, tak samo stało się z procedurami testowania dychotyczne słuchanie i obserwowanie .

Dychotyczne słuchanie

Słuchanie dychotyczne to procedura eksperymentalna używana do zademonstrowania selektywnego filtrowania sygnałów dźwiękowych i była stosowana głównie przez firmę Broadbent. W dychotycznym zadaniu słuchania uczestnicy byli proszeni o założenie zestawu słuchawek i skupienie się na informacjach prezentowanych obojgu uszom (dwa kanały) lub jednemu uchu (jeden kanał), ignorując wszystko, co jest prezentowane w przeciwległym kanale. Po zakończeniu zadania słuchania uczestnicy byliby następnie proszeni o przypomnienie sobie wszelkich zauważonych szczegółów dotyczących kanału bez nadzoru.

Sledzenie

Cieniowanie można postrzegać jako rozwinięcie dychotycznego słuchania. W cieniu uczestnicy przechodzą przez w dużej mierze ten sam proces, tylko tym razem mają za zadanie powtórzyć na głos informacje usłyszane w uchu opiekuna podczas ich prezentacji. Ta recytacja informacji jest przeprowadzana w taki sposób, aby eksperymentatorzy mogli zweryfikować, czy uczestnicy zwracają się do właściwego kanału, a liczba poprawnie odczytanych (recytowanych) słów może zostać oceniona do późniejszego wykorzystania jako zmienna zależna . Ze względu na charakterystykę próby na żywo, shadowing jest bardziej wszechstronną procedurą testową, ponieważ manipulacje kanałami i ich natychmiastowe wyniki można obserwować w czasie rzeczywistym. Jest również preferowany ze względu na większą dokładność, ponieważ cieniowanie jest mniej zależne od zdolności uczestników do prawidłowego przywołania usłyszanych słów.

Model filtra Broadbenta jako odskocznia

Model przetwarzania informacji filtru Broadbenta

Model filtra Donalda Broadbenta jest najwcześniejszą teorią wąskiego gardła uwagi i posłużył jako podstawa, na której później Anne Treisman zbudowała swój model tłumienia. Broadbent zaproponował ideę, że umysł może pracować tylko z określoną liczbą bodźców zmysłowych w danym momencie, w wyniku czego musi istnieć filtr, który pozwala nam selektywnie zajmować się rzeczami, jednocześnie blokując inne. Zakładano, że filtr ten poprzedza rozpoznawanie wzorców bodźców i że uwaga dyktuje, jakie informacje docierają do etapu rozpoznawania wzorców, kontrolując, czy dane wejściowe zostały odfiltrowane, czy nie.

Pierwszy etap procesu filtracji wydobywa właściwości fizyczne dla wszystkich bodźców w sposób równoległy. Twierdzono, że drugi etap ma ograniczoną pojemność, dlatego uważano, że tam właśnie znajduje się filtr selektywny, aby chronić przed przeciążeniem przetwarzania sensorycznego. W oparciu o właściwości fizyczne wyodrębnione na początkowym etapie, filtr przepuszczałby tylko te bodźce posiadające określone cechy kryterialne ( np . , lokalizacja) do przejścia. Według firmy Broadbent wszelkie informacje, na które nie zwraca się uwagi, zostaną odfiltrowane i powinny być przetwarzane tylko w takim zakresie, w jakim wymagają tego filtry. Ponieważ selekcja była wrażliwa wyłącznie na właściwości fizyczne, uważano, że to jest powód, dla którego ludzie posiadali tak niewielką wiedzę na temat treści pozostawionej bez nadzoru wiadomości. Całe przetwarzanie wyższego poziomu, takie jak ekstrakcja znaczenia, odbywa się po filtrze. Dlatego informacje na kanale nienadzorowanym nie powinny być rozumiane. W konsekwencji zdarzenia takie jak usłyszenie własnego imienia, gdy nie zwraca się uwagi, powinny być niemożliwe, ponieważ informacje te należy odfiltrować, zanim będzie można przetworzyć ich znaczenie.

Krytyka prowadząca do teorii tłumienia

Jak wspomniano powyżej, filtrujący model uwagi napotyka trudności przy próbie wyjaśnienia, jak to się dzieje, że ludzie zaczynają wydobywać znaczenie z wydarzenia, którego w przeciwnym razie powinni być nieświadomi. Z tego powodu, jak ilustrują poniższe przykłady, Treisman zaproponował teorię tłumienia jako sposób wyjaśnienia, w jaki sposób bodźce pozostawione bez nadzoru czasami były przetwarzane w bardziej rygorystyczny sposób niż to, co mógłby wyjaśnić model filtra Broadbenta.

  • Wykazano, że dla dwóch identycznych treściowo komunikatów zmieniając odstęp czasowy między początkiem komunikatu nieistotnego w stosunku do komunikatu nadzorowanego, uczestnicy mogą zauważyć duplikat komunikatu.
  • Kiedy uczestnikom przedstawiono wiadomość „możesz teraz przestać” w uchu bez nadzoru, znaczna liczba to zrobiła.
  • W klasycznej demonstracji zjawiska cocktail party uczestnicy, którym przez ucho bez nadzoru przedstawiono własne imię, często wspominają, że je słyszeli.
  • Uczestnicy, którzy przeszli szkolenie lub praktykę, mogą skuteczniej postrzegać treści z nienadzorowanego kanału, jednocześnie zajmując się innym.
  • Semantyczne przetwarzanie bodźców pozostawionych bez opieki zostało zademonstrowane poprzez zmianę kontekstualnego znaczenia słów prezentowanych nienadzorowanemu uchu. Uczestnicy częściej słyszeli słowa z ucha nienadzorowanego, jeśli były one silnie powiązane kontekstowo z wiadomością, której słuchali.

Model tłumienia selektywnej uwagi

Model przetwarzania informacji teorii tłumienia Treismana

Jak następuje tłumienie

Tłumiący model selektywnej uwagi Treismana zachowuje zarówno ideę procesu wczesnej selekcji, jak i mechanizm, dzięki któremu sygnały fizyczne są wykorzystywane jako główny punkt dyskryminacji. Jednak w przeciwieństwie do modelu Broadbenta, filtr osłabia teraz informacje pozostawione bez nadzoru, zamiast całkowicie je odfiltrować. Treisman dalej rozwijał ten model, wprowadzając koncepcję progu, aby wyjaśnić, w jaki sposób niektóre słowa zaczęły być słyszane w kanale bez nadzoru z większą częstotliwością niż inne. Uważano, że każde słowo zawiera własny próg, który dyktuje prawdopodobieństwo, że zostanie zauważone po osłabieniu.

Po początkowej fazie tłumienia informacje są następnie przekazywane do hierarchii analizatorów, które wykonują procesy wyższego poziomu w celu wyodrębnienia bardziej znaczących treści (patrz sekcja „Analizatory hierarchiczne” poniżej). Kluczowym aspektem teorii tłumienia jest to, że obserwowane dane wejściowe zawsze będą podlegać pełnemu przetwarzaniu, podczas gdy nieistotne bodźce często nie mają wystarczająco niskiego progu, aby można je było w pełni przeanalizować, w wyniku czego zapamiętywane są tylko cechy fizyczne, a nie semantyka. Dodatkowo tłumienie, a następnie późniejsze przetwarzanie bodźców jest podyktowane aktualnymi wymaganiami stawianymi systemowi przetwarzającemu. Często zdarza się, że nie ma wystarczających zasobów, aby dokładnie przetworzyć nienadzorowane dane wejściowe.

Próg rozpoznawania

Działanie progu rozpoznawania jest proste: dla każdego możliwego wejścia jednostka ma określony próg lub „wymaganą ilość aktywacji”, aby go dostrzec. Im niższy ten próg, tym łatwiej i bardziej prawdopodobne jest dostrzeżenie sygnału wejściowego, nawet po przejściu tłumienia.

Afektory progowe

Kontekst i torowanie

Kontekst odgrywa kluczową rolę w zmniejszaniu progu wymaganego do rozpoznawania bodźców poprzez tworzenie oczekiwania na powiązane informacje. Kontekst działa poprzez mechanizm torowania , w którym powiązane informacje stają się chwilowo bardziej aktualne i dostępne – obniżając próg rozpoznania w procesie. Przykład tego można zobaczyć w stwierdzeniu „Zadzwonił dzwonek na przerwę , gdzie słowo zadzwoniło i jego synonimy miałyby obniżony próg z powodu torowania ułatwionego przez słowa, które je poprzedzają.

Znaczenie subiektywne

Słowa, które mają subiektywne znaczenie (np. pomoc, ogień) będą miały niższy próg niż te, które go nie mają. Słowa o wielkim indywidualnym znaczeniu, takie jak twoje własne imię, będą miały trwale niski próg i będą mogły wejść w świadomość w prawie każdych okolicznościach. Z drugiej strony, niektóre słowa są bardziej zmienne pod względem ich indywidualnego znaczenia i zależą od częstotliwości ich używania, kontekstu i ciągłości z przekazem, z którym mają być zauważone.

Stopień tłumienia

Stopień tłumienia może się zmieniać w zależności od treści wiadomości bazowej; przy czym większe tłumienie ma miejsce w przypadku niespójnych komunikatów, które mają niewielką korzyść dla osoby, która je słyszy. Niespójne komunikaty są najbardziej tłumione, ponieważ jakakolwiek ingerencja, jaką mogłyby wywołać w nadzorowanym komunikacie, byłaby bardziej szkodliwa niż w przypadku zrozumiałych lub uzupełniających informacji. Poziom tłumienia może mieć głęboki wpływ na to, czy dane wejściowe zostaną odebrane, czy nie, i może się dynamicznie zmieniać w zależności od wymagań dotyczących uwagi.

Hierarchia analizatorów

Hierarchiczny system analizy charakteryzuje się maksymalną oszczędnością: ułatwiając dostrzeganie ważnych, nieoczekiwanych lub nieuważnych bodźców, zapewnia jednocześnie, że te komunikaty są wystarczająco osłabione . nie przechodzą przez znacznie więcej niż najwcześniejsze etapy analizy, zapobiegając przeciążeniu zdolności przetwarzania sensorycznego. Jeśli wymagania dotyczące uwagi (i późniejsze wymagania dotyczące przetwarzania) są niskie, ma miejsce przetwarzanie w pełnej hierarchii. Jeśli wymagania są wysokie, tłumienie staje się bardziej agresywne i umożliwia przetwarzanie tylko ważnych lub istotnych informacji z nienadzorowanej wiadomości. Hierarchiczny proces analizy charakteryzuje się szeregowym charakterem, dając unikalny wynik dla każdego analizowanego słowa lub fragmentu danych. Osłabiona informacja przechodzi przez wszystkie analizatory tylko wtedy, gdy próg został obniżony na ich korzyść, jeśli nie, informacja przechodzi tylko na tyle, na ile pozwala jej próg.

Układ nerwowy sekwencyjnie analizuje dane wejściowe, zaczynając od ogólnych cech fizycznych, takich jak ton i głośność, a następnie identyfikuje słowa i ich znaczenie (np. sylaby , słowa, gramatyka i semantyka) . ). Hierarchiczny proces służy również istotnemu celowi, jeśli dane wejściowe są identyczne pod względem głosu, amplitudy i wskazówek przestrzennych. Jeśli wszystkie te cechy fizyczne będą identyczne w różnych komunikatach, wówczas tłumienie nie może skutecznie zachodzić na wczesnym poziomie w oparciu o te właściwości. Zamiast tego podczas identyfikowania słów i znaczenia wystąpi osłabienie, a wtedy zdolność do przetwarzania informacji może być ograniczona.

Dowód

Śledzenie wiadomości do ucha bez nadzoru

Podczas eksperymentów z cieniem Treisman prezentował każdemu uchu unikalny strumień prozaicznych bodźców. W pewnym momencie podczas cieniowania bodźce przechodziły następnie na przeciwną stronę, tak że poprzednio zasłonięta wiadomość była teraz prezentowana nienadzorowanemu uchu. Uczestnicy często „podążali” za komunikatem do ucha bez nadzoru, zanim zdali sobie sprawę ze swojego błędu, zwłaszcza jeśli bodźce charakteryzowały się wysokim stopniem ciągłości. To „podążanie za komunikatem” ilustruje, w jaki sposób ucho nienadzorowane nadal wydobywa pewien stopień informacji z kanału nienadzorowanego i jest sprzeczne z modelem filtra Broadbenta, który oczekiwałby, że uczestnicy będą całkowicie nieświadomi zmiany w kanale nienadzorowanym.

Manipulowanie początkiem wiadomości

W serii eksperymentów przeprowadzonych przez Treismana (1964) odtwarzane byłyby dwa komunikaty o identycznej treści, a ilość czasu między początkiem komunikatu nieistotnego w stosunku do komunikatu zacienionego byłaby zróżnicowana. Uczestnicy nigdy nie byli informowani o dwulicowości wiadomości, a odstęp czasowy między wiadomościami był zmieniany, dopóki uczestnicy nie zauważyli podobieństwa. Jeśli pozwolono prowadzić nieistotną wiadomość, stwierdzono, że przerwa czasowa nie mogła przekroczyć 1,4 sekundy. Uważano, że jest to wynikiem tłumienia nieistotnej wiadomości i braku przetwarzania poza poziomem fizycznym. Ten brak głębokiego przetwarzania wymaga przechowywania nieistotnej wiadomości w magazynie sensorycznym przed porównaniem z zacienioną wiadomością, co czyni ją podatną na rozkład. W przeciwieństwie do tego, gdy zacieniona wiadomość prowadziła, nieistotna wiadomość mogła pozostawać w tyle nawet o pięć sekund, a uczestnicy nadal dostrzegali podobieństwo. Pokazuje to, że zacieniona wiadomość nie zanika tak szybko i pokrywa się z tym, co przewidywałaby teoria tłumienia: zacieniona wiadomość nie jest tłumiona, przechodzi pełne przetwarzanie, a następnie zostaje przekazana do pamięci roboczej, gdzie może być przechowywana przez stosunkowo dłuższy czas niż pozostawiona wiadomość w sklepie sensorycznym.

Odmiany tej metody polegały na używaniu identycznych komunikatów wypowiadanych różnymi głosami (np. płcią) lub manipulowaniu tym, czy komunikat składa się z nie-słów, aby zbadać efekt braku możliwości wydobycia znaczenia. We wszystkich przypadkach znaleziono poparcie dla teorii tłumienia.

Dwujęzyczne cieniowanie

Stwierdzono, że dwujęzyczni uczniowie rozpoznają, że wiadomość prezentowana na kanale nienadzorowanym była taka sama jak ta, na którą uczęszczano, nawet jeśli była prezentowana w innym języku. Osiągnięto to poprzez nakłonienie uczestników do obserwowania wiadomości prezentowanej w języku angielskim , podczas odtwarzania tej samej wiadomości w języku francuskim do nienadzorowanego ucha. Po raz kolejny pokazuje to wydobycie znaczących informacji z sygnału mowy poza samymi cechami fizycznymi.

Porażenie prądem i pozostawione bez opieki słowa

Corteen i Dunn (1974) połączyli porażenie prądem ze słowami docelowymi. Wstrząsy elektryczne były prezentowane z bardzo małą intensywnością, tak niską, że uczestnicy nie wiedzieli, kiedy nastąpił wstrząs. Stwierdzono, że gdyby te słowa zostały później przedstawione bez szoku, uczestnicy automatycznie zareagowaliby galwaniczną reakcją skórną (GSR), nawet jeśli były odtwarzane w uchu bez nadzoru. Co więcej, stwierdzono, że GSR uogólniają się na synonimy nienadzorowanych słów docelowych, co sugeruje, że przetwarzanie tekstu odbywało się na poziomie głębszym niż przewidywał model Broadbenta.

Zdarzeniowe potencjały nieistotnych bodźców

Von Voorhis i Hillyard (1977) wykorzystali EEG do obserwacji potencjałów związanych ze zdarzeniami (ERP) bodźców wzrokowych. Uczestnicy zostali poproszeni o uwzględnienie lub zignorowanie określonych prezentowanych bodźców. Wyniki pokazały, że podczas zajmowania się bodźcami wzrokowymi wielkość fluktuacji napięcia była większa w miejscach potylicznych dla bodźców obserwowanych w porównaniu z bodźcami nienadzorowanymi. Modulacje napięcia obserwowano po 100 ms początku bodźca, zgodnie z tym, co można by przewidzieć na podstawie tłumienia nieistotnych danych wejściowych.

Wpływ zapotrzebowania na uwagę na aktywność mózgu

W badaniu fMRI , w którym sprawdzano, czy znaczenie zostało niejawnie wyodrębnione ze słów pozostawionych bez nadzoru, czy też można uniknąć wydobycia znaczenia poprzez jednoczesne przedstawienie rozpraszających bodźców; stwierdzono, że gdy konkurujące bodźce powodują wystarczające zapotrzebowanie na uwagę, nie zaobserwowano żadnej aktywności mózgu w odpowiedzi na słowa pozostawione bez nadzoru, nawet jeśli były bezpośrednio skupione. Wyniki te są zgodne z tym, co można by przewidzieć na podstawie tłumiącego stylu selekcji i są sprzeczne z klasyczną teorią późnej selekcji.

Konkurencyjne teorie

W 1963 roku Deutsch & Deutsch zaproponowali model późnej selekcji dotyczący działania selektywnej uwagi . Zaproponowali, aby wszystkie bodźce były przetwarzane w całości, z tą zasadniczą różnicą, że filtr umieszczany jest później w procedurze przetwarzania informacji, tuż przed wejściem do pamięci roboczej . . Późny proces selekcji rzekomo działał na semantycznych cechach wiadomości, wykluczając dane wejściowe z pamięci i późniejszej świadomości, jeśli nie posiadały pożądanej treści. Zgodnie z tym modelem zdeprecjonowana świadomość bodźców bez nadzoru pochodziła z zaprzeczenia w pamięci roboczej i kontrolowanego generowania odpowiedzi na nie. Model Deutsch & Deutsch został później zrewidowany przez Normana w 1968 roku, który dodał, że siła danych wejściowych była również ważnym czynnikiem przy ich wyborze.

Krytyka zarówno oryginalnego modelu Deutsch & Deutsch, jak i poprawionego modelu selekcji Deutsch-Norman polega na tym, że wszystkie bodźce, w tym te uznane za nieistotne, są przetwarzane w pełni. W porównaniu z modelem tłumienia Treismana, podejście późnej selekcji wydaje się marnotrawstwem z dokładnym przetwarzaniem wszystkich informacji przed selekcją wstępu do pamięci roboczej.

Zobacz też