Intuicyjne statystyki

Statystyka intuicyjna lub statystyka ludowa odnosi się do zjawiska poznawczego, w którym organizmy wykorzystują dane do uogólnień i przewidywań na temat świata. Może to być niewielka ilość przykładowych danych lub instancji szkoleniowych, które z kolei przyczyniają się do wnioskowania indukcyjnego na temat właściwości na poziomie populacji, przyszłych danych lub obu. Wnioskowanie może obejmować rewizję hipotez lub przekonań w świetle danych probabilistycznych, które informują i motywują przyszłe prognozy. Nieformalna tendencja zwierząt kognitywnych do intuicyjnego generowania wniosków statystycznych , gdy jest sformalizowana z pewnymi aksjomaty rachunku prawdopodobieństwa, stanowi o statystyce jako dyscyplinie naukowej.

Ponieważ ta zdolność może pomieścić szeroki zakres domen informacyjnych, tematyka jest podobnie szeroka i zasadniczo pokrywa się z innymi zjawiskami poznawczymi. Rzeczywiście, niektórzy argumentowali, że „poznanie jako intuicyjny statystyk” jest trafną metaforą towarzyszącą komputerowej metaforze poznania. Inni odwołują się do różnych statystycznych i probabilistycznych mechanizmów stojących za konstruowaniem teorii i strukturowaniem kategorii. Badania w tej dziedzinie zwykle koncentrują się na uogólnieniach dotyczących liczby, względnej częstotliwości, ryzyka i wszelkich systematycznych sygnatur zdolności wnioskowania, które organizm (np . , lub naczelne inne niż ludzie).

Tło i teoria

Intuicyjne wnioskowanie może obejmować generowanie hipotez na podstawie przychodzących danych zmysłowych, takich jak kategoryzacja i konstruowanie koncepcji . Dane są zazwyczaj probabilistyczne, a niepewność jest raczej regułą niż wyjątkiem w procesie uczenia się, percepcji, języka i myślenia. Ostatnio naukowcy czerpali z idei teorii prawdopodobieństwa , filozofii umysłu , informatyki i psychologii , aby modelować poznanie jako predykcyjny i generatywny system reprezentacji probabilistycznych , umożliwiając strukturom informacyjnym obsługę wielu wniosków w różnych kontekstach i kombinacjach. Podejście to zostało nazwane probabilistycznym językiem myślenia, ponieważ konstruuje reprezentacje w sposób probabilistyczny, na podstawie wcześniej istniejących koncepcji, aby przewidzieć możliwy i prawdopodobny stan świata.

Prawdopodobieństwo

Statystycy i teoretycy prawdopodobieństwa od dawna debatują na temat wykorzystania różnych narzędzi, założeń i problemów związanych w szczególności z wnioskowaniem indukcyjnym. David Hume słynnie rozważał problem indukcji , kwestionując logiczne podstawy tego, jak i dlaczego ludzie mogą dojść do wniosków, które wykraczają poza wcześniejsze doświadczenia – zarówno czasoprzestrzenne, jak i epistemologiczne . . Niedawno teoretycy rozważali ten problem, kładąc nacisk na techniki dochodzenia od danych do hipotez przy użyciu formalnych procedur niezależnych od treści lub przeciwnie, rozważając nieformalne, zależne od treści narzędzia do wnioskowania indukcyjnego. Poszukiwania procedur formalnych doprowadziły do ​​różnych zmian w teorii wnioskowania statystycznego i prawdopodobieństwa z różnymi założeniami, w tym statystyki częstości Fishera , wnioskowania bayesowskiego i statystyki Neymana-Pearsona .

Gerd Gigerenzer i David Murray argumentują, że dwudziestowieczna psychologia jako dyscyplina przyjęła wnioskowanie probabilistyczne jako jednolity zestaw idei i zignorowała kontrowersje wśród teoretyków prawdopodobieństwa. Twierdzą, że z tej akceptacji wynika normatywny, ale błędny pogląd na to, jak ludzie „powinni myśleć racjonalnie”. Utrzymują jednak również, że intuicyjna statystyczna metafora poznania jest obiecująca i powinna rozważyć różne narzędzia formalne lub heurystyki jako wyspecjalizowane dla różnych domen problemowych, a nie jako zestaw narzędzi bez treści lub kontekstu. Na przykład teoretycy wykrywania sygnałów i modele wykrywania obiektów często używają podejścia Neymana-Pearsona, podczas gdy statystyki częstości Fishera mogą pomóc we wnioskach przyczynowo-skutkowych.

Wnioskowanie frekwencjonistyczne

Wnioskowanie częstości koncentruje się na względnych proporcjach lub częstotliwościach zdarzeń w celu wyciągnięcia wniosków probabilistycznych. Definiuje go blisko spokrewniona koncepcja prawdopodobieństwa częstości . Pociąga to za sobą pogląd, że „prawdopodobieństwo” jest bezsensowne w przypadku braku wcześniej istniejących danych, ponieważ jest rozumiane jako względna częstotliwość, do której zbliżyłyby się próbki długoterminowe przy dużej ilości danych. Leda Cosmides i John Tooby argumentowali, że nie jest możliwe wyznaczenie prawdopodobieństwa bez odniesienia do pewnej częstotliwości wcześniejszych wyników, co prawdopodobnie ma ewolucyjne pochodzenie : Prawdopodobieństw pojedynczych zdarzeń, jak twierdzą, nie da się zaobserwować, ponieważ organizmy ewoluowały tak, aby intuicyjnie rozumieć i wyciągać wnioski statystyczne z częstości wcześniejszych zdarzeń, zamiast „widzieć” prawdopodobieństwo jako wewnętrzną właściwość zdarzenia.

Wnioskowanie bayesowskie

Wnioskowanie bayesowskie ogólnie kładzie nacisk na subiektywne prawdopodobieństwo hipotezy, które jest obliczane jako prawdopodobieństwo późniejsze za pomocą twierdzenia Bayesa . Wymaga „punktu startowego” zwanego prawdopodobieństwem uprzednim, co było kontrowersyjne dla niektórych bywalców, którzy twierdzą, że dane dotyczące częstotliwości są wymagane do opracowania prawdopodobieństwa uprzedniego, w przeciwieństwie do przyjmowania prawdopodobieństwa jako założenia a priori .

Modele bayesowskie są dość popularne wśród psychologów, zwłaszcza teoretyków uczenia się, ponieważ wydają się naśladować iteracyjny, predykcyjny proces, w którym ludzie uczą się i rozwijają oczekiwania na podstawie nowych obserwacji, przywiązując jednocześnie odpowiednią wagę do poprzednich obserwacji. Andy Clark , kognitywista i filozof, napisał niedawno szczegółową argumentację na rzecz zrozumienia mózgu jako konstruktywnego silnika Bayesa , który jest zasadniczo zorientowany na działanie i przewidujący , a nie pasywne lub reaktywne. Bardziej klasyczne linie dowodów cytowane przez zwolenników wnioskowania bayesowskiego obejmują konserwatyzm lub zjawisko, w którym ludzie modyfikują wcześniejsze przekonania w kierunku , ale nie do końca, konkluzji implikowanej przez poprzednie obserwacje. Ten wzorzec zachowania jest podobny do wzorca późniejszych rozkładów prawdopodobieństwa, gdy model bayesowski jest uwarunkowany danymi, chociaż krytycy argumentowali, że dowody te zostały przesadzone i brakowało im matematycznego rygoru.

Alison Gopnik niedawno zajęła się tym problemem, opowiadając się za wykorzystaniem sieci bayesowskich lub ukierunkowanych reprezentacji graficznych zależności warunkowych. W sieci bayesowskiej wagi krawędzi są warunkowymi siłami zależności, które są aktualizowane w świetle nowych danych, a węzły są obserwowanymi zmiennymi. Graficzne przedstawienie samo w sobie stanowi model lub hipotezę o świecie i podlega zmianom pod wpływem nowych danych.

Teoria zarządzania błędami

Teoria zarządzania błędami (EMT) to zastosowanie statystyki Neymana-Pearsona w psychologii poznawczej i ewolucyjnej . Utrzymuje, że możliwe dopasowania i korzyści wynikające z błędów typu I (fałszywie dodatnich) i typu II (fałszywie ujemnych) są istotne dla racjonalnych wniosków adaptacyjnych, wobec których oczekuje się, że organizm będzie stronniczy z powodu doboru naturalnego . EMT został pierwotnie opracowany przez Martie Haselton i Davida Bussa , ze wstępnymi badaniami skupiającymi się na jego możliwej roli w uprzedzeniach związanych z nadmierną percepcją seksualną u mężczyzn i niedostateczną percepcją seksualną u kobiet.

Jest to ściśle związane z koncepcją zwaną w teorii ewolucji „zasadą wykrywania dymu”. Jest definiowana przez tendencję do obrony immunologicznej, afektywnej i behawioralnej, która jest nadwrażliwa i nadreaktywna, a nie niewrażliwa lub słabo wyrażona. Randolph Nesse utrzymuje, że jest to konsekwencją typowej struktury wypłat w wykrywaniu sygnału : w systemie, który jest niezmiennie skonstruowany ze stosunkowo niskim kosztem fałszywych trafień i wysokim kosztem fałszywych trafień, oczekuje się, że naturalnie wybrane mechanizmy obronne będą błądzić po stronie nadpobudliwość w odpowiedzi na potencjalne sygnały zagrożenia. Ta ogólna idea została zastosowana do hipotez dotyczących tego, co pozorne skłonność ludzi do stosowania sprawczości wobec nie-agentów w oparciu o niepewne lub podobne do agentów wskazówki. W szczególności niektórzy twierdzą, że potencjalna ofiara może domyślnie przyjąć agencję, jeśli jest choćby nieznacznie podejrzana, ponieważ potencjalne zagrożenia ze strony drapieżników zazwyczaj obejmują tanie fałszywe alarmy i śmiercionośne fałszywe alarmy.

Heurystyki i uprzedzenia

Heurystyki to wydajne reguły lub skróty obliczeniowe służące do tworzenia oceny lub decyzji. Intuicyjna statystyczna metafora poznania doprowadziła wielu psychologów do przesunięcia punktu ciężkości z zasad emocjonalnych lub motywacyjnych w kierunku zasad obliczeniowych lub wnioskowania. Badania empiryczne badające te zasady doprowadziły niektórych do wniosku, że na przykład ludzkie poznanie ma wbudowane i systematyczne błędy we wnioskowaniu lub błędy poznawcze . W rezultacie psychologowie poznawczy w dużej mierze przyjęli pogląd, że intuicyjne osądy, uogólnienia oraz obliczenia numeryczne lub probabilistyczne są systematycznie stronnicze. Rezultatem jest zwykle błąd w ocenie, w tym (ale nie wyłącznie) powtarzające się błędy logiczne (np. błąd koniunkcji), brak liczenia i motywowane emocjonalnie skróty w rozumowaniu. Psychologowie społeczni i kognitywni uznali zatem za „paradoksalne”, że ludzie mogą przewyższać potężne komputery w złożonych zadaniach, a jednocześnie być głęboko wadliwi i podatni na błędy w prostych, codziennych osądach.

Wiele z tych badań zostało przeprowadzonych przez Amosa Tversky'ego i Daniela Kahnemana jako rozwinięcie pracy Herberta Simona na temat ograniczonej racjonalności i satysfakcjonujących . Tversky i Kahneman argumentują, że ludzie są regularnie stronniczy w swoich osądach w warunkach niepewności, ponieważ w kompromisie między szybkością a dokładnością często polegają na szybkiej i intuicyjnej heurystyce z dużym marginesem błędu, a nie na powolnych obliczeniach opartych na zasadach statystycznych. Błędy te nazywane są „złudzeniami poznawczymi”, ponieważ obejmują systematyczne rozbieżności między osądami a przyjętymi, normatywnymi regułami przewidywania statystycznego.

Gigerenzer krytycznie odnosił się do tego poglądu, argumentując, że opiera się on na błędnym założeniu, że istnieje ujednolicona „teoria normatywna” przewidywań statystycznych i prawdopodobieństwa. Jego twierdzenie jest takie, że psychologowie poznawczy zaniedbują różnorodność idei i założeń w teorii prawdopodobieństwa, aw niektórych przypadkach ich wzajemną niezgodność. per se naruszeniem teorii prawdopodobieństwa , ale wiąże się z pewnym rodzajem pomieszania przez eksperymentatora subiektywnych prawdopodobieństw ze stopniami pewności i długoterminowymi częstościami wyników. Cosmides i Tooby podobnie twierdzą, że różne założenia probabilistyczne mogą być mniej lub bardziej normatywne i racjonalne w różnych typach sytuacji oraz że nie ma zestawu narzędzi statystycznych ogólnego przeznaczenia do wyciągania wniosków we wszystkich domenach informacyjnych. W przeglądzie kilku eksperymentów doszli do wniosku, na poparcie Gigerenzera, że ​​poprzednie eksperymenty z heurystykami i uprzedzeniami nie przedstawiały problemów w ekologicznie uzasadnionym sposób, i że reprezentacja problemów w kategoriach częstotliwości, a nie prawdopodobieństwa pojedynczego zdarzenia, może sprawić, że iluzje poznawcze w dużej mierze znikną.

Tversky i Kahneman odrzucili to twierdzenie, argumentując, że usuwanie iluzji poprzez manipulowanie nimi, czy to poznawcze, czy wizualne, nie podważa początkowo odkrytej iluzji. Zauważają również, że Gigerenzer ignoruje iluzje poznawcze wynikające z danych częstotliwościowych, np. iluzoryczne korelacje, takie jak gorąca ręka w koszykówce. Zauważają, że jest to przykład iluzorycznej dodatniej autokorelacji, której nie można skorygować za pomocą konwersji danych na częstotliwości naturalne.

W przypadku adaptacjonistów EMT można zastosować do wnioskowania w dowolnej domenie informacyjnej, w której występuje ryzyko lub niepewność, na przykład unikanie drapieżników, wykrywanie agencji lub żerowanie . Badacze opowiadający się za tym poglądem na racjonalność adaptacyjną argumentują, że teoria ewolucji rzuca heurystyki i uprzedzenia w nowym świetle, a mianowicie jako wydajne obliczeniowo i racjonalne ekologicznie skróty lub przypadki adaptacyjnego zarządzania błędami.

Zaniedbanie stawki podstawowej

Ludzie często lekceważą stawki bazowe lub prawdziwe fakty aktuarialne dotyczące prawdopodobieństwa lub tempa zjawiska, a zamiast tego przypisują niewłaściwą wagę konkretnym obserwacjom. W modelu wnioskowania bayesowskiego oznaczałoby to niedoważenie prawdopodobieństwa a priori, co zostało przytoczone jako dowód przeciwko stosowności normatywnych ram bayesowskich do modelowania poznania. Reprezentacje częstotliwości mogą rozwiązać problem zaniedbania współczynnika podstawowego, a niektórzy uważają to zjawisko za artefakt eksperymentalny, tj. wynik reprezentacji prawdopodobieństw lub współczynników jako matematycznych abstrakcji, o których trudno intuicyjnie myśleć. Gigerenzer spekuluje na temat ekologicznego powodu tego, zauważając, że jednostki uczą się częstotliwości poprzez kolejne próby w przyrodzie. Tversky i Kahneman obalają twierdzenie Gigerenzera, wskazując na eksperymenty, w których badani przewidywali chorobę na podstawie obecności lub braku wcześniej określonych objawów w 250 próbach, z informacją zwrotną po każdej próbie. Zauważają, że nadal stwierdzano zaniedbanie stawki podstawowej, pomimo sformułowania częstotliwości badań przedmiotowych w eksperymencie.

Błąd koniunkcji

Innym popularnym przykładem rzekomej iluzji poznawczej jest błąd koniunkcji , opisany w eksperymencie Tversky'ego i Kahnemana, znanym jako „problem Lindy”. W tym eksperymencie uczestnikom przedstawiany jest krótki opis osoby o imieniu Linda, która ma 31 lat, jest niezamężna, inteligentna, szczera i studiowała filozofię na uniwersytecie, interesowała się dyskryminacją i sprawiedliwością społeczną oraz uczestniczyła w w antynuklearnych protestach. Kiedy uczestnicy zostali zapytani, czy jest bardziej prawdopodobne, że Linda jest (1) kasjerką bankową, czy (2) kasjerką bankową i feministką, 85% odpowiedziało na opcję 2, mimo że opcja 1 nie może być mniej prawdopodobna niż opcja 2. Doszli do wniosku, że był to produkt A heurystyka reprezentatywności lub tendencja do wyciągania wniosków probabilistycznych na podstawie podobieństw właściwości między instancjami pojęcia, a nie wnioskowania o strukturze statystycznej.

Gigerenzer argumentował, że błąd koniunkcji opiera się na prawdopodobieństwie pojedynczego zdarzenia i rozwiązałby się przy podejściu częstościowym. On i inni badacze wykazują, że wnioski z błędu koniunkcji wynikają raczej z niejednoznacznego języka niż z solidnych błędów statystycznych lub złudzeń poznawczych. W alternatywnej wersji problemu Lindy uczestnikom mówi się, że 100 osób pasuje do opisu Lindy i pyta się, ilu z nich to (1) kasjerzy bankowi i (2) kasjerzy bankowi i feministki. Eksperymentalnie ta wersja zadania wydaje się eliminować lub łagodzić błąd koniunkcji.

Modele obliczeniowe

Pojawiło się pytanie, w jaki sposób strukturyzację i uogólnienie pojęć można rozumieć w kategoriach architektury i procesów mózgu. Na to pytanie ma wpływ sąsiednia debata między teoretykami na temat natury myśli, w szczególności między koneksjonistycznymi a językowymi modelami myślowymi. Uogólnienie i klasyfikacja koncepcji zostały zamodelowane w różnych modelach koneksjonistycznych lub sieciach neuronowych , szczególnie w dziedzinach takich jak nauka języków i kategoryzacja. Niektórzy podkreślają ograniczenia modeli czysto koneksjonistycznych, gdy oczekuje się od nich uogólnienia przyszłych instancji po szkoleniu na poprzednich instancjach. Gary'ego Marcusa , na przykład, twierdzi, że dane szkoleniowe musiałyby być całkowicie wyczerpujące, aby w istniejących modelach koneksjonistycznych wystąpiły uogólnienia, w wyniku czego nie radzą sobie dobrze z nowymi obserwacjami. Ponadto opowiada się za integracjonistyczną perspektywą między językiem myśli, składającym się z reprezentacji symboli i operacji, a modelami koneksjonistycznymi, niż zachowuje rozproszone przetwarzanie, które jest prawdopodobnie używane przez sieci neuronowe w mózgu.

Dowody na ludziach

W praktyce ludzie rutynowo dokonują koncepcyjnych, językowych i probabilistycznych uogólnień na podstawie niewielkich ilości danych. Toczy się debata na temat użyteczności różnych narzędzi wnioskowania statystycznego w zrozumieniu umysłu, ale powszechnie przyjmuje się, że ludzki umysł jest w jakiś sposób jest wyjątkowo trafną maszyną prognostyczną i że zorientowane na działanie procesy leżące u podstaw tego zjawiska, niezależnie od tego, jakie by one nie były, leżą u podstaw poznania. Wnioskowania probabilistyczne i uogólnienia odgrywają kluczową rolę w pojęciach i kategoriach oraz w nauce języków, a badania nad niemowlętami są powszechnie wykorzystywane do zrozumienia trajektorii rozwoju intuicyjnych zestawów statystycznych człowieka.

Badania niemowląt

Psychologowie rozwoju, tacy jak Jean Piaget, tradycyjnie argumentowali, że dzieci nie rozwijają ogólnych zdolności poznawczych do wnioskowania probabilistycznego i testowania hipotez aż do odpowiednio konkretnych operacyjnych (wiek 7–11 lat) i formalnych operacyjnych (wiek 12 lat-dorosłość) etapów rozwoju .

Czasami kontrastuje to z rosnącą przewagą dowodów empirycznych sugerujących, że ludzie są zdolni do uogólniania w okresie niemowlęcym. Na przykład eksperymenty z patrzeniem w czasie z wykorzystaniem oczekiwanych wyników proporcji czerwonych i białych piłeczek pingpongowych wykazały, że 8-miesięczne niemowlęta wydają się wyciągać wnioski na temat cech populacji, z której pochodzi próbka, i odwrotnie, gdy podano dane na poziomie populacji. Inne eksperymenty w podobny sposób potwierdziły zdolność do wnioskowania probabilistycznego z 6- i 11-miesięcznymi niemowlętami, ale nie u 4,5-miesięcznych.

Paradygmat kolorowych kulek w tych eksperymentach nie rozróżniał możliwości wnioskowania niemowląt na podstawie ilości i proporcji, co zostało uwzględnione w dalszych badaniach, w których 12-miesięczne niemowlęta wydawały się rozumieć proporcje, opierając się na ocenach probabilistycznych - motywowanych preferencjami dla bardziej prawdopodobnych wyników - na podstawie wstępnych dowodów proporcji w dostępnych opcjach. Krytycy skuteczności zadań polegających na czasie patrzenia umożliwili niemowlętom wyszukiwanie preferowanych obiektów w zadaniach prawdopodobieństwa pojedynczej próbki, potwierdzając pogląd, że niemowlęta mogą wnioskować o prawdopodobieństwie pojedynczych zdarzeń, mając małą lub dużą początkową wielkość próby. Naukowcy zaangażowani w te odkrycia argumentowali, że ludzie posiadają pewien statystycznie ustrukturyzowany system wnioskowania podczas przedwerbalnych etapów rozwoju i przed formalną edukacją.

Jednak mniej jasne jest, w jaki sposób i dlaczego uogólnienie obserwuje się u niemowląt: może to wynikać bezpośrednio z wykrywania i przechowywania podobieństw i różnic w napływających danych lub reprezentacji częstotliwości. I odwrotnie, może to być tworzone przez coś w rodzaju wnioskowania bayesowskiego ogólnego przeznaczenia, zaczynając od bazy wiedzy, która jest iteracyjnie uwarunkowana danymi w celu aktualizacji subiektywnych prawdopodobieństw lub przekonań. Łączy to ze sobą pytania dotyczące zestawów narzędzi statystycznych, które mogą być wykorzystywane w procesie uczenia się, oraz ich szczególnego zastosowania w przypadku uczenia się niemowląt i dzieci.

Gopnik opowiada się za hipotezą, że uczenie się niemowląt i dzieci jest przykładem wnioskowania indukcyjnego, ogólnego mechanizmu uogólniania, działającego na wyspecjalizowane struktury informacyjne („ teorie ”) w mózgu. Z tego punktu widzenia niemowlęta i dzieci są zasadniczo proto-naukowcami, ponieważ regularnie stosują rodzaj metody naukowej, opracowując hipotezy, przeprowadzając eksperymenty poprzez zabawę i aktualizując modele dotyczące świata w oparciu o ich wyniki. Dla Gopnika to wykorzystanie naukowego myślenia i kategoryzacji w rozwoju i życiu codziennym można sformalizować jako modele wnioskowania bayesowskiego. Zastosowaniem tego poglądu jest „hipoteza pobierania próbek” lub pogląd, że indywidualne zróżnicowanie wniosków przyczynowych i probabilistycznych dzieci jest artefaktem losowego pobierania próbek z różnorodnego zestawu hipotez i elastycznych uogólnień opartych na zachowaniu i kontekście pobierania próbek. Poglądy te, zwłaszcza te, które opowiadają się za ogólną aktualizacją bayesowską na podstawie wyspecjalizowanych teorii, są uważane za następców teorii Piageta, a nie za jej hurtowe obalenia, ponieważ utrzymują jej ogólność w dziedzinie, postrzegając dzieci jako przypadkowe i niesystematyczne rozważanie szeregu modeli przed wybraniem prawdopodobnego wniosku.

W przeciwieństwie do mechanistycznego poglądu ogólnego przeznaczenia, niektórzy badacze opowiadają się zarówno za strukturami informacyjnymi specyficznymi dla domeny , jak i podobnie wyspecjalizowanymi mechanizmami wnioskowania. Na przykład, podczas gdy ludzie zwykle nie wyróżniają się prawdopodobieństwem warunkowym obliczeniach, stosowanie obliczeń prawdopodobieństwa warunkowego ma kluczowe znaczenie dla rozkładania dźwięków mowy na zrozumiałe sylaby, co jest stosunkowo prostą i intuicyjną umiejętnością, która pojawia się już w wieku 8 miesięcy. Niemowlęta również wydają się być dobre w śledzeniu nie tylko czasoprzestrzennych stanów obiektów, ale także w śledzeniu właściwości obiektów, a te systemy poznawcze wydają się być odrębne rozwojowo. Zostało to zinterpretowane jako zestawy narzędzi do wnioskowania specyficzne dla domeny, z których każdy odpowiada odrębnym typom informacji i ma zastosowanie do uczenia się koncepcji .

Tworzenie koncepcji

Niemowlęta wykorzystują podobieństwa i różnice w formach do rozwijania koncepcji związanych z przedmiotami, a to opiera się na wielu próbach z wieloma wzorami, wykazując pewną wspólną właściwość między próbami. Wydaje się, że niemowlęta stają się biegłe w tej umiejętności, zwłaszcza w wieku 12 miesięcy, ale różne koncepcje i właściwości wykorzystują różne odpowiednie zasady psychologii Gestalt , z których wiele może pojawić się na różnych etapach rozwoju. W szczególności kategoryzacja niemowląt już w wieku 4,5 miesiąca obejmuje iteracyjne i współzależne procesy, w których wzorce (dane) oraz ich podobieństwa i różnice są kluczowe dla wyznaczenia granic wokół kategorii. Te abstrakcyjne reguły są z natury statystyczne, ponieważ mogą pociągać za sobą wspólne współwystępowanie pewnych postrzeganych właściwości w przeszłych przypadkach i ułatwiać wnioskowanie o ich strukturze w przyszłych przypadkach. Pomysł ten został ekstrapolowany przez Douglasa Hofstadtera i Emmanuela Sandera, którzy twierdzą, że z powodu analogii jest procesem wnioskowania opartym na podobieństwach i różnicach między właściwościami pojęć, analogia i kategoryzacja są zasadniczo tym samym procesem, który służy do organizowania pojęć z przychodzących danych.

Nauka języka

Niemowlęta i małe dzieci są nie tylko zdolnymi uogólniaczami ilości i proporcji cech, ale także abstrakcyjnych systemów opartych na regułach, takich jak język i muzyka . Reguły te można nazwać „regułami algebraicznymi” abstrakcyjnej struktury informacyjnej i są one reprezentacjami systemów reguł lub gramatyk . W przypadku języka badacze zalecają tworzenie uogólnień z wnioskowaniem bayesowskim i wykrywaniem podobieństw jako szczególny przypadek tworzenia pojęć. Wydaje się, że niemowlęta są biegłe w wyprowadzaniu abstrakcyjnych i strukturalnych reguł ze strumieni dźwięków językowych wytwarzanych w ich środowiskach rozwojowych oraz w generowaniu szerszych prognoz w oparciu o te reguły.

Na przykład 9-miesięczne niemowlęta są w stanie szybciej i radykalnie aktualizować swoje oczekiwania, gdy powtarzające się ciągi sylab zawierają zaskakujące cechy, takie jak rzadkie fonemy . Ogólnie rzecz biorąc, niemowlęta przedwerbalne wydają się być zdolne do rozróżniania gramatyk, w których zostały wyszkolone z doświadczeniem, od nowych gramatyk. W 7-miesięcznych zadaniach dotyczących patrzenia na czas niemowlęta zdawały się zwracać większą uwagę na nieznane struktury gramatyczne niż na znane, a w oddzielnym badaniu z użyciem ciągów 3-sylabowych niemowlęta wydawały się podobnie uogólniać oczekiwania oparte na abstrakcyjnej strukturze sylab wcześniej zaprezentowanych, sugerując, że wykorzystali zdarzenia powierzchniowe lub dane, aby wywnioskować głębszą abstrakcyjną strukturę. Zostało to przyjęte w celu poparcia poglądu zaangażowanych naukowców w „wiele hipotez [lub modeli]”.

Dowody na zwierzętach innych niż ludzie

Szare papugi

Liczne badania przeprowadzone przez Irene Pepperberg i jej współpracowników sugerują, że papugi szare ( Psittacus erithacus ) mają pewną zdolność rozpoznawania liczb lub pojęć podobnych do liczb, wydaje się, że rozumieją zwyczajność i liczność liczebników. Niedawne eksperymenty wykazały również, że po pewnym przeszkoleniu językowym i umiejętności odwoływania się do rozpoznanych obiektów mają również pewną zdolność do wnioskowania na temat prawdopodobieństw i proporcji typów ukrytych obiektów.

Naczelne inne niż ludzie

Eksperymenty wykazały, że podczas rozumowania na temat preferowanych i niepreferowanych proporcji pokarmu małpy kapucynki były w stanie wyciągnąć wnioski na temat proporcji wywnioskowanych z danych z sekwencyjnego pobierania próbek. Małpy rezus były podobnie zdolne do wykorzystywania danych probabilistycznych i sekwencyjnie próbkowanych do wyciągania wniosków na temat satysfakcjonujących wyników, a aktywność neuronów w korze ciemieniowej wydawała się być zaangażowana w proces podejmowania decyzji, kiedy wyciągały wnioski. W serii 7 eksperymentów z wykorzystaniem różnych względnych różnic częstotliwości między granulkami bananowymi a marchewkami, orangutany , szympansy że goryle również kierują swoimi decyzjami w oparciu o proporcje faworyzujące granulki bananowe po tym, jak ustalono, że jest to ich preferowany produkt spożywczy.

Aplikacje

Rozumowanie w medycynie

Badania nad rozumowaniem w medycynie lub rozumowaniem klinicznym zwykle koncentrują się na procesach poznawczych i/lub wynikach podejmowania decyzji wśród lekarzy i pacjentów. Rozważania obejmują ocenę ryzyka, preferencje pacjenta i wiedzę medyczną opartą na dowodach . Na poziomie poznawczym wnioskowanie kliniczne w dużej mierze opiera się na wzajemnej zależności między abstrakcją , uprowadzeniem , dedukcją i indukcją . Intuicyjne „teorie” lub wiedza w medycynie mogą być rozumiane jako prototypy w przestrzeniach pojęciowych lub alternatywnie jako sieci semantyczne . Takie modele służą jako punkt wyjścia do intuicyjnych uogólnień, których można dokonać na podstawie niewielkiej liczby wskazówek, co skutkuje kompromisem lekarza między „sztuką a nauką” oceny medycznej. Ten kompromis został uchwycony w programie sztucznej inteligencji (AI) o nazwie MYCIN, który przewyższał studentów medycyny, ale nie doświadczonych lekarzy z rozległą praktyką w rozpoznawaniu objawów. Niektórzy badacze twierdzą, że mimo to lekarze są podatni na systematyczne błędy lub iluzje poznawcze w swoich osądach (np. gdy diagnozy są podejrzewane a priori ).

Komunikacja ryzyka pacjenta

Znajomość statystyki i oceny ryzyka zostały opisane jako problematyczne w komunikacji lekarz-pacjent. Na przykład lekarze często zawyżają postrzegane ryzyko nieleczenia, zmieniają postrzeganie ryzyka przez pacjentów poprzez pozytywne lub negatywne kształtowanie pojedynczych statystyk (np. klasy” stwierdzeń prawdopodobieństwa dla pacjentów. Klasa referencyjna jest przedmiotem stwierdzenia prawdopodobieństwa: jeśli psychiatra mówi na przykład, że „ten lek może prowadzić do 30-50% szans na problemy seksualne”, nie jest jednoznaczne, czy oznacza to, że 30-50% pacjentów w pewnym momencie rozwinie się problem seksualny lub jeśli wszyscy pacjenci będą mieli problemy podczas 30-50% ich kontaktów seksualnych.

Stawki podstawowe w ocenie klinicznej

W badaniach zaniedbania stopy bazowej , problemy przedstawione uczestnikom często wykorzystują podstawowe wskaźniki rozpowszechnienia choroby. W tych eksperymentach lekarze i nie-fizycy są podobnie podatni na zaniedbanie stawki podstawowej lub błędy w obliczaniu prawdopodobieństwa warunkowego. Oto przykład problemu z ankiety empirycznej rozdanej doświadczonym lekarzom: Załóżmy, że hipotetyczny rak występuje u 0,3% populacji, a odsetek wyników prawdziwie dodatnich w teście przesiewowym wynosi 50%, a odsetek wyników fałszywie dodatnich wynosi 3%. Biorąc pod uwagę pacjenta z pozytywnym wynikiem testu, jakie jest prawdopodobieństwo, że pacjent ma raka? Lekarze ze średnio 14-letnim stażem na to pytanie udzielali odpowiedzi od 1 do 99%, przy czym większość odpowiedzi to 47% lub 50%. (Prawidłowa odpowiedź to 5%.) Ta obserwacja zaniedbania klinicznego wskaźnika podstawowego i błędu prawdopodobieństwa warunkowego została powtórzona w wielu badaniach empirycznych. Oceny lekarzy w podobnych problemach uległy jednak znacznej poprawie, gdy współczynniki zostały przeformułowane na częstotliwości naturalne.