Paradoks Moraveca
Paradoksem Moraveca jest spostrzeżenie naukowców zajmujących się sztuczną inteligencją i robotyką , że wbrew tradycyjnym założeniom rozumowanie wymaga bardzo niewielkiej ilości obliczeń, za to umiejętności sensomotoryczne i percepcyjne wymagają ogromnych zasobów obliczeniowych. Zasada została sformułowana przez Hansa Moraveca , Rodneya Brooksa , Marvina Minsky'ego i inni w latach 80. Moravec napisał w 1988 r.: „Stosunkowo łatwo jest sprawić, by komputery wykazywały wydajność na poziomie dorosłym w testach inteligencji lub grze w warcaby, a trudne lub niemożliwe jest nadanie im umiejętności rocznego dziecka, jeśli chodzi o percepcję i mobilność”.
Podobnie Minsky podkreślił, że najtrudniejsze do odtworzenia umiejętności człowieka są te, które znajdują się poniżej poziomu świadomej świadomości. „Ogólnie rzecz biorąc, jesteśmy najmniej świadomi tego, co nasze umysły robią najlepiej”, napisał i dodał: „Jesteśmy bardziej świadomi prostych procesów, które nie działają dobrze, niż złożonych, które działają bezbłędnie”. Steven Pinker napisał w 1994 roku, że „główną lekcją płynącą z trzydziestu pięciu lat badań nad sztuczną inteligencją jest to, że trudne problemy są łatwe, a łatwe problemy są trudne”.
Do lat 20. XX wieku, zgodnie z prawem Moore'a , komputery były setki milionów razy szybsze niż w latach 70., a dodatkowa moc komputera była w końcu wystarczająca, aby zacząć obsługiwać percepcję i umiejętności sensoryczne, jak przewidział Moravec w 1976 r. W 2017 r. czołowy badacz uczenia maszynowego, Andrew Ng, przedstawił „wysoce niedoskonałą praktyczną zasadę”, zgodnie z którą „prawie wszystko, co typowy człowiek może zrobić w mniej niż jedną sekundę myśli, prawdopodobnie możemy teraz lub w niedalekiej przyszłości zautomatyzować za pomocą sztucznej inteligencji”. Obecnie nie ma zgody co do tego, w których zadaniach sztuczna inteligencja ma tendencję do wyróżniania się.
Biologiczne podstawy ludzkich umiejętności
Jedno z możliwych wyjaśnień tego paradoksu, zaproponowane przez Moraveca, opiera się na ewolucji . Wszystkie ludzkie umiejętności są wdrażane biologicznie, przy użyciu maszynerii zaprojektowanej w procesie doboru naturalnego . W trakcie ich ewolucji dobór naturalny miał tendencję do zachowywania ulepszeń i optymalizacji projektu. Im starsza jest umiejętność, tym więcej czasu ma dobór naturalny na ulepszenie projektu. Myśl abstrakcyjna rozwinęła się bardzo niedawno, w związku z czym nie należy oczekiwać, że jej realizacja będzie szczególnie skuteczna.
Jak pisze Moravec:
W dużych, wysoko rozwiniętych czuciowych i motorycznych częściach ludzkiego mózgu zakodowane są miliardy lat doświadczeń dotyczących natury świata i sposobów przetrwania w nim. Celowy proces, który nazywamy rozumowaniem, jest, jak sądzę, najcieńszą warstwą ludzkiego myślenia, skutecznym tylko dlatego, że jest wspierany przez tę znacznie starszą i znacznie potężniejszą, choć zwykle nieświadomą, wiedzę sensomotoryczną. Wszyscy jesteśmy wspaniałymi olimpijczykami w obszarach percepcyjnych i motorycznych, tak dobrymi, że sprawiamy, że trudne wydają się łatwe. Myśl abstrakcyjna jest jednak nową sztuczką, mającą być może mniej niż 100 tysięcy lat. Jeszcze go nie opanowaliśmy. To wcale nie jest takie samo w sobie trudne; po prostu tak się wydaje, kiedy to robimy.
Zwięzłym sposobem wyrażenia tego argumentu byłoby:
- Powinniśmy oczekiwać, że trudność inżynierii wstecznej jakiejkolwiek ludzkiej umiejętności będzie z grubsza proporcjonalna do ilości czasu, przez jaki ta umiejętność ewoluowała u zwierząt.
- Najstarsze ludzkie umiejętności są w dużej mierze nieuświadomione i dlatego wydają się nam łatwe.
- Dlatego powinniśmy oczekiwać, że umiejętności, które wydają się łatwe, będą trudne do inżynierii wstecznej, ale umiejętności, które wymagają wysiłku, wcale nie muszą być trudne do inżynierii.
Kilka przykładów umiejętności, które ewoluowały przez miliony lat: rozpoznawanie twarzy, poruszanie się w przestrzeni, ocenianie motywacji ludzi, łapanie piłki, rozpoznawanie głosu, wyznaczanie odpowiednich celów, zwracanie uwagi na interesujące rzeczy; wszystko, co ma związek z percepcją, uwagą, wizualizacją, zdolnościami motorycznymi, umiejętnościami społecznymi i tak dalej.
Niektóre przykłady umiejętności, które pojawiły się ostatnio: matematyka, inżynieria, gry, logika i rozumowanie naukowe. Są one dla nas trudne, ponieważ nie są tym, do czego ewoluowały nasze ciała i mózgi. Są to umiejętności i techniki, które zostały nabyte niedawno, w czasie historycznym i miały co najwyżej kilka tysięcy lat na udoskonalanie, głównie w wyniku ewolucji kulturowej.
Historyczny wpływ na sztuczną inteligencję
Na początku badań nad sztuczną inteligencją czołowi badacze często przewidywali, że będą w stanie stworzyć myślące maszyny w ciągu zaledwie kilku dekad (patrz historia sztucznej inteligencji ). Ich optymizm wynikał częściowo z faktu, że odnosili sukcesy w pisaniu programów wykorzystujących logikę, rozwiązujących problemy z algebrą i geometrią oraz grających w gry takie jak warcaby i szachy. Logika i algebra są trudne dla ludzi i są uważane za oznakę inteligencji. Wielu wybitnych badaczy zakładało, że po (prawie) rozwiązaniu „trudnych” problemów, „łatwe” problemy widzenia a zdroworozsądkowe rozumowanie wkrótce się ułoży. Mylili się (patrz także AI winter ), a jednym z powodów jest to, że te problemy wcale nie są łatwe, ale niezwykle trudne. Fakt, że rozwiązali problemy takie jak logika i algebra, był nieistotny, ponieważ te problemy są niezwykle łatwe do rozwiązania dla maszyn.
Rodney Brooks wyjaśnia, że według wczesnych badań nad sztuczną inteligencją inteligencja była „najlepiej scharakteryzowana jako rzeczy, które wysoko wykształceni naukowcy-mężczyźni uważali za trudne”, takie jak szachy, integracja symboliczna , udowadnianie twierdzeń matematycznych i rozwiązywanie skomplikowanych problemów z algebrą słów. „Rzeczy, które dzieci w wieku czterech lub pięciu lat mogły robić bez wysiłku, takie jak wizualne rozróżnianie filiżanki kawy od krzesła, chodzenie na dwóch nogach lub znajdowanie drogi z sypialni do salonu, nie były uważane za czynności wymagające inteligencji”.
W latach 80. doprowadziło to Brooksa do podążania w nowym kierunku w badaniach nad sztuczną inteligencją i robotyką . Zdecydował się zbudować inteligentne maszyny, które „nie miały funkcji poznawczych. Tylko wyczuwanie i działanie. To wszystko, co bym zbudował i całkowicie pominął to, co tradycyjnie uważano za inteligencję sztucznej inteligencji”. Nazwał ten nowy kierunek „ Nouvelle AI ”.
Podobnie, skuteczne aplikacje sztucznej inteligencji XXI wieku nie symulują „inteligentnego” rozwiązywania problemów krok po kroku, symulują szybkie, „intuicyjne” osądy, których ludzie używają do natychmiastowego i automatycznego rozpoznawania wzorców i anomalii.
Przyjęcie
Lingwista i kognitywista Steven Pinker uważa to za główną lekcję odkrytą przez badaczy sztucznej inteligencji. W swojej książce The Language Instinct z 1994 roku napisał:
Główną lekcją płynącą z trzydziestu pięciu lat badań nad sztuczną inteligencją jest to, że trudne problemy są łatwe, a łatwe trudne. Zdolności umysłowe czterolatka, które uważamy za oczywiste – rozpoznawanie twarzy, podnoszenie ołówka, chodzenie po pokoju, odpowiadanie na pytania – w rzeczywistości rozwiązują niektóre z najtrudniejszych problemów inżynierskich, jakie kiedykolwiek wymyślono… pojawi się generacja inteligentnych urządzeń, to analitycy giełdowi i inżynierowie petrochemii oraz członkowie komisji ds. zwolnień warunkowych będą zagrożeni zastąpieniem maszyn. Ogrodnicy, recepcjoniści i kucharze są bezpieczni w swoich miejscach pracy przez dziesięciolecia.
Zobacz też
- Efekt sztucznej inteligencji
- Ucieleśnione poznanie
- Historia sztucznej inteligencji
- Architektura subsumpcyjna
Notatki
Bibliografia
- Brooks, Rodney (1986), Inteligencja bez reprezentacji , Laboratorium Sztucznej Inteligencji MIT
- Brooks, Rodney (2002), Ciało i maszyny , Panteon Books
- Brynjolfsson, Erik; Mitchell, Tom (22 grudnia 2017). „Co może zrobić uczenie maszynowe? Wpływ na siłę roboczą” . nauka . 358 (6370): 1530-1534. Bibcode : 2017Sci...358.1530B . doi : 10.1126/science.aap8062 . Źródło 7 maja 2018 r .
- Lee, Amanda (14 czerwca 2017). „Czy twoja praca będzie nadal istnieć za 10 lat, kiedy przybędą roboty?” . Poranna poczta z południowych Chin . Źródło 7 maja 2018 r .
- Minsky, Marvin (1986), Towarzystwo Umysłu , Simon i Schuster, s. 29
- Moravec, Hans (1976), The Role of Raw Power in Intelligence , zarchiwizowane z oryginału w dniu 3 marca 2016 r. , Pobrane 16 października 2008 r.
- Moravec, Hans (1988), Mind Children , Harvard University Press
- McCorduck, Pamela (2004), Maszyny, które myślą (wyd. 2), Natick, MA: AK Peters, Ltd., ISBN 1-56881-205-1 , s. 456.
- Pinker, Steven (4 września 2007) [1994], Instynkt językowy , Perennial Modern Classics , Harper, ISBN 978-0-06-133646-1
- Zador, Anthony (21.08.2019). „Krytyka czystego uczenia się i tego, czego sztuczne sieci neuronowe mogą się uczyć z mózgów zwierząt” . Komunikacja natury . 10 (1): 3770. Bibcode : 2019NatCo..10.3770Z . doi : 10.1038/s41467-019-11786-6 . PMC 6704116 . PMID 31434893 .
Linki zewnętrzne
- Wyjaśnienie komiksu XKCD o paradoksie Moraveca