Czyści i zaniedbania
Schludny i niechlujny to dwa kontrastujące podejścia do badań nad sztuczną inteligencją (AI). Rozróżnienie to zostało dokonane w latach 70. i było przedmiotem dyskusji do połowy lat 80. W latach 90. i XXI wieku w badaniach nad sztuczną inteligencją przyjęto prawie wyłącznie „zgrabne” podejścia i te okazały się najbardziej skuteczne.
„Neaty” wykorzystują algorytmy oparte na paradygmatach formalnych, takich jak logika , optymalizacja matematyczna czy sieci neuronowe . Czytelni badacze i analitycy wyrazili nadzieję, że jeden formalny paradygmat można rozszerzyć i udoskonalić, aby osiągnąć ogólną inteligencję i superinteligencję .
„Scruffy” używają dowolnej liczby różnych algorytmów i metod, aby osiągnąć inteligentne zachowanie. Niechlujne programy mogą wymagać dużej ilości ręcznego kodowania lub inżynierii wiedzy . Scruffies argumentowali, że ogólną inteligencję można wdrożyć jedynie poprzez rozwiązanie dużej liczby zasadniczo niezwiązanych ze sobą problemów i że nie ma magicznej kuli , która pozwoliłaby programom na autonomiczny rozwój ogólnej inteligencji.
Zgrabne podejście jest podobne do fizyki, ponieważ opiera się na prostych modelach matematycznych. Niechlujne podejście bardziej przypomina biologię, gdzie znaczna część pracy polega na badaniu i kategoryzowaniu różnorodnych zjawisk.
Pochodzenie w latach 70
Rozróżnienie między schludnym a niechlujnym zapoczątkował w połowie lat 70. XX wieku Roger Schank . Schank użył tych terminów, aby scharakteryzować różnicę między swoją pracą nad przetwarzaniem języka naturalnego (która reprezentowała wiedzę zdroworozsądkową w postaci dużych amorficznych sieci semantycznych ) od prac Johna McCarthy'ego , Allena Newella , Herberta A. Simona , Roberta Kowalskiego i inni, których praca opierała się na logice i formalnych rozszerzeniach logiki. Schank opisał siebie jako niechlujnego AI. Dokonał tego rozróżnienia w językoznawstwie, stanowczo argumentując przeciwko poglądowi Chomsky'ego na język.
To rozróżnienie było również częściowo geograficzne i kulturowe: przykładami „niechlujnych” cech były badania AI w MIT pod kierunkiem Marvina Minsky'ego w latach 70. Laboratorium słynęło z „wolnobieżności”, a naukowcy często opracowywali programy AI, spędzając długie godziny na dostrajaniu programów, dopóki nie wykazywały wymaganego zachowania. Do ważnych i wpływowych „niechlujnych” programów opracowanych w MIT należał ELIZA Josepha Weizenbauma , który zachowywał się tak, jakby mówił po angielsku, bez żadnej formalnej wiedzy, oraz program Terry'ego Winograda SHRDLU , który z powodzeniem mógłby odpowiadać na zapytania i przeprowadzać działania w uproszczonym świecie składającym się z klocków i ramienia robota. SHRDLU, choć udany, nie mógł zostać przeskalowany do użytecznego systemu przetwarzania języka naturalnego, ponieważ brakowało mu ustrukturyzowanego projektu. Utrzymanie większej wersji programu okazało się niemożliwe, tj. było zbyt niechlujne, aby można je było rozbudowywać.
Inne laboratoria sztucznej inteligencji (z których największe to Stanford , Carnegie Mellon University i University of Edinburgh ) koncentrowały się na logice i formalnym rozwiązywaniu problemów jako podstawie sztucznej inteligencji. Instytucje te wspierały pracę Johna McCarthy'ego, Herberta Simona, Allena Newella, Donalda Michiego , Roberta Kowalskiego i innych „neatsów”.
Kontrast między podejściem MIT a innymi laboratoriami został również opisany jako „rozróżnienie proceduralne / deklaratywne” . Programy takie jak SHRDLU zostały zaprojektowane jako agenci wykonujący działania. Wykonali „procedury”. Inne programy zostały zaprojektowane jako silniki wnioskowania, które manipulowały formalnymi stwierdzeniami (lub „deklaracjami”) na temat świata i przekładały te manipulacje na działania.
wygłoszonym w 1983 r. w Association for the Advancement of Artificial Intelligence Nils Nilsson omówił tę kwestię, argumentując, że „dziedzina potrzebuje obu”. Napisał, że „znacząca część wiedzy, którą chcemy, aby nasze programy miały, może i powinna być reprezentowana deklaratywnie w jakimś deklaratywnym, podobnym do logiki formalizmie. Struktury ad hoc mają swoje miejsce, ale większość z nich pochodzi z samej domeny”. Alex P. Pentland i Martin Fischler z SRI International zgodzili się co do przewidywanej roli dedukcji i formalizmów logicznych w przyszłych badaniach AI, ale nie w takim stopniu, jak opisał Nilsson.
Niechlujne projekty z lat 80
Podejście niechlujne zostało zastosowane do robotyki przez Rodneya Brooksa w połowie lat 80. Opowiadał się za budowaniem robotów, które, jak to ujął, były szybkie, tanie i poza kontrolą , tytuł artykułu z 1989 roku, którego współautorem był Anitą Flynn. W przeciwieństwie do wcześniejszych robotów, takich jak Shakey czy Stanford Cart, nie budowały one reprezentacji świata, analizując informacje wizualne za pomocą algorytmów zaczerpniętych z matematycznych technik uczenia maszynowego , ani nie planowały swoich działań za pomocą formalizacji opartych na logice, takich jak „ Planista ' język. Po prostu reagowali na swoje czujniki w sposób, który pomagał im przetrwać i poruszać się.
Projekt Cyc Douglasa Lenata , zapoczątkowany w 1984 r., jest jednym z najwcześniejszych i najbardziej ambitnych projektów, mającym na celu uchwycenie całej ludzkiej wiedzy w formie czytelnej dla maszyny, i jest „zdecydowanie niechlujnym przedsięwzięciem” . Baza danych Cyc zawiera miliony faktów dotyczących wszystkich złożoności świata, z których każdy musi być wprowadzany pojedynczo przez inżynierów wiedzy. Każdy z tych wpisów jest doraźnym dodatkiem do inteligencji systemu. Chociaż może istnieć „zgrabne” rozwiązanie problemu wiedzy zdroworozsądkowej (takie jak algorytmy uczenia maszynowego z przetwarzaniem języka naturalnego, które mogłyby badać tekst dostępny w Internecie), żaden taki projekt nie odniósł jeszcze sukcesu.
Towarzystwo Umysłu
W 1986 roku Marvin Minsky opublikował The Society of Mind , w którym opowiadał się za poglądem na inteligencję i umysł jako współdziałającą społeczność modułów lub agentów , z których każdy zajmował się różnymi aspektami poznania, przy czym niektóre moduły specjalizowały się w bardzo specyficznych zadaniach ( np . cortex) i inne moduły specjalizowały się w zarządzaniu komunikacją i ustalaniem priorytetów (np. planowaniem i uwagą w płatach czołowych). Minsky przedstawił ten paradygmat jako model zarówno biologicznej inteligencji człowieka, jak i plan przyszłych prac nad sztuczną inteligencją.
Ten paradygmat jest wyraźnie „niechlujny”, ponieważ nie oczekuje istnienia jednego algorytmu, który można zastosować do wszystkich zadań związanych z inteligentnym zachowaniem. Minski napisał:
Jaka magiczna sztuczka czyni nas inteligentnymi? Sztuczka polega na tym, że nie ma sztuczki. Siła inteligencji wynika z naszej ogromnej różnorodności, a nie z jednej, doskonałej zasady.
Od 1991 roku Minsky nadal publikował artykuły oceniające względne zalety podejścia schludnego i niechlujnego, np. „Logiczny kontra analogiczny lub symboliczny kontra koneksjonista lub schludny kontra niechlujny”.
„Zwycięstwo schludności” w latach 90
W latach 90. opracowano nowe statystyczne i matematyczne podejścia do sztucznej inteligencji, wykorzystujące wysoko rozwinięte formalizmy, takie jak optymalizacja matematyczna i sieci neuronowe . Ten ogólny trend w kierunku bardziej formalnych metod w sztucznej inteligencji został opisany jako „zwycięstwo schludności” przez Petera Norviga i Stuarta Russella . Pamela McCorduck napisała, że „Kiedy to piszę, sztuczna inteligencja cieszy się czystą hegemonią, ludzie, którzy wierzą, że przynajmniej inteligencja maszynowa najlepiej wyraża się w kategoriach logicznych, a nawet matematycznych”.
Sprytne rozwiązania problemów, takich jak uczenie maszynowe i wizja komputerowa, odniosły duży sukces w XXI wieku. Rozwiązania te zostały jednak w większości zastosowane do konkretnych problemów z określonymi rozwiązaniami, a problem ogólnej sztucznej inteligencji (AGI) pozostaje nierozwiązany.
Terminy „schludny” i „niechlujny” nie są często używane przez badaczy sztucznej inteligencji w XXI wieku, z pewnymi wyjątkami, takimi jak przemówienia Karla Fristona na temat zasady darmowej energii , w których odnosi się on do fizyków jako „neats”, a naukowców zajmujących się sztuczną inteligencją jako „ Scruffies” (a filozofowie jako „mistycy”).
Znane przykłady
Czysty
- Johna McCarthy'ego
- Allena Newella
- Herbert A. Szymon
- Edwarda Feigenbauma
- Roberta Kowalskiego
- Perła Judei
Skrufy
Zobacz też
- Historia sztucznej inteligencji
- Sztuczna inteligencja § Podejścia historyczne
- Miękkie przetwarzanie
- Symboliczna sztuczna inteligencja
- Filozofia sztucznej inteligencji
Notatki
Cytaty
- Brockman, John (7 maja 1996). Trzecia kultura: poza rewolucją naukową . Szymona i Schustera . Źródło 2 sierpnia 2021 r .
- Creviera, Daniela (1993). AI: burzliwe poszukiwania sztucznej inteligencji . Nowy Jork, NY: BasicBooks. ISBN 0-465-02997-3 . .
- Lehnert, Wendy C. (1 maja 1994). „5: Poznanie, komputery i bomby samochodowe: jak Yale przygotowało mnie na lata 90-te”. W Schank, Robert; Langer, Ellen (red.). Przekonania, rozumowanie i podejmowanie decyzji: psychologika na cześć Boba Abelsona (wydanie pierwsze). Nowy Jork, NY: Taylor & Francis Group. P. 150. doi : 10.4324/9780203773574 . ISBN 9781134781621 . Źródło 2 sierpnia 2021 r .
- Minsky, Marvin (1986). Towarzystwo Umysłu . Nowy Jork: Simon & Schuster. ISBN 0-671-60740-5 .
- McCorduck, Pamela (2004), Maszyny, które myślą (wyd. 2), Natick, MA: AK Peters, Ltd., ISBN 1-56881-205-1 .
- Russell, Stuart J .; Norvig, Peter (2003), Sztuczna inteligencja: nowoczesne podejście (wyd. 2), Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2 .
- Winograd, Terry; Floresa (1986). Zrozumienie komputerów i poznania: nowa podstawa projektowania . Alex Publ Corp.
Dalsza lektura
- Anderson, John R. (2005). „Manipulacja symbolami ludzkimi w ramach zintegrowanej architektury poznawczej” . Kognitywistyka . 29 (3): 313–341. doi : 10.1207/s15516709cog0000_22 . PMID 21702777 .
- Brooks, Rodney A. (18.01.2001). „Związek między materią a życiem” . Natura . 409 (6818): 409–411. Bibcode : 2001Natur.409..409B . doi : 10.1038/35053196 . PMID 11201756 . S2CID 4430614 .