Neuro-symboliczna sztuczna inteligencja
Neurosymboliczna sztuczna inteligencja integruje neuronowe i symboliczne architektury sztucznej inteligencji, aby uwzględnić uzupełniające się mocne i słabe strony każdej z nich, zapewniając solidną sztuczną inteligencję zdolną do rozumowania , uczenia się i modelowania poznawczego . Jak argumentował Valiant i wielu innych, skuteczna konstrukcja bogatych obliczeniowych modeli kognitywnych wymaga połączenia solidnego rozumowania symbolicznego i wydajnych modeli uczenia maszynowego . Gary Marcus twierdzi, że: „Nie możemy konstruować bogatych modeli kognitywnych w adekwatny, zautomatyzowany sposób bez triumwiratu architektury hybrydowej, bogatej wcześniejszej wiedzy i wyrafinowanych technik rozumowania”. nasz zestaw narzędzi. Zbyt wiele użytecznej wiedzy jest abstrakcyjne, aby obejść się bez narzędzi reprezentujących i manipulujących abstrakcją, a jak dotąd jedyną znaną nam maszyną, która może niezawodnie manipulować taką abstrakcyjną wiedzą, jest aparat do manipulacji symbolami”.
Henry Kautz , Francesca Rossi i Bart Selman również opowiadali się za syntezą. Ich argumenty opierają się na potrzebie zajęcia się dwoma rodzajami myślenia omówionymi w książce Daniela Kahnemana „Myślenie szybkie i wolne” . Kahneman opisuje ludzkie myślenie jako składające się z dwóch elementów, Systemu 1 i Systemu 2 . System 1 jest szybki, automatyczny, intuicyjny i nieświadomy. System 2 jest wolniejszy, krok po kroku i jawny. System 1 służy do rozpoznawania wzorców. System 2 zajmuje się planowaniem, dedukcją i myśleniem rozważnym. W tym widoku, głębokie uczenie się najlepiej radzi sobie z pierwszym rodzajem poznania, podczas gdy rozumowanie symboliczne najlepiej radzi sobie z drugim rodzajem poznania. Obydwa są potrzebne do solidnej, niezawodnej sztucznej inteligencji, która może się uczyć, rozumować i wchodzić w interakcje z ludźmi w celu przyjmowania porad i odpowiadania na pytania. W rzeczywistości takie modele dwuprocesowe z wyraźnymi odniesieniami do dwóch kontrastujących systemów były opracowywane od lat 90. XX wieku, zarówno w sztucznej inteligencji, jak i kognitywistyce, przez wielu badaczy (np.).
Rodzaje podejść
Podejścia do integracji są różne. Taksonomia neuro-symbolicznych architektur Henry'ego Kautza wraz z kilkoma przykładami wygląda następująco:
- Symboliczny Neural symboliczny — to obecne podejście wielu modeli neuronowych w przetwarzaniu języka naturalnego, w którym słowa lub tokeny podsłów są zarówno ostatecznym wejściem, jak i wyjściem dużych modeli językowych. Przykłady obejmują BERT , RoBERTa i GPT-3 .
- Symbolic[Neural] — przykładem jest AlphaGo , gdzie techniki symboliczne są używane do wywoływania technik neuronowych. W tym przypadku podejściem symbolicznym jest przeszukiwanie drzewa Monte Carlo , a techniki neuronowe uczą się, jak oceniać pozycje w grze.
- Neural|Symbolic — wykorzystuje architekturę neuronową do interpretacji danych percepcyjnych jako symboli i relacji, które są następnie rozumowane symbolicznie. Przykładem jest uczący się koncepcji neuronowej.
- Neural:Symbolic → Neural — opiera się na rozumowaniu symbolicznym w celu generowania lub oznaczania danych treningowych, które są następnie uczone przez model głębokiego uczenia się, np. w celu wytrenowania modelu neuronowego do obliczeń symbolicznych za pomocą symbolicznego systemu matematycznego podobnego do Macsyma do tworzenia lub oznaczania przykładów .
- Neural_{Symbolic} — wykorzystuje sieć neuronową, która jest generowana na podstawie reguł symbolicznych. Przykładem jest Neural Theorem Prover, który konstruuje sieć neuronową z AND-OR wygenerowanego na podstawie reguł i terminów bazy wiedzy. Do tej kategorii należą również logiczne sieci tensorowe.
- Neural[Symbolic] — umożliwia modelowi neuronowemu bezpośrednie wywołanie silnika wnioskowania symbolicznego, np. w celu wykonania akcji lub oceny stanu.
Kategorie te nie są wyczerpujące, na przykład, ponieważ nie uwzględniają systemów wieloagentowych. W 2005 roku Bader i Hitzler przedstawili bardziej szczegółową kategoryzację, która uwzględniała np. to, czy użycie symboli zawierało logikę, czy nie, a jeśli tak, to czy była to logika zdań, czy logika pierwszego rzędu. Powyższa kategoryzacja z 2005 roku i taksonomia Kautza zostały porównane i zestawione w artykule z 2021 roku. Niedawno Sepp Hochreiter argumentował, że Graph Neural Networks „… są dominującymi modelami obliczeń neuronowo-symbolicznych”, ponieważ „opisują właściwości cząsteczek, symulują sieci społecznościowe lub przewidują przyszłe stany w zastosowaniach fizycznych i inżynieryjnych z cząstkami -interakcje cząstek”. [1]
Jako warunek wstępny sztucznej inteligencji ogólnej
Marcus argumentuje, że „… architektury hybrydowe, które łączą uczenie się i manipulację symbolami, są niezbędne dla solidnej inteligencji, ale niewystarczające” i że istnieją:
„... cztery kognitywne warunki wstępne do zbudowania solidnej sztucznej inteligencji:
- architektury hybrydowe, które łączą uczenie się na dużą skalę z reprezentacyjnymi i obliczeniowymi mocami manipulacji symbolami,
- bazy wiedzy na dużą skalę – prawdopodobnie wykorzystujące wrodzone ramy – które zawierają wiedzę symboliczną wraz z innymi formami wiedzy,
- mechanizmy rozumowania zdolne do wykorzystania tych baz wiedzy w wykonalny sposób, oraz
- bogate modele poznawcze współpracujące z tymi mechanizmami i bazami wiedzy ”.
Odzwierciedla to znacznie wcześniejsze wezwania do modeli hybrydowych już w latach 90.
Historia
Garcez i Lamb opisali badania w tej dziedzinie jako trwające od co najmniej ostatnich dwudziestu lat (właściwie od ponad trzydziestu lat). Seria warsztatów na temat neuro-symbolicznej sztucznej inteligencji odbywa się corocznie od 2005 roku [2] . Na początku lat 90. zorganizowano pierwszy cykl warsztatów na ten temat.
Otwarte pytania badawcze
Pozostaje wiele kluczowych pytań badawczych, takich jak:
- Jaki jest najlepszy sposób integracji architektury neuronowej i symbolicznej?
- W jaki sposób struktury symboliczne powinny być reprezentowane w sieciach neuronowych i wydobywane z nich?
- W jaki sposób należy uczyć się i uzasadniać zdroworozsądkową wiedzę?
- Jak poradzić sobie z abstrakcyjną wiedzą, którą trudno logicznie zakodować?
Implementacje
Niektóre konkretne implementacje podejść neuro-symbolicznych to:
- Logiczne sieci tensorowe — kodują formuły logiczne jako sieci neuronowe i jednocześnie uczą się kodowania neuronowego terminów, wag terminów i wag formuł z danych.
- DeepProbLog — który łączy sieci neuronowe z probabilistycznym rozumowaniem ProbLog .
Cytaty
- Bader, Sebastian; Hitzler, Pascal (2005-11-10). „Wymiary integracji neuronowo-symbolicznej - badanie strukturalne”. arXiv : cs/0511042 .
- Garcez, Artur S. d'Avila; Broda, Krysia; Gabbay, Dow M.; Gabbay (2002). Systemy uczenia się neuronowo-symbolicznego: podstawy i zastosowania . Springer Science & Business Media. ISBN 978-1-85233-512-0 .
- Garcez, Artur; Besold, Tarek; De Raedt, Luc; Földiák, Peter; Hitzlera, Pascala; Icard, Tomasz; Kühnberger, Kai-Uwe; Baranek, Luis; Miikkulainen, Risto; Srebro, Daniel (2015). Uczenie się i rozumowanie neuronowo-symboliczne: wkład i wyzwania . Sympozjum wiosenne AAAI - Reprezentacja wiedzy i rozumowanie: integracja podejść symbolicznych i neuronowych. Stanford, Kalifornia. doi : 10.13140/2.1.1779.4243 .
- Garcez, Artur d'Avila; Gori, Marco; Baranek, Luis C.; Serafini, Luciano; Spranger, Michael; Tran, syn N. (2019). „Przetwarzanie neuronowo-symboliczne: skuteczna metodologia pryncypialnej integracji uczenia maszynowego i rozumowania”. arXiv : 1905.06088 [ cs.AI ].
- Garcez, Artur d'Avila; Baranek, Luis C. (2020). „Neurosymboliczna sztuczna inteligencja: trzecia fala”. arXiv : 2012.05876 [ cs.AI ].
- Hochreiter, Sepp. „W kierunku szerokiej sztucznej inteligencji”. Komuna. ACM 65(4): 56-57 (2022). https://dl.acm.org/doi/pdf/10.1145/3512715
- Honavar, Vasant (1995). Symboliczna sztuczna inteligencja i numeryczne sztuczne sieci neuronowe: w kierunku rozwiązania dychotomii . Springer International Series w inżynierii i informatyce. Springera USA. s. 351–388. doi : 10.1007/978-0-585-29599-2_11 .
- Kautz, Henry (2020-02-11). Trzecie lato AI, Henry Kautz, Wykład AAAI 2020 Robert S. Engelmore Memorial Award . Źródło 2022-07-06 .
- Kautz, Henry (2022). „Trzecie lato AI: wykład upamiętniający AAAI Roberta S. Engelmore'a” . Magazyn AI . 43 (1): 93–104. doi : 10.1609/aimag.v43i1.19122 . ISSN 2371-9621 . S2CID 248213051 . Źródło 2022-07-12 .
- Mao, Jiayuan; Gan, Chuang; Kohli, Pushmeet; Tenenbaum, Joshua B.; Wu Jiajun (2019). „Uczeń koncepcji neuro-symbolicznej: interpretacja scen, słów i zdań z nadzoru naturalnego”. arXiv : 1904.12584 [ cs.CV ].
- Marcus, Gary; Davis, Ernest (2019). Ponowne uruchamianie sztucznej inteligencji: tworzenie sztucznej inteligencji, której możemy zaufać . Klasyczny.
- Marcus, Gary (2020). „Następna dekada w sztucznej inteligencji: cztery kroki w kierunku solidnej sztucznej inteligencji” . arXiv : 2002.06177 [ cs.AI ].
- Rossi, Francesca (2022-07-06). „AAAI2022: szybkie i wolne myślenie w sztucznej inteligencji (AAAI 2022 Invited Talk)” . Źródło 2022-07-06 .
- Selman, Bart (2022-07-06). „AAAI2022: Przemówienie prezydenckie: stan AI” . Źródło 2022-07-06 .
- Serafini, Luciano; Garcez, Artur d'Avila (2016-07-07). „Sieci tensorów logicznych: głębokie uczenie się i logiczne rozumowanie na podstawie danych i wiedzy”. arXiv : 1606.04422 [ cs.AI ].
- Słońce, Ron (1995). „Solidne rozumowanie: integracja rozumowania opartego na regułach i podobieństwach”. Sztuczna inteligencja . 75 (2): 241–296. doi : 10.1016/0004-3702(94)00028-Y .
- Słońce, Ron; Bookman, Lawrence (1994). Architektury obliczeniowe integrujące procesy neuronowe i symboliczne . Kluwer.
- Słońce, Ron; Aleksandra, Frederic (1997). Koneksjonistyczna Integracja Symboliczna . Wspólnicy Lawrence'a Erlbauma.
-
Dzielny, Leslie G (2008). „Infuzja wiedzy: w poszukiwaniu solidności w sztucznej inteligencji”.
{{ cite journal }}
: Cite journal wymaga|journal=
( pomoc )
Zobacz też
- Symboliczna sztuczna inteligencja
- Sztuczna inteligencja koneksjonistów
- Inteligentne systemy hybrydowe