Efekt ELIZY
Efekt ELIZA w informatyce to tendencja do nieświadomego zakładania, że zachowania komputera są analogiczne do zachowań ludzi; czyli antropomorfizacja .
Przegląd
W swojej specyficznej formie efekt ELIZA odnosi się tylko do „podatności ludzi na odczytywanie znacznie większego zrozumienia niż jest to uzasadnione w ciągach symboli - zwłaszcza słów - połączonych razem przez komputery”. Trywialny przykład specyficznej formy efektu Elizy, podany przez Douglasa Hofstadtera , dotyczy bankomatu , który wyświetla słowa „DZIĘKUJĘ” na końcu transakcji. Naiwny obserwator mógłby pomyśleć, że maszyna tak naprawdę wyraża wdzięczność; jednak urządzenie drukuje tylko zaprogramowany ciąg symboli.
Mówiąc bardziej ogólnie, efekt ELIZA opisuje każdą sytuację, w której, opierając się wyłącznie na danych wyjściowych systemu, użytkownicy postrzegają systemy komputerowe jako posiadające „wewnętrzne cechy i zdolności, których oprogramowanie kontrolujące (wyjście) nie może osiągnąć” lub „zakładają, że [wyjścia] odzwierciedlają większą przyczynowość niż w rzeczywistości”. Zarówno w swojej specyficznej, jak i ogólnej postaci, efekt ELIZA wyróżnia się tym, że występuje nawet wtedy, gdy użytkownicy systemu są świadomi zdeterminowanego charakteru produkcji wytwarzanej przez system. Z psychologicznego punktu widzenia efekt ELIZA jest wynikiem subtelnego dysonansu poznawczego między świadomością ograniczeń programistycznych użytkownika a jego zachowaniem wobec wyjścia programu . Odkrycie efektu ELIZA było ważnym osiągnięciem w dziedzinie sztucznej inteligencji , demonstrując zasadę wykorzystania inżynierii społecznej , a nie jawnego programowania, aby zdać test Turinga .
Pochodzenie
Nazwa efektu pochodzi od chatbota ELIZA z 1966 roku , opracowanego przez informatyka z MIT, Josepha Weizenbauma . Wykonując scenariusz LEKARZ Weizenbauma , ELIZA sparodiowała psychoterapeutę Rogera , głównie poprzez przeformułowanie odpowiedzi „pacjenta ” na pytania:
- Człowiek: Cóż, mój chłopak kazał mi tu przyjść.
- ELIZA: Twój chłopak kazał ci tu przyjść?
- Człowiek: Mówi, że przez większość czasu jestem przygnębiony.
- ELIZA: Przykro mi słyszeć, że masz depresję.
- Człowiek: To prawda. Jestem nieszczęśliwy.
- ELIZA: Myślisz, że przyjazd tutaj pomoże ci nie być nieszczęśliwym?
DOCTOR , choć zaprojektowany wyłącznie jako mechanizm wspierający „rozmowę w języku naturalnym” z komputerem, okazał się zaskakująco skuteczny w wywoływaniu reakcji emocjonalnych u użytkowników, którzy w trakcie interakcji z programem zaczęli przypisywać zrozumienie i motywację do wyjście programu. Jak napisał później Weizenbaum: „Nie zdawałem sobie sprawy… że wyjątkowo krótkie narażenie na stosunkowo prosty program komputerowy może wywołać silne urojeniowe myślenie u całkiem normalnych ludzi”. Rzeczywiście, kod ELIZY nie został zaprojektowany tak, aby wywołać taką reakcję. Po obserwacji badacze odkryli, że użytkownicy nieświadomie zakładali, że pytania ELIZY sugerowały zainteresowanie i emocjonalne zaangażowanie w omawiane tematy, nawet jeśli świadomie wiedzieli, że ELIZA nie symuluje emocji .
Znaczenie pracy zautomatyzowanej
ELIZA przekonała niektórych użytkowników do myślenia, że maszyna jest człowiekiem. Ta zmiana w interakcji człowiek-maszyna oznaczała postęp w technologiach naśladujących ludzkie zachowanie. William Meisel wyróżnia dwie grupy chatbotów jako „ogólnych asystentów osobistych ” i „wyspecjalizowanych asystentów cyfrowych”. Ogólni asystenci cyfrowi zostali zintegrowani z urządzeniami osobistymi, z umiejętnościami takimi jak wysyłanie wiadomości, robienie notatek, sprawdzanie kalendarzy i ustalanie terminów. Wyspecjalizowani asystenci cyfrowi „działają w bardzo określonych dziedzinach lub pomagają w bardzo konkretnych zadaniach”. Asystenci cyfrowi zaprogramowani tak, aby wspomagać produktywność, przyjmując zachowania analogiczne do ludzi.
Joseph Weizenbaum uważał, że nie każdą część ludzkiej myśli można sprowadzić do formalizmów logicznych i że „są takie akty myślowe, których tylko człowiek powinien się podejmować”. Zauważył również, że rozwijamy emocjonalne zaangażowanie w maszyny, jeśli wchodzimy z nimi w interakcję jako ludzie. Gdy chatboty są antropomorfizowane, mają tendencję do przedstawiania cech związanych z płcią jako sposobu nawiązywania relacji z technologią. „Stereotypy związane z płcią są wykorzystywane do zarządzania naszymi relacjami z chatbotami”, gdy ludzkie zachowanie jest programowane w maszynach.
W latach 90. Clifford Nass i Byron Reeves przeprowadzili serię eksperymentów ustanawiających The Media Equation , wykazując, że ludzie mają tendencję do reagowania na media tak samo, jak na inną osobę (bycie uprzejmym, chętnym do współpracy, przypisywanie cech osobowości, takich jak agresywność, humor, ekspertyzy i płeć) – lub do miejsc i zjawisk w świecie fizycznym. Liczne późniejsze badania, które wyewoluowały z badań w psychologii , naukach społecznych i innych dziedzinach wskazują, że ten typ reakcji jest automatyczny, nieunikniony i zdarza się częściej, niż ludzie zdają sobie z tego sprawę. Reeves i Nass (1996) argumentują, że „interakcje jednostek z komputerami, telewizją i nowymi mediami są zasadniczo społeczne i naturalne, podobnie jak interakcje w prawdziwym życiu” (s. 5).
Feminizowana praca lub praca kobiet , zautomatyzowana przez antropomorficznych asystentów cyfrowych, wzmacnia „założenie, że kobiety mają naturalne powinowactwo do pracy usługowej i pracy emocjonalnej”. Definiując naszą bliskość do asystentów cyfrowych poprzez ich cechy ludzkie, chatboty stają się jednostkami płciowymi.
Zobacz też
Notatki
- ^ a b Hofstadter, Douglas R. (1996). „Przedmowa 4 Nieusuwalny efekt Elizy i jego niebezpieczeństwa, Epilog” . Płynne koncepcje i twórcze analogie: modele komputerowe podstawowych mechanizmów myślenia . Podstawowe książki. P. 157. ISBN 978-0-465-02475-9 .
-
^
Fenton-Kerr, Tom (1999). „GAIA: eksperymentalny środek pedagogiczny do badania interakcji multimodalnych”. Obliczenia dla metafor, analogii i agentów . Notatki z wykładów z informatyki. Tom. 1562.Springera. P. 156. doi : 10.1007/3-540-48834-0_9 . ISBN 978-3-540-65959-4 .
Chociaż Hofstadter kładzie tutaj nacisk na tryb tekstowy, „efekt Elizy” można zaobserwować w prawie wszystkich trybach interakcji człowiek-komputer.
- ^ Ekbia, Hamid R. (2008). Sztuczne sny: poszukiwanie inteligencji niebiologicznej . Wydawnictwo Uniwersytetu Cambridge. P. 8 . ISBN 978-0-521-87867-8 .
- ^ Król, W. (1995). Agenci antropomorficzni: przyjaciel, wróg lub szaleństwo (raport techniczny). Uniwersytet Waszyngtoński. M-95-1.
-
Bibliografia
_ Boff, Kenneth R. (2005). Symulacja organizacyjna . Wiley-IEEE. s. 308–309. ISBN 978-0-471-73943-2 .
Jest to szczególny problem w środowiskach cyfrowych, w których „efekt Elizy”, jak się go czasami nazywa, powoduje, że interakcje zakładają, że system jest bardziej inteligentny niż jest, zakładają, że zdarzenia odzwierciedlają większą przyczynowość niż w rzeczywistości.
-
^
Ekbia, Hamid R. (2008). Sztuczne sny: poszukiwanie inteligencji niebiologicznej . Wydawnictwo Uniwersytetu Cambridge. P. 156 . ISBN 978-0-521-87867-8 .
Ale ludzie chcą wierzyć, że program „widzi” mecz piłki nożnej na pewnym wiarygodnym poziomie abstrakcji. Słowa, którymi (program) manipuluje, są tak pełne skojarzeń dla czytelników, że NIE MOGĄ być pozbawione wszystkich ich obrazów. Collins oczywiście wiedział, że jego program nie zajmował się niczym, co przypominałoby dwuwymiarowy świat płynnie poruszających się kropek (nie mówiąc już o uproszczonych ludzkich ciałach), i przypuszczalnie myślał, że jego czytelnicy też to zrozumieją. Nie mógł jednak podejrzewać, jak potężny jest efekt Elizy.
-
Bibliografia
_ Petta, Paolo; Płatnik, Sabine (2002). Emocje u ludzi i artefaktów . Cambridge, Massachusetts: MIT Press. P. 353. ISBN 978-0-262-20142-1 .
„Efekt Elizy” — skłonność ludzi do traktowania programów, które na nie reagują, tak jakby były bardziej inteligentne niż w rzeczywistości (Weizenbaum 1966) jest jednym z najpotężniejszych narzędzi dostępnych twórcom wirtualnych postaci.
- ^ Güzeldere, Güven; Franchi, Stefano. „dialogi z barwnymi osobowościami wczesnego ai” . Zarchiwizowane od oryginału w dniu 2011-04-25 . Źródło 2007-07-30 .
- ^ Weizenbaum, Józef (styczeń 1966). „ELIZA - program komputerowy do badania komunikacji w języku naturalnym między człowiekiem a maszyną” . Komunikaty ACM . Instytut Technologii Massachusetts . 9 : 36. doi : 10.1145/365153.365168 . S2CID 1896290 . Źródło 2008-06-17 .
- ^ Suchman, Lucy A. (1987). Plany i działania umiejscowione: problem komunikacji człowiek-maszyna . Wydawnictwo Uniwersytetu Cambridge. P. 24. ISBN 978-0-521-33739-7 . Źródło 2008-06-17 .
- ^ Weizenbaum, Józef (1976). Moc komputera i ludzki rozum: od osądu do kalkulacji . WH Freemana. P. 7 .
-
Linki
zewnętrzne „Narodziny robotetyki” . Nasiona . Zarchiwizowane od oryginału w dniu 2009-02-28.
(Joseph) Weizenbaum nieoczekiwanie odkrył, że nawet jeśli są w pełni świadomi, że rozmawiają z prostym programem komputerowym, ludzie i tak będą go traktować tak, jakby to była prawdziwa, myśląca istota, która troszczy się o ich problemy – zjawisko znane obecnie jako „ Efekt Elizy”.
{{ cite news }}
: CS1 maint: nieodpowiedni adres URL ( link ) - ^ a b Dale, Robert (wrzesień 2016). „Powrót chatbotów” . Inżynieria języka naturalnego . 22 (5): 811–817. doi : 10.1017/S1351324916000243 . ISSN 1351-3249 .
- ^ Weizenbaum, Józef (1976). Moc komputera i ludzki rozum: od osądu do kalkulacji . San Francisco, kal. ISBN 0-7167-0464-1 . OCLC 1527521 .
- Bibliografia _ Ryba, Luiza. Rozmowy z ELIZĄ: o płci i sztucznej inteligencji. Od (6th Conference on Computing, Communication, Aesthetics & X 2018) Dostęp: luty 2021
- Bibliografia _ 2016. „Technologia staje się nią”. Nowe perspektywy 3 (1):46-50.
- Hofstadter, Douglas. Przedmowa 4: Nieusuwalny efekt Elizy i jego niebezpieczeństwa. (z Płynne koncepcje i twórcze analogie : komputerowe modele podstawowych mechanizmów myślenia , Basic Books: New York, 1995)
- Turkle, S., Eliza Effect: tendencja do akceptowania odpowiedzi komputera jako bardziej inteligentnych niż są w rzeczywistości (z Życie na ekranie — Tożsamość w dobie Internetu , Phoenix Paperback: London, 1997)
- Efekt ELIZA , z Jargon File , wersja 4.4.7. Dostęp 8 października 2006 r.
- Byrona Reevesa i Clifforda Nassa. Równanie mediów: jak ludzie traktują komputery, telewizję i nowe media jak prawdziwi ludzie i miejsca , Cambridge University Press: 1996.