Etyka robotów

Etyka robotów , czasami nazywana „ roboetyką ”, dotyczy problemów etycznych związanych z robotami, takich jak to, czy roboty stanowią zagrożenie dla ludzi w dłuższej lub krótszej perspektywie, czy niektóre zastosowania robotów są problematyczne (np . robotów na wojnie) oraz jak należy projektować roboty, aby działały „etycznie” (ta ostatnia kwestia jest również nazywana etyką maszynową ). Alternatywnie, roboetyka odnosi się konkretnie do etyki ludzkiego zachowania w kierunku robotów, ponieważ roboty stają się coraz bardziej zaawansowane. Etyka robotów jest poddziedziną etyki technologii, w szczególności technologii informacyjnej, i ma bliskie powiązania z kwestiami prawnymi i społeczno-ekonomicznymi. Naukowcy z różnych dziedzin zaczynają zajmować się kwestiami etycznymi dotyczącymi tworzenia technologii robotycznej i wdrażania jej w społeczeństwach w sposób, który nadal zapewni bezpieczeństwo ludzkości.

Choć problematyka jest tak stara jak słowo robot , poważne dyskusje akademickie rozpoczęły się około roku 2000. Etyka robotów wymaga wspólnego zaangażowania ekspertów kilku dyscyplin, którzy muszą dostosować prawa i przepisy do problemów wynikających z osiągnięć nauki i techniki w Robotyka i sztuczna inteligencja. Główne dziedziny związane z etyką robotów to: robotyka , informatyka , sztuczna inteligencja , filozofia , etyka , teologia , biologia , fizjologia , kognitywistyki , neuronauki , prawa , socjologii , psychologii i wzornictwa przemysłowego .

Historia i wydarzenia

Niektóre z centralnych dyskusji etycznych w odniesieniu do traktowania rzeczy innych niż ludzkie lub niebiologiczne i ich potencjalnej „duchowości”. Inny główny temat dotyczy rozwoju maszyn i ostatecznie robotów, filozofia ta została również zastosowana do robotyki. Jedną z pierwszych publikacji bezpośrednio odnoszących się do etyki robotów i stanowiących jej podstawy było Runaround (historia) , opowiadanie science fiction napisane przez Isaaca Asimova w 1942 r., które zawierało jego dobrze znane trzy prawa robotyki . Te trzy prawa były stale zmieniane przez Asimova, a czwarte, czyli zerowe prawo, zostało ostatecznie dodane, aby poprzedzać pierwsze trzy, w kontekście jego dzieł science fiction . Krótkoterminowy termin „roboetyka” został najprawdopodobniej wymyślony przez Gianmarco Veruggio.

Ważnym wydarzeniem, które napędzało zainteresowanie roboetyką, było Pierwsze Międzynarodowe Sympozjum na temat Roboetyki w 2004 r., zorganizowane wspólnie przez Scuola di Robotica, Laboratorium Sztuki Scuola Superiore Sant'Anna w Pizie i Instytut Teologiczny Pontificia Accademia della Santa Croce, Rzym. W związku z działalnością Szkoły Robotyki, która jest organizacją non-profit i ma na celu propagowanie wiedzy z zakresu Robotyki wśród uczniów i ogółu społeczeństwa, powstało Sympozjum Robotyki. W dyskusjach ze studentami i niespecjalistami, Gianmarco Veruggio i Fiorella Operto uważali, że konieczne jest rozpowszechnienie wśród ogółu społeczeństwa właściwych koncepcji na temat rzekomych zagrożeń związanych z robotyką. Uważali, że owocna debata oparta na trafnych spostrzeżeniach i prawdziwej wiedzy może skłonić ludzi do aktywnego udziału w edukacji opinii publicznej, uświadomić im pozytywne zastosowania nowej technologii i zapobiec jej nadużyciom. Po dwóch dniach intensywnej debaty antropolożka Daniela Cerqui zidentyfikowała trzy główne stanowiska etyczne wyłaniające się z dwóch dni intensywnej debaty:

  1. Ci, których nie interesuje etyka. Uważają, że ich działania są ściśle techniczne i nie uważają, że ponoszą społeczną lub moralną odpowiedzialność za swoją pracę.
  2. Ci, którzy są zainteresowani krótkoterminowymi kwestiami etycznymi. Zgodnie z tym profilem pytania wyrażane są w kategoriach „dobry” lub „zły” i odnoszą się do pewnych wartości kulturowych. Na przykład uważają, że roboty muszą przestrzegać konwencji społecznych. Obejmuje to „poszanowanie” i pomoc ludziom w różnych obszarach, takich jak wdrażanie prawa lub pomoc osobom starszym. (Takie rozważania są ważne, ale trzeba pamiętać, że wartości użyte do zdefiniowania „złego” i „dobrego” są względne. Są to współczesne wartości krajów uprzemysłowionych).
  3. Ci, którzy myślą w kategoriach długoterminowych kwestii etycznych, na przykład o „przepaści cyfrowej” między Południem a Północą lub między młodymi a starszymi. Zdają sobie sprawę z przepaści między krajami uprzemysłowionymi a biednymi i zastanawiają się, czy te pierwsze nie powinny zmienić swojego sposobu rozwoju robotyki, aby była bardziej użyteczna dla Południa. Nie formułują one wprost pytania po co, ale możemy uznać, że jest ono dorozumiane”.

Oto kilka ważnych wydarzeń i projektów z zakresu etyki robotów. Dalsze wydarzenia w tej dziedzinie są ogłaszane przez grupę tematyczną euRobotics ELS oraz RoboHub :

Informatyczka Virginia Dignum zauważyła w marcowym numerze magazynu Ethics and Information Technology z 2018 r., że ogólne nastawienie społeczne do sztucznej inteligencji (AI) we współczesnej erze zmieniło się z postrzegania sztucznej inteligencji jako narzędzia na rzecz postrzegania jej jako inteligentnego „zespołu -kumpel". W tym samym artykule oceniła, że ​​w odniesieniu do sztucznej inteligencji myśliciele etyczni mają trzy cele, z których każdy, jak twierdzi, można osiągnąć w epoce nowożytnej przy starannym przemyśleniu i wdrożeniu. Trzy cele etyczne są następujące:

  • Etyka z założenia (techniczna/algorytmiczna integracja zdolności etycznego rozumowania jako część zachowania sztucznego systemu autonomicznego — patrz Etyka maszyn );
  • Etyka w projektowaniu (metody regulacyjne i inżynieryjne, które wspierają analizę i ocenę etycznych implikacji systemów sztucznej inteligencji, ponieważ integrują one lub zastępują tradycyjne struktury społeczne); I
  • Etyka projektowania (kodeksy postępowania, standardy i procesy certyfikacji, które zapewniają uczciwość programistom i użytkownikom podczas badań, projektowania, konstruowania, stosowania i zarządzania sztucznymi systemami inteligentnymi — zob. Etyka i prawo dotyczące robotów poniżej ) .

W kulturze popularnej

Roboetyka jako temat naukowy lub filozoficzny zaczęła być powszechnym tematem w literaturze i filmach science fiction. Jednym z filmów, który można uznać za zakorzeniony w popkulturze i który przedstawia dystopijne przyszłe wykorzystanie robotycznej sztucznej inteligencji, jest Matrix , przedstawiający przyszłość, w której ludzie i świadoma czująca sztuczna inteligencja walczą o kontrolę nad planetą Ziemia, co prowadzi do zniszczenia większości rasy ludzkiej . Film animowany oparty na Matrixie , Animatrix , skupiał się głównie na potencjalnych problemach etycznych i niepewności między ludźmi a robotami. Film podzielony jest na krótkie opowiadania. Animowane filmy krótkometrażowe Animatrix są również nazwane na cześć fikcyjnych historii Isaaca Asimova.

Inny aspekt roboetyki dotyczy w szczególności traktowania robotów przez ludzi i był badany w wielu filmach i programach telewizyjnych. Jednym z takich przykładów jest Star Trek: The Next Generation , którego jednym z głównych bohaterów jest humanoidalny android o imieniu Data . W większości powierza się mu prace o znaczeniu krytycznym, ale często kwestionuje się jego zdolność do dopasowania się do innych żywych istot. Niedawno film Ex Machina i program telewizyjny Westworld podjęli te kwestie etyczne dość bezpośrednio, przedstawiając hiperrealistyczne roboty, które ludzie traktują jako nieistotne towary. Kwestie związane z traktowaniem istot inżynieryjnych były również kluczowym elementem Blade Runner (seria) od ponad 50 lat. Filmy takie jak Ona jeszcze bardziej rozwinęły relacje człowieka z robotami, usuwając aspekt fizyczny i skupiając się na emocjach.

Chociaż nie jest to część roboetyki jako takiej , etyczne zachowanie samych robotów było również kwestią łączącą roboetykę w kulturze popularnej. Seria Terminator , który nie ma ograniczeń co do terminacji swoich wrogów. Ta seria również ma ten sam archetyp co Matrix , w której roboty przejęły kontrolę. Innym znanym popkulturowym przypadkiem robotów lub sztucznej inteligencji bez zaprogramowanej etyki lub moralności jest HAL 9000 w Space Odyssey serii, w której HAL (komputer z zaawansowanymi możliwościami sztucznej inteligencji, który monitoruje i pomaga ludziom na stacji kosmicznej) zabija wszystkich ludzi na pokładzie, aby zapewnić powodzenie przydzielonej misji po zagrożeniu jego życia.

Zabójcze roboty

Żołnierz obsługuje zdalnie sterowanego robota IED Mark 8 Wheel Barrow Counter. Żołnierz jest częścią EOD (Explosive Ordnance Device) i zespołu poszukiwawczego z FOB (Forward Operating Base) Ouellette. Dzięki uprzejmości Ministerstwa Obrony Wielkiej Brytanii.

Zabójcze autonomiczne systemy broni (LAWS), które często nazywane są „zabójczymi robotami”, są teoretycznie zdolne do namierzania i strzelania bez nadzoru i ingerencji człowieka. W 2014 r. Konwencja o broni konwencjonalnej (CCW) odbyła dwa posiedzenia. Pierwszym było Spotkanie Ekspertów ds. Zabójczych Autonomicznych Systemów Broni (LAWS). To spotkanie dotyczyło specjalnego mandatu dotyczącego PRAWA i zaintrygowało go intensywna dyskusja. Swoje opinie w tej sprawie wyraziły delegacje narodowe oraz wiele organizacji pozarządowych (NGO).

Liczne organizacje pozarządowe i niektóre państwa, takie jak Pakistan i Kuba, wzywają do prewencyjnego zakazu PRAWA. Swoje poglądy proponowali w oparciu o rozumowanie deontologiczne i konsekwencjalistyczne. Od strony deontologicznej niektórzy filozofowie, tacy jak Peter Asaro i Robert Sparrow, większość organizacji pozarządowych i Watykan twierdzą, że nadawanie zbyt wielu praw maszynom narusza ludzką godność i że ludzie mają „prawo do tego, by nie zostać zabitym przez maszynę”. Na poparcie swojego stanowiska wielokrotnie powołują się na klauzulę Martensa .

Na koniec tego spotkania najważniejszym zarzutem konsekwencjalistów było to, że LAWS nigdy nie będzie w stanie przestrzegać międzynarodowego prawa humanitarnego (MPH), jak uważały organizacje pozarządowe, wielu badaczy i kilka państw (Pakistan , Austria , Egipt , Meksyk ) .

Według Międzynarodowego Komitetu Czerwonego Krzyża (MKCK) „nie ma wątpliwości, że rozwój i użycie autonomicznych systemów uzbrojenia w konfliktach zbrojnych podlega międzynarodowemu prawu humanitarnemu”. Państwa uznają to: ci, którzy uczestniczyli w pierwszym Spotkaniu Ekspertów ONZ w maju 2014 r., uznali poszanowanie MPH za podstawowy warunek wdrożenia PRAWA. Przy różnych prognozach niektóre stany uważają, że LAWS nie będzie w stanie spełnić tego kryterium, podczas gdy inne podkreślają trudność w orzekaniu na tym etapie bez znajomości przyszłych możliwości broni ( Japonia , Australia ). Wszyscy w równym stopniu nalegają na ex-ante zgodności systemów z MPH przed ich oddaniem do użytku, na mocy artykułu pierwszego protokołu dodatkowego do Konwencji Genewskich.

Seks-roboty

W 2015 roku rozpoczęto kampanię przeciwko robotom seksualnym (CASR), aby zwrócić uwagę na seksualne relacje ludzi z maszynami. Kampania twierdzi, że roboty seksualne są potencjalnie szkodliwe i przyczynią się do nierówności w społeczeństwie oraz że konieczne jest zorganizowane podejście i etyczna reakcja na rozwój robotów seksualnych.

W artykule Czy powinniśmy prowadzić kampanię przeciwko robotom seksualnym? , opublikowanym przez MIT Press , badacze wskazali pewne wady tej kampanii i nie poparli całkowitego zakazu robotów seksualnych. Po pierwsze, argumentowali, że konkretne twierdzenia CASR były „nieprzekonujące”, częściowo z powodu braku jasności co do celów kampanii, a częściowo z powodu merytorycznych braków w głównych zastrzeżeniach etycznych wysuniętych przez założycieli kampanii. Po drugie, argumentowali, że bardzo trudno byłoby poprzeć ogólną kampanię przeciwko robotom seksualnym, chyba że ktoś przyjąłby wysoce konserwatywne podejście stosunek do etyki seksu. Opierając się na przykładzie kampanii mającej na celu powstrzymanie robotów-zabójców, pomyśleli, że nie ma z natury złych właściwości robotów seksualnych, które budzą równie poważne obawy, ponieważ szkody wyrządzane przez roboty seksualne są spekulatywne i pośrednie. Niemniej jednak w artykule przyznano, że istnieją uzasadnione obawy dotyczące rozwoju robotów seksualnych.

Prawo

Wraz z pojawianiem się współczesnych problemów technologicznych w miarę rozwoju społeczeństwa, jednym z tematów wymagających dokładnego przemyślenia jest etyka robotów w odniesieniu do prawa. Naukowcy debatowali nad procesem, w jaki sposób rząd mógłby stworzyć ustawodawstwo z etyką i prawem robotów. Dwóch uczonych, którzy zadają te pytania, to Neil M. Richards, profesor prawa na Uniwersytecie Waszyngtońskim w St. Louis a także William D. Smart profesor nadzwyczajny informatyki na Uniwersytecie Waszyngtońskim w St. Louis. W swoim artykule „Jak roboty powinny myśleć o prawie” przedstawiają cztery główne twierdzenia dotyczące etyki i prawa robotów. Podstawą ich argumentacji jest definicja robota jako „niebiologicznych autonomicznych czynników, które naszym zdaniem oddaje istotę wyzwań regulacyjnych i technologicznych, jakie stwarzają roboty, i które mogą z pożytkiem stanowić podstawę regulacji”. Po drugie, para bada przyszłe zaawansowane możliwości robotów w ciągu około dziesięcioleci. Ich trzecie twierdzenie dotyczy związku między kwestiami prawnymi etyki robotów i doświadczeniami prawnymi a doświadczeniami prawnymi cyberprawa. Oznacza to, że przepisy dotyczące etyki robotów mogą szukać wskazówek w prawie cybernetycznym. „Lekcja” wyciągnięta z prawa cybernetycznego to znaczenie metafor, które rozumiemy jako pojawiające się problemy w technologii. Opiera się to na tym, że jeśli na przykład źle zrozumiemy metaforę, ustawodawstwo dotyczące pojawiającego się problemu technologicznego jest najprawdopodobniej błędne. Czwarte twierdzenie, przeciwko któremu się spierają, to metafora, którą para definiuje jako „The Android Fallacy”. Spierają się przeciwko błędowi androidów, który twierdzi, że ludzie i byty niebiologiczne są „tak samo jak ludzie”.

Badanie empiryczne

Istnieją mieszane dowody na to, czy ludzie oceniają zachowanie robotów podobnie do ludzi, czy nie. Niektóre dowody wskazują, że ludzie postrzegają złe zachowanie negatywnie, a dobre zachowanie pozytywnie, niezależnie od tego, czy sprawcą zachowania jest człowiek, czy robot; jednak roboty otrzymują mniej uznania za dobre zachowanie, a więcej winy za złe zachowanie. Inne dowody sugerują, że wrogie zachowanie robotów jest postrzegane jako bardziej moralnie złe niż dobroczynne zachowanie jako moralnie słuszne; złośliwe zachowanie robota jest postrzegane jako bardziej celowe niż życzliwe zachowanie. Ogólnie rzecz biorąc, ludzkie osądy moralne zarówno robotów, jak i ludzi opierają się na tych samych uzasadnieniach i koncepcjach, ale ludzie mają różne oczekiwania moralne, gdy oceniają ludzi i roboty. Badania wykazały również, że kiedy ludzie próbują zinterpretować i zrozumieć, w jaki sposób roboty decydują się zachowywać w określony sposób, mogą postrzegać roboty jako kierujące się praktycznymi regułami (awans siebie, robienie tego, co słuszne, rozwijanie innych, robienie tego, co logiczne i robić to, co jest normalne), które są zgodne z ustalonymi doktrynami etycznymi (egotyzm, deontologia, altruizm, utylitaryzm i normatywność).

Zobacz też

Notatki

Dalsza lektura

  • Lin, Patrick/Abney, Keith/Bekey, George A. (grudzień 2011). Etyka robotów: etyczne i społeczne implikacje robotyki . MIT Naciśnij .
  •   Tzafestas, Spyros G. (2016). Roboetyka Przegląd nawigacji . Berlin: Springer. ISBN 978-3-319-21713-0 .

Linki zewnętrzne