Błąd automatyzacji
Część serii poświęconej |
automatyzacji |
---|
Automatyzacja w ogóle |
Robotyka i roboty |
Wpływ automatyzacji |
Targi i nagrody |
Błąd automatyzacji to skłonność ludzi do faworyzowania sugestii ze zautomatyzowanych systemów decyzyjnych i ignorowania sprzecznych informacji uzyskanych bez automatyzacji, nawet jeśli są one poprawne. Błąd automatyzacji wywodzi się z z zakresu psychologii społecznej , w której stwierdzono błąd w interakcji człowiek-człowiek, który pokazał, że ludzie przypisują bardziej pozytywne oceny decyzjom podejmowanym przez ludzi niż obiektowi neutralnemu. Ten sam typ błędu pozytywnego stwierdzono w przypadku interakcji człowiek-automatyzacja, gdzie zautomatyzowane decyzje są oceniane bardziej pozytywnie niż neutralnie. Stało się to coraz większym problemem przy podejmowaniu decyzji, ponieważ jednostki intensywnej opieki medycznej , elektrownie jądrowe i kokpity samolotów coraz częściej integrują skomputeryzowane monitory systemowe i pomoce decyzyjne, aby w większości uwzględniać możliwe błędy ludzkie. Błędy związane z automatyzacją zwykle występują, gdy podejmowanie decyzji zależy od komputerów lub innych zautomatyzowanych pomocy, a człowiek pełni rolę obserwatora, ale jest w stanie podejmować decyzje. Przykłady stronniczości automatyzacji obejmują zarówno pilne sprawy, takie jak latanie samolotem na automatycznym pilocie, jak i tak przyziemne sprawy, jak korzystanie z programów do sprawdzania pisowni .
Nieużywanie i niewłaściwe użycie
Zaufanie operatora do systemu może również prowadzić do różnych interakcji z systemem, w tym używania systemu, niewłaściwego użytkowania, nieużywania i nadużyć. [ niejasne ]
Tendencja do nadmiernego polegania na zautomatyzowanych pomocach jest znana jako „nadużycie automatyzacji”. Niewłaściwe użycie automatyzacji można zaobserwować, gdy użytkownik nie monitoruje właściwie zautomatyzowanego systemu lub gdy zautomatyzowany system jest używany, gdy nie powinien. Kontrastuje to z nieużywaniem, w którym użytkownik nie wykorzystuje prawidłowo automatyki, wyłączając ją lub ignorując. Zarówno niewłaściwe użycie, jak i nieużywanie może być problematyczne, ale stronniczość automatyzacji jest bezpośrednio związana z niewłaściwym użyciem automatyzacji poprzez albo zbyt duże zaufanie do możliwości systemu, albo domyślne użycie heurystyki. Niewłaściwe użycie może prowadzić do braku monitorowania zautomatyzowanego systemu lub ślepej zgody na sugestię automatyzacji, podzielonej odpowiednio na dwa rodzaje błędów, odpowiednio błędy pominięcia i błędy zlecenia.
Używanie i nieużywanie automatyzacji może również wpływać na etapy przetwarzania informacji: pozyskiwanie informacji, analizę informacji, podejmowanie decyzji i wybór działań oraz wdrażanie działań. [ potrzebna strona ]
Na przykład pozyskiwanie informacji, pierwszy krok w przetwarzaniu informacji, to proces, w którym użytkownik rejestruje dane wprowadzane za pomocą zmysłów. [ potrzebna strona ] Zautomatyzowany wskaźnik silnika może pomóc użytkownikowi w pozyskiwaniu informacji za pomocą prostych funkcji interfejsu — takich jak podkreślanie zmian w działaniu silnika — kierując w ten sposób selektywną uwagę użytkownika. W obliczu problemów pochodzących ze statku powietrznego piloci mogą mieć tendencję do nadmiernego zaufania do wskaźników silnika samolotu, tracąc z oczu inne możliwe usterki niezwiązane z silnikiem. Taka postawa jest formą samozadowolenia i nadużycia automatyzacji. Jeśli jednak pilot poświęci czas na interpretację wskaźnika silnika i odpowiednią manipulację statkiem powietrznym, tylko po to, by odkryć, że turbulencje w locie się nie zmieniły, pilot może być skłonny do ignorowania przyszłych zaleceń dotyczących błędów przekazywanych przez wskaźnik silnika - forma samozadowolenie automatyzacji prowadzące do nieużywania.
Błędy popełnienia i zaniechania
Błąd automatyzacji może przybrać formę błędów prowizji, które występują, gdy użytkownicy postępują zgodnie z automatyczną dyrektywą bez uwzględnienia innych źródeł informacji. I odwrotnie, błędy pominięcia występują, gdy zautomatyzowane urządzenia nie wykrywają lub nie wskazują problemów, a użytkownik tego nie zauważa, ponieważ nie monitoruje prawidłowo systemu.
Wykazano, że błędy pominięcia wynikają ze spadku czujności poznawczej, podczas gdy błędy popełnienia wynikają z połączenia nieuwzględnienia informacji i nadmiernego zaufania do niezawodności zautomatyzowanych pomocy. Błędy popełniane są z trzech powodów: (1) jawne odwrócenie uwagi od zautomatyzowanej pomocy; (2) mniejsze zainteresowanie pomocą; (3) aktywne dyskontowanie informacji sprzecznych z zaleceniami pomocy. Błędy pominięcia pojawiają się, gdy ludzki decydent nie zauważy awarii automatyzacji, albo z powodu niskiej czujności, albo nadmiernego zaufania do systemu. Na przykład program sprawdzający pisownię nieprawidłowo oznaczający słowo jako błędnie napisane i sugerujący alternatywę byłby błędem prowizji, a program sprawdzający pisownię, który nie zauważyłby błędnego słowa, byłby błędem pominięcia. W takich przypadkach błąd automatyzacji można zaobserwować, gdy użytkownik akceptuje alternatywne słowo bez konsultacji ze słownikiem lub użytkownik nie zauważa nieprawidłowo napisanego słowa i zakłada, że wszystkie słowa są poprawne bez przeglądania słów.
Wykazano, że szkolenia, które koncentrowały się na zmniejszeniu błędu automatyzacji i związanych z tym problemów, zmniejszają odsetek błędów prowizji, ale nie błędów zaniechania.
czynniki
Obecność automatycznych pomocy, jak ujęło to jedno ze źródeł, „zmniejsza prawdopodobieństwo, że decydenci albo podejmą wysiłek poznawczy, aby wyszukać inne informacje diagnostyczne, albo przetworzą wszystkie dostępne informacje w sposób złożony poznawczo”. Sprawia również, że użytkownicy są bardziej skłonni do zbyt pochopnego zakończenia oceny sytuacji po otrzymaniu przez automatyczną pomoc zachęty do podjęcia określonego działania.
Według jednego źródła istnieją trzy główne czynniki, które prowadzą do błędu automatyzacji. Po pierwsze, ludzka tendencja do wybierania najmniej kognitywnego podejścia do podejmowania decyzji, co nazywa się poznawczego skąpca . Po drugie, skłonność ludzi do postrzegania zautomatyzowanych pomocy jako posiadających zdolności analityczne lepsze od ich własnych. Po trzecie, skłonność ludzi do zmniejszania własnego wysiłku podczas dzielenia zadań z inną osobą lub przy pomocy zautomatyzowanej pomocy.
Inne czynniki prowadzące do nadmiernego polegania na automatyzacji, a tym samym do błędu automatyzacji, obejmują brak doświadczenia w wykonywaniu zadania (chociaż niedoświadczeni użytkownicy zwykle odnoszą największe korzyści ze zautomatyzowanych systemów wspomagania decyzji), brak wiary we własne umiejętności, brak łatwo dostępnej alternatywy informacji lub chęć zaoszczędzenia czasu i wysiłku przy złożonych zadaniach lub dużym obciążeniu pracą. Wykazano, że osoby, które mają większe zaufanie do własnych zdolności podejmowania decyzji, są mniej zależne od zewnętrznego automatycznego wsparcia, podczas gdy osoby z większym zaufaniem do systemów wspomagania decyzji (DSS) były od niego bardziej zależne.
Projekt ekranu
Jedno z badań, opublikowane w czasopiśmie Journal of the American Medical Informatics Association , wykazało, że pozycja i wyeksponowanie porady na ekranie może mieć wpływ na prawdopodobieństwo błędu automatyzacji, przy czym istnieje większe prawdopodobieństwo, że wyeksponowana porada, poprawna lub nie, zostanie zastosowana; jednak inne badanie zdawało się pomijać znaczenie tego czynnika. Według innego badania większa ilość szczegółów na ekranie może sprawić, że użytkownicy będą mniej „konserwatywni”, a tym samym zwiększyć prawdopodobieństwo stronniczości automatyzacji. Jedno z badań wykazało, że rozliczanie jednostek za ich wyniki lub trafność decyzji zmniejsza błąd automatyzacji.
Dostępność
„Dostępność zautomatyzowanych pomocy decyzyjnych”, stwierdza jedno z badań Lindy Skitki , „może czasami wpływać na ogólną ludzką tendencję do podróżowania drogą najmniejszego wysiłku poznawczego”.
Świadomość procesu
Jedno z badań wykazało również, że gdy użytkownicy są świadomi procesu rozumowania stosowanego przez system wspomagania decyzji, prawdopodobnie odpowiednio dostosują swoje zaufanie, zmniejszając w ten sposób błąd automatyzacji.
Drużyna kontra jednostka
Wykonywanie zadań przez załogi zamiast przez pojedyncze osoby niekoniecznie eliminuje błąd automatyzacji. Jedno z badań wykazało, że gdy zautomatyzowane urządzenia nie wykrywały nieprawidłowości w systemie, zespoły nie były skuteczniejsze niż soliści w reagowaniu na te nieprawidłowości.
Szkolenie
Szkolenie, które koncentruje się na stronniczości automatyzacji w lotnictwie , pozwoliło zredukować błędy popełniane przez uczniów-pilotów.
Awaria automatyzacji i „wyuczona nieostrożność”
Wykazano, że po awarii automatyzacji następuje spadek zaufania operatora, po którym następuje powolny powrót zaufania. Spadek zaufania po początkowej awarii automatyzacji został opisany jako efekt pierwszej awarii. Z tego samego powodu, jeśli zautomatyzowane pomoce okażą się wysoce niezawodne w czasie, wynikiem prawdopodobnie będzie podwyższony poziom błędu automatyzacji. Nazywa się to „wyuczoną nieostrożnością”.
Dostarczanie informacji o zaufaniu do systemu
W przypadkach, gdy użytkownikom dostarczane są informacje o zaufaniu do systemu, same te informacje mogą stać się czynnikiem wpływającym na automatyzację.
Naciski zewnętrzne
Badania wykazały, że im bardziej zewnętrzne naciski wywierane są na zdolności poznawcze jednostki, tym bardziej może ona polegać na zewnętrznym wsparciu.
Problemy definicyjne
Chociaż błąd automatyzacji był przedmiotem wielu badań, nadal pojawiają się skargi, że błąd automatyzacji pozostaje źle zdefiniowany, a zgłaszanie incydentów związanych z błędem automatyzacji jest niesystematyczne.
Przegląd różnych badań odchyleń automatyzacji sklasyfikował różne rodzaje zadań, w których wykorzystywano zautomatyzowane pomoce, a także jaką funkcję pełniły zautomatyzowane pomoce. Zadania, w których zastosowano zautomatyzowane pomoce, zostały sklasyfikowane jako zadania monitorowania, zadania diagnostyczne lub zadania terapeutyczne. Rodzaje zautomatyzowanej pomocy wymieniono jako Automatyzacja alertów, która śledzi ważne zmiany i ostrzega użytkownika, Automatyzacja wspomagania decyzji, która może dostarczyć diagnozę lub zalecenie, lub Automatyzacja wdrażania, gdzie zautomatyzowana pomoc wykonuje określone zadanie.
Samozadowolenie wywołane automatyzacją
Pojęcie błędu automatyzacji jest postrzegane jako pokrywające się z samozadowoleniem wywołanym automatyzacją, znanym również prościej jako samozadowolenie automatyzacji. Podobnie jak stronniczość automatyzacji, jest ona konsekwencją niewłaściwego użycia automatyzacji i wiąże się z problemami z uwagą. Podczas gdy stronniczość automatyzacji wiąże się z tendencją do ufania systemom wspomagania decyzji, samozadowolenie automatyzacji wiąże się z niewystarczającą uwagą i monitorowaniem wyników automatyzacji, zwykle dlatego, że są one postrzegane jako wiarygodne. „Chociaż koncepcje samozadowolenia i błędu automatyzacji zostały omówione osobno, tak jakby były niezależne”, pisze jeden z ekspertów, „mają kilka cech wspólnych, co sugeruje, że odzwierciedlają różne aspekty tego samego rodzaju nadużyć automatyzacji”. Zaproponowano rzeczywiście, aby koncepcje samozadowolenia i błędu automatyzacji zostały połączone w jedną „koncepcję integracyjną”, ponieważ te dwa pojęcia „mogą reprezentować różne przejawy zachodzących na siebie zjawisk wywołanych przez automatyzację” oraz ponieważ „wywołane przez automatyzację samozadowolenie i błąd automatyzacji reprezentują ściśle powiązane koncepcje teoretyczne, które wykazują znaczne nakładanie się w odniesieniu do podstawowych procesów”.
Samozadowolenie z automatyzacji zostało zdefiniowane jako „gorsze wykrywanie awarii systemu w przypadku automatyzacji w porównaniu ze sterowaniem ręcznym”. System raportowania bezpieczeństwa lotniczego NASA (ASRS) definiuje samozadowolenie jako „samozadowolenie, które może skutkować brakiem czujności w oparciu o nieuzasadnione założenie o zadowalającym stanie systemu”. Kilka badań wykazało, że najczęściej występuje, gdy operatorzy jednocześnie wykonują zadania ręczne i automatyczne. Z kolei postrzeganie przez operatorów niezawodności zautomatyzowanego systemu może wpływać na sposób interakcji operatora z systemem. Endsley (2017) opisuje, w jaki sposób wysoka niezawodność systemu może prowadzić użytkowników do odłączania się od systemów monitorowania, zwiększając w ten sposób błędy monitorowania, zmniejszając świadomość sytuacyjną i zakłócając zdolność operatora do ponownego przejęcia kontroli nad systemem w przypadku przekroczenia ograniczeń wydajności. To samozadowolenie można znacznie zmniejszyć, gdy niezawodność automatyzacji zmienia się w czasie, zamiast pozostawać na stałym poziomie, ale doświadczenie i praktyka nie zmniejszają tego. Zarówno eksperci, jak i niedoświadczeni uczestnicy mogą wykazywać skłonność do automatyzacji, a także samozadowolenie z automatyzacji. Żadnego z tych problemów nie da się łatwo przezwyciężyć poprzez trening.
Termin „samozadowolenie automatyzacji” został po raz pierwszy użyty w odniesieniu do wypadków lotniczych lub incydentów, w których piloci , kontrolerzy ruchu lotniczego lub inni pracownicy nie sprawdzili wystarczająco systemów, zakładając, że wszystko jest w porządku, gdy w rzeczywistości wypadek miał się wydarzyć . Samozadowolenie operatora, niezależnie od tego, czy jest związane z automatyzacją, czy nie, od dawna uznawane jest za główny czynnik wypadków lotniczych.
W związku z tym postrzeganie niezawodności ogólnie może skutkować formą ironii automatyzacji, w której większa automatyzacja może zmniejszyć obciążenie poznawcze, ale zwiększyć możliwość monitorowania błędów. Natomiast niski poziom automatyzacji może zwiększyć obciążenie pracą, ale zmniejszyć możliwość monitorowania błędów. Weźmy na przykład pilota lecącego w czasie złej pogody, podczas której ciągłe grzmoty zakłócają zdolność pilota do zrozumienia informacji przekazywanych przez kontrolera ruchu lotniczego (ATC). Pomimo tego, jak wiele wysiłku wkłada się w zrozumienie informacji przekazywanych przez ATC, wydajność pilota jest ograniczona przez źródło informacji potrzebnych do wykonania zadania. Dlatego pilot musi polegać na zautomatyzowanych wskaźnikach w kokpicie, aby zrozumieć informacje o torze lotu. Jeśli pilot postrzega zautomatyzowane wskaźniki jako wysoce niezawodne, ilość wysiłku potrzebnego do zrozumienia ATC i automatycznych wskaźników może się zmniejszyć. Ponadto, jeśli zautomatyzowane wskaźniki są postrzegane jako wysoce niezawodne, pilot może je zignorować, aby poświęcić zasoby umysłowe na rozszyfrowanie informacji przekazywanych przez ATC. W ten sposób pilot staje się zadowolonym z siebie obserwatorem, narażając się tym samym na ryzyko utraty krytycznych informacji przekazywanych przez zautomatyzowane wskaźniki. Jeśli jednak pilot uzna, że zautomatyzowane wskaźniki są niewiarygodne, będzie musiał jednocześnie interpretować informacje z ATC i zautomatyzowanych wskaźników. Tworzy to scenariusze, w których operator może zużywać niepotrzebne zasoby poznawcze, gdy automatyzacja jest w rzeczywistości niezawodna, ale także zwiększa szanse na zidentyfikowanie potencjalnych błędów w miernikach pogody, jeśli one wystąpią. Aby skalibrować postrzeganie niezawodności przez pilota, automatyzacja powinna być zaprojektowana tak, aby utrzymać obciążenie pracą na odpowiednim poziomie, jednocześnie zapewniając zaangażowanie operatora w zadania monitorowania. Operator powinien być mniej skłonny do odłączenia się od monitorowania, gdy niezawodność systemu może się zmienić w porównaniu z systemem, który ma stałą niezawodność (Parasuraman, 1993).
Do pewnego stopnia samozadowolenie użytkowników równoważy korzyści płynące z automatyzacji, a kiedy poziom niezawodności zautomatyzowanego systemu spadnie poniżej pewnego poziomu, automatyzacja nie będzie już atutem netto. Jedno z badań z 2007 roku sugerowało, że ta automatyzacja występuje, gdy poziom niezawodności osiąga około 70%. Inne badania wykazały, że automatyzacja o poziomie niezawodności poniżej 70% może być przydatna dla osób mających dostęp do surowych źródeł informacji, które można połączyć z wyjściem automatyzacji w celu poprawy wydajności.
Śmierć przez GPS , w której śmierć jednostek jest częściowo spowodowana podążaniem za niedokładnymi wskazówkami GPS, to kolejny przykład samozadowolenia automatyzacji.
Sektory
Stronniczość automatyzacji została zbadana w wielu dziedzinach badawczych. Może to być szczególnie poważnym problemem w lotnictwie, medycynie , kontroli procesów i wojskowych operacjach dowodzenia i kontroli .
Lotnictwo
Początkowo dyskusja na temat błędu automatyzacji koncentrowała się głównie na lotnictwie. Zautomatyzowane pomoce odgrywają coraz większą rolę w kokpitach, odgrywając coraz większą rolę w kontrolowaniu takich zadań lotniczych, jak określanie najbardziej oszczędnych tras, nawigacja oraz wykrywanie i diagnozowanie awarii systemów. Korzystanie z tych pomocy może jednak prowadzić do mniej uważnego i mniej czujnego poszukiwania i przetwarzania informacji przez ludzi. W niektórych przypadkach ludzie mogą bardziej ufać błędnym informacjom dostarczanym przez komputer pokładowy niż własnym umiejętnościom.
Ważnym czynnikiem wpływającym na automatyzację związaną z lotnictwem jest stopień, w jakim piloci postrzegają siebie jako odpowiedzialnych za zadania wykonywane przez zautomatyzowane pomoce. Jedno z badań pilotów wykazało, że obecność drugiego członka załogi w kokpicie nie wpłynęła na błąd automatyzacji. Badanie z 1994 roku porównało wpływ niskiego i wysokiego poziomu automatyzacji (LOA) na wyniki pilota i wykazało, że piloci pracujący z wysokim LOA spędzali mniej czasu na niezależnej refleksji nad decyzjami dotyczącymi lotu.
W innym badaniu wszyscy piloci, którzy otrzymali fałszywe automatyczne ostrzeżenia, które kazali im wyłączyć silnik, zrobili to, mimo że ci sami piloci nalegali w wywiadzie, że nie zareagują na takie ostrzeżenie wyłączeniem silnika i zamiast tego zredukowali moc do biegu jałowego. Jedno z badań z 1998 roku wykazało, że piloci z około 440 godzinami doświadczenia w locie wykryli więcej awarii automatyki niż osoby niebędące pilotami, chociaż obie grupy wykazywały efekt samozadowolenia. Badanie przeprowadzone w 2001 roku na pilotach korzystających z systemu automatyzacji kokpitu, systemu wskazywania silnika i ostrzegania załogi (EICAS), wykazało samozadowolenie. Piloci wykryli mniej awarii silnika podczas korzystania z systemu niż podczas wykonywania zadania ręcznie.
W badaniu z 2005 roku doświadczeni kontrolerzy ruchu lotniczego wykorzystali symulację o wysokiej wierności scenariusza ATC (swobodnego lotu), która obejmowała wykrywanie konfliktów między „samodzielącymi się” statkami powietrznymi. Mieli dostęp do zautomatyzowanego urządzenia, które identyfikowało potencjalne konflikty z kilkuminutowym wyprzedzeniem. Kiedy urządzenie uległo awarii pod koniec procesu symulacji, znacznie mniej kontrolerów wykryło konflikt niż w przypadku ręcznej obsługi sytuacji. Inne badania przyniosły podobne wyniki.
Dwa badania stronniczości automatyzacji w lotnictwie wykazały wyższy wskaźnik błędów prowizji niż błędów pominięć, podczas gdy inne badanie lotnicze wykazało 55% wskaźników pominięć i 0% stawek prowizji. Błędy pominięć związanych z automatyzacją są szczególnie częste w fazie przelotu. Kiedy China Airlines utracił moc w jednym silniku, autopilot próbował naprawić ten problem, opuszczając lewe skrzydło, co ukryło problem przed załogą. Gdy autopilot został wyłączony, samolot przechylił się w prawo i stromo opadł, powodując rozległe uszkodzenia. Zestrzelenie koreańskich linii lotniczych 747 w 1983 r. Nad sowiecką przestrzenią powietrzną miało miejsce, ponieważ koreańska załoga „polegała na niewłaściwie skonfigurowanej automatyzacji i nigdy nie sprawdzała swoich postępów ręcznie”.
Opieka zdrowotna
Systemy wspomagania decyzji klinicznych (CDSS) mają na celu wspomaganie podejmowania decyzji klinicznych. Mają potencjał, aby spowodować znaczną poprawę w tym zakresie i skutkować lepszymi wynikami pacjentów. Jednak chociaż CDSS, gdy jest używany właściwie, przynosi ogólną poprawę wydajności, powoduje również błędy, które mogą nie zostać rozpoznane z powodu błędu automatyzacji. Jednym z niebezpieczeństw jest to, że błędne porady udzielane przez te systemy mogą spowodować, że użytkownicy zmienią właściwą decyzję, którą sami podjęli. Biorąc pod uwagę bardzo poważny charakter niektórych potencjalnych konsekwencji AB w służbie zdrowia, szczególnie ważna jest świadomość tego problemu, gdy pojawia się on w warunkach klinicznych.
Czasami stronniczość automatyzacji w warunkach klinicznych jest głównym problemem, który sprawia, że CDSS, w sumie, przynosi efekt przeciwny do zamierzonego; czasami jest to drobny problem, a korzyści przewyższają wyrządzone szkody. Jedno z badań wykazało większą tendencję do automatyzacji wśród starszych użytkowników, ale zauważono, że może to wynikać nie z wieku, ale z doświadczenia. Badania sugerują rzeczywiście, że znajomość CDSS często prowadzi do odczulania i efektów przyzwyczajenia. Chociaż błąd automatyzacji występuje częściej wśród osób niedoświadczonych w danym zadaniu, niedoświadczeni użytkownicy wykazują największą poprawę wydajności, gdy używają CDSS. W jednym badaniu zastosowanie CDSS poprawiło odpowiedzi klinicystów o 21%, z 29% do 50%, przy czym 7% poprawnych odpowiedzi innych niż CDSS zostało zmienionych nieprawidłowo.
Badanie z 2005 roku wykazało, że gdy lekarze podstawowej opieki zdrowotnej korzystali ze źródeł elektronicznych, takich jak PubMed , Medline i Google , nastąpił „mały lub średni” wzrost liczby poprawnych odpowiedzi, podczas gdy w równie niewielkim odsetku przypadków lekarze zostali wprowadzeni w błąd przez ich użycie z tych źródeł i zamienił odpowiedzi poprawne na błędne.
Badania przeprowadzone w 2004 i 2008 roku, które dotyczyły wpływu zautomatyzowanych pomocy na diagnozę raka piersi, wykazały wyraźne dowody na błąd automatyzacji obejmujący błędy pominięcia. Nowotwory zdiagnozowane w 46% przypadków bez zautomatyzowanych pomocy zostały wykryte tylko w 21% przypadków z automatycznymi pomocami, które nie zidentyfikowały raka.
Wojskowy
Błąd automatyzacji może być kluczowym czynnikiem w stosowaniu inteligentnych systemów wspomagania decyzji w wojskowych operacjach dowodzenia i kontroli. Jedno z badań z 2004 roku wykazało, że efekty automatyzacji przyczyniły się do wielu śmiertelnych decyzji wojskowych, w tym do z użyciem broni przyjaznej podczas wojny w Iraku . Badacze starali się określić właściwy LOA dla systemów wspomagania decyzji w tej dziedzinie.
Automobilowy
Samozadowolenie z automatyzacji jest również wyzwaniem dla zautomatyzowanych systemów jazdy, w których człowiek musi jedynie monitorować system lub działać jako kierowca awaryjny. Jest to na przykład omówione w raporcie Krajowej Rady Bezpieczeństwa Transportu na temat śmiertelnego wypadku między pojazdem testowym UBER a pieszą Elaine Herzberg .
Korekta
Stronniczość automatyzacji można złagodzić poprzez przeprojektowanie zautomatyzowanych systemów w celu zmniejszenia widoczności wyświetlaczy, zmniejszenia złożoności informacji lub pomocy przy kanapie jako informacji pomocniczych, a nie dyrektywnych. Szkolenie użytkowników na zautomatyzowanych systemach, które wprowadzają celowe błędy, skuteczniej zmniejsza błąd automatyzacji niż tylko informowanie ich, że mogą wystąpić błędy. Nadmierne sprawdzanie i kwestionowanie zautomatyzowanej pomocy może zwiększyć presję czasu i złożoność zadań, zmniejszając w ten sposób korzyści, dlatego niektóre zautomatyzowane systemy wspomagania decyzji równoważą pozytywne i negatywne skutki, zamiast próbować eliminować negatywne skutki.
Zobacz też
- Błąd algorytmiczny
- Automatyzacja
- Inteligentna automatyzacja
- Lista błędów poznawczych
- Problem z wydajnością poza pętlą
Dalsza lektura
- Goddard, K .; Roudsari, A; Wyatt, JC (2011). „Błąd automatyzacji - ukryty problem w zastosowaniu systemu wspomagania decyzji klinicznych” . Perspektywy międzynarodowe w informatyce zdrowotnej . Studia w dziedzinie technologii medycznych i informatyki. Tom. 164. s. 17–22. ISBN 978-1-60750-708-6 . PMID 21335682 .