Użyj błędu
Termin „błąd użytkowania” został niedawno wprowadzony w celu zastąpienia powszechnie używanych terminów „ błąd ludzki” i „błąd użytkownika” . Nowy termin, który został już przyjęty przez międzynarodowe organizacje normalizacyjne dla urządzeń medycznych (zobacz #Wykorzystaj błędy w opiece zdrowotnej poniżej w celu uzyskania odniesień), sugeruje, że wypadki należy przypisywać okolicznościom, a nie ludziom, którzy akurat tam byli .
Potrzeba zmiany terminologicznej
Termin „błąd użytkowania” został po raz pierwszy użyty w maju 1995 r. W gościnnym artykule redakcyjnym MD + DI „The Issue Is 'Use' Not 'User' Error”, autorstwa Williama Hymana. Tradycyjnie błędy ludzkie są uważane za szczególny aspekt czynników ludzkich . W związku z tym są one przypisywane ludzkiemu operatorowi lub użytkownikowi . Przyjmując takie podejście zakładamy, że projekt systemu jest doskonały, a jedynym źródłem błędów użytkowania jest człowiek-operator. Na przykład HFACS Departamentu Obrony Stanów Zjednoczonych (DoD). klasyfikuje błędy użytkowania przypisywane operatorowi, pomijając niewłaściwe ustawienia projektowe i konfiguracyjne, które często skutkują brakiem alarmów lub nieprawidłowym ostrzeganiem .
Konieczność zmiany terminu wynikała z powszechnych nadużyć interesariuszy (odpowiedzialnych organizacji, władz , dziennikarzy) w przypadkach wypadków. Zamiast inwestować w naprawę podatnego na błędy projektu, zarząd przypisał błąd użytkownikom. Na potrzebę zmiany wskazywali biegli w sprawie wypadku:
- Na początku 1983 roku Erik Hollnagel zwrócił uwagę, że termin błąd ludzki odnosi się do skutku, a nie do przyczyny. Działanie użytkownika jest zazwyczaj klasyfikowane jako błąd tylko wtedy, gdy jego skutki są bolesne
- W opowiadaniu „Leap of Faith” w swojej książce „Set Phasers on Stun” Steve Casey zasugerował, że wypadku samolotu Indian Airlines Flight 605 w pobliżu Bangalor w 1990 roku można było uniknąć, gdyby badacze wypadku samolotu Air France Flight 296 z 1988 obok lotniska Mulhouse-Habsheim za okoliczności (wyjątkowa sytuacja), a nie pilotów (błędy ludzkie).
- W swojej książce „Managing the Risks of Organizational Accidents” ( Organizacyjne modele wypadków ) James Reason wyjaśnił i wykazał, że często okoliczności wypadków mogły być kontrolowane przez odpowiedzialną organizację, a nie przez operatorów.
- W swojej książce „The Field Guide to Understanding Human Errors” Sidney Dekker argumentował, że obwinianie operatorów zgodnie z „The Old View” skutkuje zachowaniami obronnymi operatorów, co utrudnia wyciąganie wniosków z sytuacji grożących wypadkiem i wypadków.
Użyj błędów a siły wyższej
Nieszczęśliwy wypadek jest zwykle uważany za błąd użytkowania lub działanie siły wyższej:
- Błąd użytkowania to wypadek, w który zaangażowany jest człowiek. Zazwyczaj takie wypadki są przypisywane awarii człowieka operatora
- Siła wyższa to zdarzenie losowe, które nie wiąże się z udziałem człowieka w łańcuchu zdarzeń poprzedzających zdarzenie.
Wykorzystaj błędy w opiece zdrowotnej
W 1998 roku Cook, Woods i Miller przedstawili koncepcję błędu perspektywy czasu , na przykładzie słynnych wypadków w medycynie, przez grupę roboczą ds. bezpieczeństwa pacjentów. Grupa robocza zwróciła uwagę na tendencję do przypisywania wypadków w służbie zdrowia odosobnionym błędom ludzkim. Zawierają odniesienia do wczesnych badań nad wpływem wiedzy o wyniku, która była wcześniej niedostępna, na późniejszy osąd procesów, które do tego wyniku doprowadziły. Wyjaśniają, że patrząc wstecz, mamy tendencję do nadmiernego upraszczania sytuacji, z jaką borykają się prawdziwi praktykujący. Dochodzą do wniosku, że skupianie się na wiedzy z perspektywy czasu uniemożliwia nam zrozumienie bogatszej historii, okoliczności ludzkiego błędu.
Zgodnie z tym stanowiskiem termin błąd użytkowania jest formalnie zdefiniowany w kilku normach międzynarodowych , takich jak IEC 62366, ISO 14155 i ISO 14971 , w celu opisania
- działanie lub zaniechanie działania, którego skutkiem jest inna reakcja wyrobu medycznego niż zamierzona przez producenta lub oczekiwana przez użytkownika.
Normy ISO dotyczące wyrobów i procedur medycznych podają przykłady błędów użytkowania, które są przypisywane czynnikom ludzkim, w tym potknięcia, pomyłki i pomyłki. W praktyce oznacza to, że są one przypisane użytkownikowi, co oznacza odpowiedzialność użytkownika. amerykańskiej Agencji ds. Żywności i Leków zawiera następujące wyjaśnienie tego terminu:
- „Bezpieczne i skuteczne użytkowanie wyrobu medycznego oznacza, że użytkownicy nie popełniają błędów prowadzących do urazów i uzyskują pożądane leczenie. Jeśli nie osiągnięto bezpiecznego i skutecznego użytkowania, wystąpił błąd w użyciu. Dlaczego i w jaki sposób dochodzi do błędu w użyciu dotyczy czynnika ludzkiego ”.
Przy takiej interpretacji ISO i FDA termin błąd użytkowania jest w rzeczywistości równoznaczny z błędem użytkownika . Inne podejście, które odróżnia „błędy użytkowania” od „błędów użytkownika”, jest przyjęte w normie IEC 62366. Załącznik A zawiera wyjaśnienie uzasadniające nowy termin:
- „W niniejszej Normie Międzynarodowej zastosowano pojęcie błędu użytkowania. Termin ten został wybrany zamiast częściej używanego terminu „błąd ludzki”, ponieważ nie wszystkie błędy związane z użytkowaniem wyrobu medycznego są wynikiem niedopatrzenia lub niedbalstwa ze strony użytkownika urządzenia medycznego. Znacznie częściej błędy w użytkowaniu są bezpośrednim skutkiem złego projektu interfejsu użytkownika”.
To wyjaśnienie jest zgodne z „The New View”, który Sidney Dekker zasugerował jako alternatywę dla „The Old View”. Ta interpretacja faworyzuje dochodzenia mające na celu zrozumienie sytuacji, a nie obwinianie operatorów.
W projekcie raportu z 2011 r. na temat użyteczności IT w służbie zdrowia, amerykański Narodowy Instytut Standardów i Technologii (NIST) definiuje „błąd użytkowania” w IT w służbie zdrowia w następujący sposób: „Błąd użytkowania to termin używany bardzo konkretnie w odniesieniu do projektów interfejsów użytkownika, które będą popełnianie przez użytkowników błędów polegających na zleceniu lub zaniechaniu. To prawda, że użytkownicy popełniają błędy, ale wiele błędów nie jest spowodowanych błędami użytkownika jako takimi, ale wynikami z wadliwych projektów, np. pominięcie informacji itp.”.
Przykład błędu użytkownika
Przykładem wypadku spowodowanego błędem użytkownika jest katastrofa ekologiczna z 1967 roku spowodowana przez supertankowiec Torrey Canyon . Do wypadku doszło w wyniku splotu kilku wyjątkowych zdarzeń, w wyniku których supertankowiec kierował się wprost na skały. W tym momencie kapitanowi nie udało się zmienić kursu, ponieważ dźwignia sterowania została nieumyślnie ustawiona w pozycji Control, co spowodowało odłączenie steru od koła przy sterze.
Przykłady nieumiejętności obsługi awarii systemu przez użytkownika
Przykładami drugiego typu są opisany powyżej wypadek na Three Mile Island , awaria prądu w Nowym Jorku po burzy oraz katastrofa w zakładach chemicznych w Bhopal w Indiach ( Bhopal Disaster ).
Klasyfikacja błędów użytkowania
Model URM charakteryzuje błędy użytkowania w kategoriach nieumiejętności zarządzania niedostatkiem systemu przez użytkownika. W dokumencie URM opisano sześć kategorii błędów użytkowania:
- Spodziewane błędy z ryzykownymi skutkami;
- Oczekiwane błędy z nieoczekiwanymi skutkami;
- Oczekiwane błędy użytkowników w identyfikowaniu ryzykownych sytuacji (to badanie);
- Błędy użytkownika w obsłudze oczekiwanych usterek;
- Spodziewane błędy w wyborze funkcji;
- Nieoczekiwane awarie spowodowane pracą w wyjątkowych stanach.
Krytycy
Erik Hollnagel argumentuje, że przejście od „starego” poglądu do „nowego” poglądu nie wystarczy. Należy przejść całą drogę do poglądu „nie”. Oznacza to, że pojęcie błędu, niezależnie od tego, czy błąd użytkownika, czy błąd użytkowania, może być raczej destrukcyjne niż konstruktywne. Zamiast tego proponuje skupić się na zmienności wydajności codziennych działań, na podstawie tego, że ta zmienność wydajności jest zarówno użyteczna, jak i konieczna. W większości przypadków rezultatem jest to, że wszystko idzie dobrze, w kilku przypadkach, że coś idzie nie tak. Ale powód jest ten sam. Hollnagel rozwinął to w swoich pismach na temat zasady kompromisu między wydajnością a dokładnością Inżynierii Odporności i Odpornej Sieci Opieki Zdrowotnej.
- ^ „Problemem jest„ użycie ”, a nie„ użytkownik ”, błąd” . 10 lipca 2013 r.
- ^ [1] , System analizy i klasyfikacji czynników ludzkich Departamentu Obrony: narzędzie do badania niefortunnych wypadków i analizy danych
- ^ [2] , Dekker: ponowne wynalezienie błędu ludzkiego
- ^ [3] , strona główna Erika Hollnagela
- ^ [4] , Hollnagel: Dlaczego „błąd ludzki” jest pojęciem bez znaczenia
- ^ [5] , Steve Casey: Ustaw fazery na ogłuszenie
- ^ [6] , Sidney Dekker: The Field Guide to Understanding Human Error
- ^ [7] , Weiler i Harel: Zarządzanie ryzykiem błędów użytkowania: studium przypadku systemów ostrzegawczych ITS
- ^ [8] , Dekker, 2007: The Field Guide to Understanding Human Error
- ^ [9] , Cook RI, Woods DD, Miller C [1998] A Tale of Two Stories: Contrasting Views of Patient Safety
- ^ [10] , FDA, Urządzenia medyczne, Glosariusz
- ^ NISTIR 7804: Ocena techniczna, testowanie i walidacja użyteczności elektronicznej dokumentacji medycznej, wersja robocza, wrzesień 2011 r., s. 10. [11]
- ^ Steve Casey, Pamiątka po twojej służbie, w Set Phasers on Stun, 1998
- ^ [12] , Zonnenshain & Harel: zorientowany na zadania SE, konferencja INCOSE 2009, Singapur
- ^ [13] Hollnagel: Zrozumienie wypadków - od pierwotnych przyczyn do zmienności wydajności
- ^ [14] , Zasada ETTO - kompromis między wydajnością a dokładnością
- ^ [15] Hollnagel, Paries, Woods, Wreathall (redaktorzy): Inżynieria odporności w praktyce
- ^ [16] Odporna Sieć Opieki Zdrowotnej