Niezawodność ludzka - Human reliability

Niezawodność ludzkiej (znany również jako ludzki wydajności lub HU ) odnosi się do pola ergonomia , i odnosi się do niezawodności od ludzi w dziedzinach, takich jak produkcja , medycynie i energii jądrowej . Na wydajność człowieka może wpływać wiele czynników, takich jak wiek , stan umysłu, zdrowie fizyczne , nastawienie , emocje , skłonność do pewnych typowych błędów, błędy i uprzedzenia poznawcze itp.

Niezawodność ludzka jest bardzo ważna ze względu na wkład ludzi w odporność systemów i możliwe negatywne konsekwencje ludzkich błędów lub niedopatrzeń, zwłaszcza gdy człowiek jest kluczową częścią dużych systemów społeczno-technicznych, jak to jest obecnie powszechne. Projekt User-centered i błędów tolerancyjny konstrukcja to tylko dwie z wielu określeń użytych do opisania starań, aby technologia lepiej przystosowane do pracy przez ludzi.

Wspólne pułapki ludzkiej natury

Ludzie mają tendencję do przeceniania swojej zdolności do utrzymania kontroli podczas wykonywania pracy. Omówione poniżej wspólne cechy natury ludzkiej są szczególnie podkreślane, gdy praca jest wykonywana w złożonym środowisku pracy.

Stres Problem ze stresem polega na tym, że może się on kumulować i obezwładniać człowieka, co ma negatywny wpływ na wydajność.

Unikanie napięcia psychicznego Ludzie niechętnie angażują się w długie, skoncentrowane myślenie, ponieważ wymaga to dużej uwagi przez dłuższy czas.

Umysłowe uprzedzenia lub skróty, często używane w celu zmniejszenia wysiłku umysłowego i przyspieszenia podejmowania decyzji obejmują:

  • Założenia — warunek przyjęty za pewnik lub zaakceptowany jako prawdziwy bez weryfikacji faktów.
  • Nawyk – nieświadomy wzorzec zachowania nabyty poprzez częste powtarzanie.
  • Błąd potwierdzenia – niechęć do rezygnacji z obecnego rozwiązania.
  • Błąd podobieństwa – tendencja do przywoływania rozwiązań z sytuacji, które wydają się podobne
  • Odchylenie częstotliwościowe – hazard, w którym często używane rozwiązanie będzie działać.
  • Tendencja do dostępności — skłonność do decydowania się na rozwiązania lub sposoby działania, które łatwo przychodzą na myśl.

Ograniczona pamięć robocza — krótkotrwała pamięć umysłu jest „stołem roboczym” do rozwiązywania problemów i podejmowania decyzji.

Zasoby ograniczonej uwagi — ograniczona zdolność skoncentrowania się na dwóch lub więcej czynnościach stanowi wyzwanie dla zdolności przetwarzania informacji potrzebnych do rozwiązywania problemów.

Nastawienie Ludzie mają tendencję do skupiania się bardziej na tym, co chcą osiągnąć (cel), a mniej na tym, czego należy unikać, ponieważ ludzie są z natury zorientowani na cel. W związku z tym ludzie mają tendencję do „widzenia” tylko tego, co umysł oczekuje lub chce zobaczyć.

Trudność w dostrzeganiu własnych błędów — osoby, zwłaszcza pracujące w pojedynkę, są szczególnie podatne na brakujące błędy.

Ograniczona perspektywa – ludzie nie mogą zobaczyć wszystkiego, co można zobaczyć. Niezdolność ludzkiego umysłu do dostrzeżenia wszystkich faktów związanych z decyzją stanowi wyzwanie dla rozwiązania problemu.

Podatność na czynniki emocjonalne/społeczne — złość i zakłopotanie niekorzystnie wpływają na wydajność zespołu i jednostki.

Zmęczenie – ludzie się męczą. Zmęczenie fizyczne, emocjonalne i psychiczne może prowadzić do błędów i złej oceny sytuacji.

Presenteeism - Niektórzy pracownicy będą obecni w potrzebie przynależności do miejsca pracy pomimo zmniejszonej zdolności do wykonywania pracy z powodu choroby lub urazu.

Techniki analizy

Istnieje wiele metod analizy niezawodności człowieka (HRA). Dwie ogólne klasy metod to metody oparte na probabilistycznej ocenie ryzyka (PRA) oraz te oparte na poznawczej teorii kontroli .

Techniki oparte na PRA

Jedną z metod analizy ludzkiej niezawodności jest proste rozszerzenie probabilistycznej oceny ryzyka (PRA): w taki sam sposób, w jaki sprzęt może ulec awarii w elektrowni, tak samo operator może popełniać błędy. W obu przypadkach analiza ( rozkład funkcjonalny dla sprzętu i analiza zadań dla ludzi) określi poziom szczegółowości, do którego można przypisać prawdopodobieństwo awarii lub błędu. Ta podstawowa idea kryje się za Techniką Przewidywania Wskaźnika Błędów Ludzkich (THERP). THERP ma na celu generowanie prawdopodobieństw błędu ludzkiego, które zostaną włączone do PRA. Procedura oceny niezawodności ludzkiej w ramach Programu Oceny Sekwencji Wypadków (ASEP) jest uproszczoną formą THERP; powiązanym narzędziem obliczeniowym jest Uproszczony Kod Analizy Błędów Ludzkich (SHEAN). Niedawno amerykańska Komisja ds. Regulacji Jądrowych opublikowała metodę Standaryzowanej Analizy Roślin Ryzyka – Analiza Niezawodności Człowieka (SPAR-H), aby uwzględnić potencjalny błąd ludzki.

Techniki oparte na kontroli poznawczej

Erik Hollnagel rozwinął ten tok myślenia w swojej pracy nad Kontekstowym Modelem Kontroli (COCOM) oraz Metodą Analizy Niezawodności Poznawczej i Błędów (CREAM). COCOM modeluje ludzką wydajność jako zestaw trybów kontroli — strategicznego (opartego na planowaniu długoterminowym), taktycznego (opartego na procedurach), oportunistycznego (opartego na obecnym kontekście) i mieszanego (losowego) — i proponuje model przejścia między te tryby sterowania występują. Ten model przejścia w tryb sterowania składa się z wielu czynników, w tym z oceny przez operatora wyniku działania (sukcesu lub niepowodzenia), czasu pozostałego do wykonania działania (odpowiedniego lub nieodpowiedniego) oraz liczby jednoczesnych celów ludzki operator w tym czasie. CREAM to metoda analizy ludzkiej niezawodności oparta na COCOM.

Powiązane techniki

Powiązane techniki w inżynierii bezpieczeństwa i inżynierii niezawodności obejmują analizę trybów i skutków awarii , hazop , drzewo błędów i SAPHIRE (programy analizy systemów do praktycznej zintegrowanej oceny niezawodności).

System analizy i klasyfikacji czynników ludzkich (HFACS)

System Analizy i Klasyfikacji Czynników Ludzkich (HFACS) został początkowo opracowany jako podstawa do zrozumienia roli „błędu ludzkiego” w wypadkach lotniczych. Opiera się na szwajcarskim serowym modelu błędu ludzkiego w złożonych systemach Jamesa Reasona . HFACS rozróżnia „aktywne awarie” niebezpiecznych działań i „utajone awarie” warunków wstępnych niebezpiecznych działań, niebezpiecznego nadzoru i wpływów organizacyjnych. Kategorie te zostały opracowane empirycznie na podstawie wielu raportów z wypadków lotniczych.

„Niebezpieczne czynności” wykonuje człowiek-operator „na linii frontu” (np. pilot, kontroler ruchu lotniczego, kierowca). Niebezpieczne działania mogą być błędami (w percepcji, podejmowaniu decyzji lub wynikach opartych na umiejętnościach) lub naruszeniami (rutynowymi lub wyjątkowymi). Błędy tutaj są podobne do powyższej dyskusji. Naruszenia to celowe lekceważenie zasad i procedur. Jak sama nazwa wskazuje, naruszenia rutynowe to takie, które zdarzają się nałogowo i są zwykle tolerowane przez organizację lub władze. Wyjątkowe naruszenia są niezwykłe i często ekstremalne. Na przykład jazda 60 mil na godzinę w strefie ograniczenia prędkości do 55 mil na godzinę jest rutynowym naruszeniem, ale jazda 130 mil na godzinę w tej samej strefie jest wyjątkowa.

Istnieją dwa rodzaje warunków wstępnych dla niebezpiecznych działań: te, które odnoszą się do wewnętrznego stanu operatora i te, które odnoszą się do praktyk lub sposobów pracy operatora. Niekorzystne stany wewnętrzne obejmują te związane z fizjologią (np. choroba) i stanem psychicznym (np. zmęczenie psychiczne, rozproszenie). Trzecim aspektem „stanu wewnętrznego” jest tak naprawdę niedopasowanie zdolności operatora do wymagań zadania; na przykład operator może nie być w stanie dokonać wizualnej oceny lub zareagować wystarczająco szybko, aby wesprzeć wykonywane zadanie. Złe praktyki operatora są kolejnym warunkiem wstępnym niebezpiecznych działań. Obejmują one słabe zarządzanie zasobami załogi (kwestie takie jak przywództwo i komunikacja) oraz słabe praktyki gotowości osobistej (np. naruszanie wymagań dotyczących odpoczynku załogi w lotnictwie).

Cztery rodzaje niebezpiecznego nadzoru to: nieodpowiedni nadzór; planowane niewłaściwe operacje; brak rozwiązania znanego problemu; i naruszenia nadzoru.

Wpływy organizacyjne obejmują te związane z zarządzaniem zasobami (np. nieodpowiednimi zasobami ludzkimi lub finansowymi), klimatem organizacyjnym (struktury, polityki i kultura) oraz procesami organizacyjnymi (takimi jak procedury, harmonogramy, nadzór).

Zobacz też

Przypisy

Bibliografia

  • Gertman, DL; Blackman, HS (2001). Podręcznik analizy danych dotyczących niezawodności i bezpieczeństwa człowieka . Wileya.
  • Gertman D., Blackman H., Marble J., Byers J. i Smith C. (2005). Metoda analizy ludzkiej niezawodności SPAR-H. NUREG/CR-6883. Idaho National Laboratory, przygotowane dla amerykańskiej Komisji Dozoru Jądrowego .CS1 maint: wiele nazwisk: lista autorów ( link )[1]
  • M. Cappelli, AMGadomski, M.Sepielli (2011). Czynniki ludzkie w zarządzaniu bezpieczeństwem elektrowni jądrowych: podejście modelowania społeczno-poznawczego z wykorzystaniem metateorii TOGA. Materiały Międzynarodowego Kongresu Postępów w Elektrowniach Jądrowych. Nicea (FR) . SFEN ( Société Française d'Energie Nucléaire ).CS1 maint: wiele nazwisk: lista autorów ( link )
  • Hollnagel, E. (1993). Analiza niezawodności człowieka: kontekst i kontrola . Prasa akademicka.
  • Hollnagel, E. (1998). Wiarygodność poznawcza i metoda analizy błędów: CREAM . Elsevier.
  • Hollnagel, E.; Amalberti, R. (2001). Nowe szaty cesarza, czy cokolwiek stało się z „błędem ludzkim”? Prezentacja na zaproszenie na 4th International Workshop on Human Error, Safety and System Development . Linköping, 11-12 czerwca 2001.
  • Hollnagel, E., Woods, DD i Leveson, N. (red.) (2006). Inżynieria odporności: Koncepcje i zasady . Ashgate.CS1 maint: wiele nazwisk: lista autorów ( link ) CS1 maint: dodatkowy tekst: lista autorów ( link )
  • Jones, PM (1999). Błąd ludzki i jego łagodzenie. W Handbook of Systems Engineering and Management (AP Sage i WB Rouse, red.), 687-702 . Wileya.
  • Kirwan, B. (1994). Przewodnik po praktycznej ocenie niezawodności człowieka . Taylora i Francisa.
  • Kirwan, B. i Ainsworth, L. (red.) (1992). Przewodnik po analizie zadań . Taylora i Francisa.CS1 maint: wiele nazwisk: lista autorów ( link ) CS1 maint: dodatkowy tekst: lista autorów ( link )
  • Normana, D. (1988). Psychologia rzeczy codziennych . Książki podstawowe.
  • Powód, J. (1990). Błąd ludzki . Wydawnictwo Uniwersytetu Cambridge.
  • Roth, E.; i in. (1994). Empiryczne badanie wydajności operatora w symulowanych sytuacjach kryzysowych wymagających poznawczych. NUREG/CR-6208, Centrum Naukowo-Technologiczne Westinghouse . Raport przygotowany dla Komisji Dozoru Jądrowego.
  • Sage, AP (1992). Inżynieria systemów . Wileya.
  • Nadawcy, J.; Moray, N. (1991). Błąd ludzki: przyczyna, przewidywanie i redukcja . Lawrence Erlbaum Współpracownicy.
  • Shappella, S.; Wiegmann, D. (2000). System analizy i klasyfikacji czynników ludzkich - HFACS. DOT/FAA/AM-00/7, Urząd Medycyny Lotniczej, Federalna Administracja Lotnictwa, Departament Transportu .[2]
  • Swain AD i Guttman HE (1983). Podręcznik analizy niezawodności człowieka z naciskiem na zastosowania w elektrowniach jądrowych . NUREG/CR-1278 (Waszyngton).CS1 maint: wiele nazwisk: lista autorów ( link )
  • Wallace B.; Ross, A. (2006). Poza ludzkim błędem . CRC Prasa.
  • Wiegmann, D.; Shappell, S. (2003). Podejście błędu ludzkiego do analizy wypadków lotniczych: System analizy i klasyfikacji czynników ludzkich . Ashgate.
  • Wilsona, JR (1993). SHEAN (kod uproszczonej analizy błędów ludzkich) i zautomatyzowane THERP . Numer raportu technicznego Departamentu Energii Stanów Zjednoczonych WINCO-11908. [3]
  • Woods, DD (1990). Modelowanie i przewidywanie błędu ludzkiego. W J. Elkind, S. Card, J. Hochberg i B. Huey (red.), Modele wydajności człowieka dla inżynierii wspomaganej komputerowo (248-274) . Prasa akademicka.
  • Federalna Administracja Lotnictwa. 2009 elektroniczny kodeks przepisów. Pobrano 25 września 2009 z https://web.archive.org/web/20120206214308/http://www.airweb.faa.gov/Regulatory_and_Guidance_library/rgMakeModel.nsf/0/5a9adccea6c0c4e286256d3900494a77/$FILE/H3WE.pdf

Dalsza lektura

  • Autrey, TD (2015). 6-godzinna kultura bezpieczeństwa: jak trwale zmniejszyć błąd ludzki i ryzyko (i zrobić to, czego sam trening nie jest w stanie zrobić) . Stowarzyszenie Human Performance.
  • Davies, JB, Ross, A., Wallace, B. i Wright, L. (2003). Zarządzanie bezpieczeństwem: podejście systemów jakościowych . Taylora i Francisa.CS1 maint: wiele nazwisk: lista autorów ( link )
  • Dekker, SWA (2005). Dziesięć pytań o błąd ludzki: nowe spojrzenie na czynnik ludzki i bezpieczeństwo systemów . Lawrence Erlbaum Współpracownicy.
  • Dekker, SWA (2006). Przewodnik terenowy dotyczący zrozumienia błędu ludzkiego . Ashgate.
  • Dekker, SWA (2007). Sprawiedliwa kultura: równoważenie bezpieczeństwa i odpowiedzialności . Ashgate.
  • Dismukes, RK, Berman, BA i Loukopoulos, LD (2007). Granice kompetencji: Przemyślenie błędu pilota i przyczyn wypadków lotniczych . Ashgate.CS1 maint: wiele nazwisk: lista autorów ( link )
  • Forester J., Kolaczkowski A., Lois E. i Kelly D. (2006). Ocena metod analizy niezawodności człowieka na tle dobrych praktyk. NUREG-1842 Raport końcowy . Amerykańska Komisja Regulacji Jądrowych.CS1 maint: wiele nazwisk: lista autorów ( link ) [4]
  • Goodstein, LP, Andersen, HB i Olsen, SE (red.) (1988). Zadania, błędy i modele myślowe . Taylora i Francisa.CS1 maint: wiele nazwisk: lista autorów ( link ) CS1 maint: dodatkowy tekst: lista autorów ( link )
  • Grabowski, M.; Roberts, KH (1996). „Błąd ludzki i organizacyjny w systemach na dużą skalę”. Transakcje IEEE dotyczące systemów, człowieka i cybernetyki — część A: Systemy i ludzie . 26 : 2-16. doi : 10.1109/3468.4778556 .
  • Greenbaum, J. i Kyng, M. (red.) (1991). Projektowanie w pracy: Spółdzielcze projektowanie systemów komputerowych . Lawrence Erlbaum Współpracownicy.CS1 maint: wiele nazwisk: lista autorów ( link ) CS1 maint: dodatkowy tekst: lista autorów ( link )
  • Harrison, M. (2004). Analiza błędów ludzkich i ocena niezawodności . Workshop on Human Computer Interaction and Dependability, 46. Spotkanie Grupy Roboczej IFIP 10.4, Siena, Włochy, 3-7 lipca 2004 r. [5]
  • Hollnagel, E. (1991). Fenotyp działań błędnych: Implikacje dla projektowania HCI. W GWR Weir i JL Alty (red.), Interakcja człowiek-komputer i złożone systemy. Prasa akademicka.
  • Hutchins, E. (1995). Poznanie na wolności . MIT Naciśnij.
  • Kahneman, D., Slovic, P. i Tversky, A. (red.) (1982). „Osąd w warunkach niepewności: heurystyki i uprzedzenia”. Nauka . Wydawnictwo Uniwersytetu Cambridge. 185 (4157): 1124-31. doi : 10.1126/science.185.4157.1124 . PMID  17835457 .CS1 maint: wiele nazwisk: lista autorów ( link ) CS1 maint: dodatkowy tekst: lista autorów ( link )
  • Leveson, N. (1995). Safeware: Bezpieczeństwo systemu i komputery . Addisona-Wesleya.
  • Morgan, G. (1986). Obrazy organizacji . Szałwia.
  • Mura, SS (1983). Naruszenia licencji: Uzasadnione naruszenia zasady konwersacji Grice'a. W R. Craig i K. Tracy (red.), Spójność konwersacyjna: forma, struktura i strategia (101-115) . Szałwia.
  • Perrow, C. (1984). Zwykłe wypadki: Życie z technologiami wysokiego ryzyka . Książki podstawowe.
  • Rasmussen, J. (1983). Umiejętności, zasady i wiedza: Sygnały, znaki i symbole oraz inne rozróżnienia w ludzkich modelach działania. Transakcje IEEE dotyczące systemów, człowieka i cybernetyki , SMC-13, 257-267 .
  • Rasmussen, J. (1986). Przetwarzanie informacji i interakcja człowiek-maszyna: podejście do inżynierii kognitywnej . Wileya.
  • Silverman, B. (1992). Krytyka błędu ludzkiego: podejście oparte na wiedzy opartej na współpracy człowiek-komputer . Prasa akademicka.
  • Swets, J. (1996). Teoria wykrywania sygnałów i analiza ROC w psychologii i diagnostyce: Artykuły zebrane . Lawrence Erlbaum Współpracownicy.
  • Tversky, A.; Kahneman, D. (1974). Ocena w warunkach niepewności: heurystyki i uprzedzenia. Nauka , 185, 1124-1131 .
  • Vaughan, D. (1996). Decyzja o uruchomieniu Challengera: Ryzykowna technologia, kultura i dewiacja w NASA . Wydawnictwo Uniwersytetu Chicago.
  • Woods DD, Johannesen L., Cook R. i Sarter N. (1994). Za ludzkim błędem: systemy kognitywne, komputery i spojrzenie wstecz. Raport CSERIAC SOAR 94-01 . Crew Systems Ergonomia Centrum Analizy Informacji, Baza Sił Powietrznych Wright-Patterson, Ohio.CS1 maint: wiele nazwisk: lista autorów ( link )
  • Wu S., Hrudey S., French S., Bedford T., Soane E. i Pollard S. (2009). „Rola analizy niezawodności człowieka (HRA) w zapobieganiu incydentom związanym z wodą pitną i zabezpieczaniu bezpiecznej wody pitnej” (PDF) . Badania wody . 43 (13): 3227–3238. doi : 10.1016/j.watres.2009.04.040 . PMID  19493557 .CS1 maint: wiele nazwisk: lista autorów ( link )
  • CCPS, Wytyczne dotyczące zapobiegania błędom ludzkim. Ta książka wyjaśnia jakościową i ilościową metodologię przewidywania błędu ludzkiego. Metodologia jakościowa zwana SPEAR: Systems for Predicting Human Error and Recovery, a metodologia ilościowa obejmuje również THERP itp.

Linki zewnętrzne

Normy i wytyczne

Przybory

Laboratoria badawcze

Relacje w mediach

Sieć