Stronniczość automatyzacji - Automation bias

Tendencja do automatyzacji to skłonność ludzi do faworyzowania sugestii ze zautomatyzowanych systemów podejmowania decyzji i ignorowania sprzecznych informacji uzyskanych bez automatyzacji, nawet jeśli są one poprawne. Tendencja do automatyzacji wywodzi się z literatury psychologii społecznej, która znalazła stronniczość w interakcji człowiek-człowiek, która wykazała, że ​​ludzie przypisują więcej pozytywnych ocen decyzjom podejmowanym przez ludzi niż neutralnemu obiektowi. Ten sam rodzaj błędu pozytywnego stwierdzono w przypadku interakcji człowiek-automatyka, gdzie zautomatyzowane decyzje są oceniane bardziej pozytywnie niż neutralnie. Stało się to rosnącym problemem dla podejmowania decyzji, ponieważ jednostki intensywnej terapii , elektrownie jądrowe i kokpity samolotów coraz częściej integrują skomputeryzowane monitory systemowe i pomoce decyzyjne, aby w większości wykluczyć możliwy błąd ludzki. Błędy związane z automatyzacją pojawiają się zwykle, gdy podejmowanie decyzji zależy od komputerów lub innych zautomatyzowanych pomocy, a człowiek pełni rolę obserwatora, ale jest w stanie podejmować decyzje. Przykłady stronniczości automatyzacji obejmują zarówno pilne sprawy, jak latanie samolotem na automatycznym pilocie, jak i tak przyziemne sprawy, jak używanie programów sprawdzania pisowni .

Nieużywanie i niewłaściwe użycie

Zaufanie operatora do systemu może również prowadzić do różnych interakcji z systemem, w tym używania systemu, niewłaściwego użytkowania, nieużywania i nadużyć.

Tendencja do nadmiernego polegania na zautomatyzowanych pomocach jest znana jako „nadużywanie automatyzacji”. Niewłaściwe użycie automatyzacji można zaobserwować, gdy użytkownik nie jest w stanie właściwie monitorować zautomatyzowanego systemu lub gdy zautomatyzowany system jest używany, gdy nie powinien. Jest to przeciwieństwo nieużywania, w którym użytkownik nie wykorzystuje prawidłowo automatyki, wyłączając ją lub ignorując. Zarówno niewłaściwe, jak i nieużywane może być problematyczne, ale stronniczość automatyzacji jest bezpośrednio związana z niewłaściwym wykorzystaniem automatyzacji poprzez zbyt duże zaufanie do możliwości systemu lub domyślne stosowanie heurystyki. Nadużycie może prowadzić do braku monitorowania zautomatyzowanego systemu lub ślepej zgody z sugestią automatyzacji, podzielonych odpowiednio na dwa rodzaje błędów, błędy pominięcia i błędy prowizji.

Użycie i nieużywanie automatyzacji może również wpływać na etapy przetwarzania informacji: pozyskiwanie informacji, analiza informacji, podejmowanie decyzji i wybór działań oraz realizacja działań.

Na przykład pozyskiwanie informacji, pierwszy krok w przetwarzaniu informacji, to proces, w którym użytkownik rejestruje dane wejściowe za pomocą zmysłów. Zautomatyzowany wskaźnik silnika może pomóc użytkownikowi w pozyskiwaniu informacji dzięki prostym funkcjom interfejsu — takim jak podkreślanie zmian w wydajności silnika — kierując w ten sposób selektywną uwagę użytkownika. W obliczu problemów pochodzących z samolotu piloci mogą mieć tendencję do przesadnego zaufania do wskaźników silnika samolotu, tracąc z pola widzenia inne możliwe usterki niezwiązane z silnikiem. Taka postawa jest formą samozadowolenia automatyzacji i nadużycia. Jeśli jednak pilot poświęci czas na interpretację wskaźnika silnika i odpowiednio manipuluje samolotem tylko po to, aby odkryć, że turbulencje lotu się nie zmieniły, pilot może być skłonny zignorować przyszłe zalecenia dotyczące błędów przekazywane przez wskaźnik silnika – forma samozadowolenie w zakresie automatyzacji prowadzące do nieużywania.

Błędy prowizji i zaniechań

Tendencja do automatyzacji może przybrać formę błędów prowizyjnych, które pojawiają się, gdy użytkownicy postępują zgodnie z zautomatyzowaną dyrektywą, nie biorąc pod uwagę innych źródeł informacji. I odwrotnie, błędy pominięcia występują, gdy automatyczne urządzenia nie wykrywają lub nie wskazują problemów, a użytkownik ich nie zauważa, ponieważ nie monitorują prawidłowo systemu.

Wykazano, że błędy przeoczenia wynikają z obniżenia czujności poznawczej, natomiast błędy prowizyjne wynikają z połączenia nieuwzględniania informacji i nadmiernego zaufania do niezawodności zautomatyzowanych pomocy. Błędy prowizyjne występują z trzech powodów: (1) jawne odwrócenie uwagi od automatycznej pomocy; (2) mniejsze zainteresowanie pomocą; (3) aktywne dyskontowanie informacji sprzecznych z zaleceniami pomocy. Błędy pominięcia pojawiają się, gdy osoba podejmująca decyzje nie zauważy awarii automatyki z powodu niskiej czujności lub nadmiernego zaufania do systemu. Na przykład, program do sprawdzania pisowni nieprawidłowo oznaczający słowo jako błędnie napisane i sugerujący alternatywę byłby błędem prowizji, a program do sprawdzania pisowni, który nie zauważyłby błędnie napisanego słowa, byłby błędem pominięcia. W takich przypadkach błąd automatyzacji może być obserwowany przez użytkownika akceptującego alternatywne słowo bez sprawdzania słownika lub użytkownika nie zauważającego błędnie napisanego słowa i zakładając, że wszystkie słowa są poprawne bez przeglądania słów.

Wykazano, że szkolenie, które koncentrowało się na zmniejszeniu błędu automatyzacji i związanych z tym problemów, obniża odsetek błędów prowizji, ale nie błędów przeoczeń.

Czynniki

Obecność automatycznych pomocy, jak to ujmuje jedno ze źródeł, „zmniejsza prawdopodobieństwo, że decydenci albo podejmą wysiłek poznawczy, by poszukać innych informacji diagnostycznych, albo przetworzą wszystkie dostępne informacje w złożony poznawczo sposób”. Sprawia to również, że użytkownicy są bardziej skłonni do zbyt pochopnego zakończenia oceny sytuacji po automatycznym zachęceniu do podjęcia określonego działania.

Według jednego źródła istnieją trzy główne czynniki, które prowadzą do błędu automatyzacji. Po pierwsze, ludzka skłonność do wybierania najmniej poznawczego podejścia do podejmowania decyzji, co nazywa się hipotezą skąpca poznawczego . Po drugie, skłonność ludzi do postrzegania automatycznych pomocy jako posiadających zdolność analityczną wyższą od ich własnych. Po trzecie, skłonność ludzi do zmniejszania własnego wysiłku podczas dzielenia się zadaniami z inną osobą lub za pomocą zautomatyzowanej pomocy.

Inne czynniki prowadzące do nadmiernego polegania na automatyzacji, a tym samym do stronniczości w zakresie automatyzacji, to brak doświadczenia w wykonywaniu zadania (chociaż niedoświadczeni użytkownicy zwykle odnoszą największe korzyści z automatycznych systemów wspomagania decyzji), brak wiary we własne możliwości, brak łatwo dostępnej alternatywy informacje lub chęć zaoszczędzenia czasu i wysiłku przy złożonych zadaniach lub dużym obciążeniu pracą. Wykazano, że osoby, które mają większe zaufanie do własnych umiejętności podejmowania decyzji, są mniej zależne od zautomatyzowanego wsparcia zewnętrznego, podczas gdy osoby bardziej ufające systemom wspomagania decyzji (DSS) były od niego bardziej zależne.

Projekt ekranu

Jedno z badań, opublikowane w Journal of the American Medical Informatics Association , wykazało, że pozycja i wyeksponowanie porad na ekranie może mieć wpływ na prawdopodobieństwo błędu automatyzacji, przy czym wyraźnie widoczne porady, prawidłowe lub nie, są bardziej prawdopodobne; jednak inne badanie wydawało się pomijać znaczenie tego czynnika. Według innego badania, większa ilość szczegółów na ekranie może sprawić, że użytkownicy będą mniej „konserwatywni”, a tym samym zwiększyć prawdopodobieństwo błędu automatyzacji. Jedno z badań wykazało, że nałożenie na jednostki odpowiedzialności za swoje wyniki lub trafność ich decyzji zmniejszyło stronniczość w zakresie automatyzacji.

Dostępność

„Dostępność zautomatyzowanych środków wspomagających podejmowanie decyzji”, stwierdza jedno z badań Lindy Skitki , „może czasami wpływać na ogólną ludzką skłonność do podróżowania drogą najmniejszego wysiłku poznawczego”.

Świadomość procesu

Jedno z badań wykazało również, że gdy użytkownicy są świadomi procesu rozumowania stosowanego przez system wspomagania decyzji, prawdopodobnie odpowiednio dostosują swoją zależność, zmniejszając w ten sposób stronniczość w zakresie automatyzacji.

Drużynowy a indywidualny

Wykonywanie zadań przez załogi, a nie osoby działające samodzielnie, niekoniecznie eliminuje stronniczość automatyzacji. Jedno z badań wykazało, że gdy zautomatyzowane urządzenia nie wykryły nieprawidłowości w systemie, zespoły nie radziły sobie lepiej niż solowy wykonawcy w reagowaniu na te nieprawidłowości.

Szkolenie

Szkolenie, które koncentruje się na stronniczości automatyzacji w lotnictwie , pozwoliło zmniejszyć liczbę błędów pominięć przez uczniów-pilotów.

Awaria automatyzacji i „wyuczona nieostrożność”

Wykazano, że po awarii automatyzacji następuje spadek zaufania operatora, po którym następuje powolne odzyskiwanie zaufania. Spadek zaufania po początkowej awarii automatyzacji został opisany jako efekt pierwszej awarii. Z tego samego powodu, jeśli zautomatyzowane pomoce okażą się z czasem wysoce niezawodne, wynikiem prawdopodobnie będzie podwyższony poziom błędu automatyzacji. Nazywa się to „wyuczoną nieostrożnością”.

Zapewnienie informacji o zaufaniu systemu

W przypadkach, gdy informacje o zaufaniu do systemu są dostarczane użytkownikom, same te informacje mogą stać się czynnikiem wpływającym na automatyzację.

Ciśnienia zewnętrzne

Badania wykazały, że im więcej nacisków zewnętrznych wywiera się na zdolności poznawcze jednostki, tym bardziej może ona polegać na wsparciu zewnętrznym.

Problemy definicyjne

Chociaż stronniczość automatyzacji była przedmiotem wielu badań, nadal pojawiają się narzekania, że ​​stronniczość automatyzacji pozostaje źle zdefiniowana, a zgłaszanie incydentów związanych ze stronniczością automatyzacji jest niesystematyczne.

Przegląd różnych badań tendencyjności automatyzacji sklasyfikował różne rodzaje zadań, w których zastosowano zautomatyzowane pomoce, a także funkcje, jakie pełniły zautomatyzowane pomoce. Zadania, w których zastosowano zautomatyzowane pomoce, zostały sklasyfikowane jako zadania monitorowania, zadania diagnostyczne lub zadania terapeutyczne. Typy zautomatyzowanej pomocy zostały wymienione jako Automatyzacja alertów, która śledzi ważne zmiany i ostrzega użytkownika, automatyzacja wspomagania decyzji, która może dostarczyć diagnozy lub zalecenia, lub automatyzacja wdrażania, w której zautomatyzowana pomoc wykonuje określone zadanie.

Samozadowolenie wywołane automatyzacją

Koncepcja błędu automatyzacji jest postrzegana jako nakładająca się na samozadowolenie wywołane automatyzacją, znane również po prostu jako samozadowolenie związane z automatyzacją. Podobnie jak stronniczość automatyzacji, jest to konsekwencja niewłaściwego użycia automatyzacji i wiąże się z problemami z uwagą. Podczas gdy stronniczość automatyzacji wiąże się z tendencją do ufania systemom wspomagania decyzji, samozadowolenie w zakresie automatyzacji wiąże się z niewystarczającą uwagą i monitorowaniem wyników automatyzacji, zwykle dlatego, że są one postrzegane jako wiarygodne. „Chociaż koncepcje samozadowolenia i nastawienia na automatyzację zostały omówione osobno, jakby były niezależne”, pisze jeden z ekspertów, „mają one kilka cech wspólnych, co sugeruje, że odzwierciedlają różne aspekty tego samego rodzaju niewłaściwego wykorzystania automatyzacji”. Rzeczywiście zaproponowano, aby koncepcje samozadowolenia i błędu automatyzacji zostały połączone w jedną „koncepcję integracyjną”, ponieważ te dwa pojęcia „mogą reprezentować różne przejawy nakładających się na siebie zjawisk wywołanych automatyzacją” oraz ponieważ „samotność wywołana automatyzacją i stronniczość w automatyzacji reprezentują ściśle powiązane koncepcje teoretyczne, które wykazują znaczne nakładanie się w odniesieniu do podstawowych procesów”.

Samozadowolenie w zakresie automatyzacji zostało zdefiniowane jako „słabsze wykrywanie wadliwego działania systemu w przypadku automatyzacji w porównaniu z kontrolą ręczną”. NASA Aviation Safety Reporting System (ASRS) definiuje samozadowolenie jako „samozadowolenie, które może skutkować brakiem czujności w oparciu o nieuzasadnione założenie zadowalającego stanu systemu”. Kilka badań wykazało, że najczęściej występuje, gdy operatorzy są jednocześnie zaangażowani w zadania ręczne i zautomatyzowane. Z kolei postrzeganie przez operatorów niezawodności zautomatyzowanego systemu może wpływać na sposób interakcji operatora z systemem. Endsley (2017) opisuje, w jaki sposób wysoka niezawodność systemu może prowadzić użytkowników do odejścia od systemów monitorowania, zwiększając w ten sposób błędy monitorowania, zmniejszając świadomość sytuacyjną i zakłócając zdolność operatora do ponownego przejęcia kontroli nad systemem w przypadku przekroczenia ograniczeń wydajności. To samozadowolenie można znacznie zmniejszyć, gdy niezawodność automatyki zmienia się w czasie zamiast pozostawać na stałym poziomie, ale nie zmniejsza się to dzięki doświadczeniu i praktyce. Zarówno eksperci, jak i niedoświadczeni uczestnicy mogą wykazywać stronniczość w zakresie automatyzacji, a także samozadowolenie w zakresie automatyzacji. Żaden z tych problemów nie może być łatwo przezwyciężony przez trening.

Termin „zadowolenie w zakresie automatyzacji” został po raz pierwszy użyty w związku z wypadkami lotniczymi lub incydentami, w których piloci , kontrolerzy ruchu powietrznego lub inni pracownicy nie sprawdzili wystarczająco systemów, zakładając, że wszystko było w porządku, gdy w rzeczywistości miał nastąpić wypadek . Zadowolenie operatora, niezależnie od tego, czy jest związane z automatyzacją, czy też nie, od dawna uznawane jest za wiodący czynnik w wypadkach lotniczych.

W związku z tym postrzeganie niezawodności ogólnie może skutkować pewną ironią automatyzacji, w której większa automatyzacja może zmniejszyć obciążenie poznawcze, ale zwiększyć możliwość monitorowania błędów. Natomiast niska automatyzacja może zwiększyć obciążenie pracą, ale zmniejszyć możliwość monitorowania błędów. Weźmy na przykład pilota lecącego podczas niepogody, w której ciągłe grzmoty zakłócają zdolność pilota do zrozumienia informacji przekazywanych przez kontrolera ruchu lotniczego (ATC). Pomimo tego, ile wysiłku wkłada się w zrozumienie informacji przesyłanych przez ATC, wydajność pilota jest ograniczona przez źródło informacji potrzebnych do wykonania zadania. Dlatego pilot musi polegać na automatycznych wskaźnikach w kokpicie, aby zrozumieć informacje o torze lotu. Jeśli pilot uważa, że ​​automatyczne wskaźniki są wysoce niezawodne, nakład pracy potrzebny do zrozumienia ATC i automatycznych wskaźników może się zmniejszyć. Ponadto, jeśli automatyczne wskaźniki są postrzegane jako wysoce niezawodne, pilot może je zignorować, aby poświęcić zasoby umysłowe na odszyfrowanie informacji przesyłanych przez ATC. W ten sposób pilot staje się samozadowolnym monitorem, przez co naraża się na ryzyko utraty krytycznych informacji przekazywanych przez automatyczne wskaźniki. Jeśli jednak pilot uzna, że ​​automatyczne wskaźniki są niewiarygodne, pilot będzie musiał teraz jednocześnie interpretować informacje z ATC i automatycznych wskaźników. Stwarza to scenariusze, w których operator może wydatkować niepotrzebne zasoby poznawcze, gdy automatyzacja jest w rzeczywistości niezawodna, ale także zwiększa szanse na zidentyfikowanie potencjalnych błędów w miernikach pogody, jeśli wystąpią. Aby skalibrować postrzeganie niezawodności przez pilota, automatykę należy zaprojektować tak, aby utrzymać obciążenie pracą na odpowiednim poziomie, zapewniając jednocześnie, że operator pozostaje zaangażowany w zadania monitorowania. Operator powinien mieć mniejsze szanse na odejście od monitorowania, gdy niezawodność systemu może się zmienić w porównaniu z systemem, który ma stałą niezawodność (Parasuraman, 1993).

Do pewnego stopnia samozadowolenie użytkowników równoważy korzyści płynące z automatyzacji, a gdy poziom niezawodności zautomatyzowanego systemu spadnie poniżej pewnego poziomu, automatyzacja nie będzie już aktywem netto. Jedno z badań z 2007 roku sugeruje, że ta automatyzacja następuje, gdy poziom niezawodności osiąga około 70%. Inne badania wykazały, że automatyzacja o poziomie niezawodności poniżej 70% może być przydatna dla osób mających dostęp do źródeł informacji surowych, które można połączyć z wynikami automatyzacji w celu poprawy wydajności.

Sektory

Stronniczość automatyzacji została zbadana w wielu dziedzinach badawczych. Może to być szczególnie poważny problem w lotnictwie, medycynie , kontroli procesów i wojskowych operacjach dowodzenia i kontroli .

Lotnictwo

Początkowo dyskusja na temat stronniczości automatyzacji koncentrowała się głównie na lotnictwie. Zautomatyzowane pomoce odgrywają coraz większą rolę w kokpitach, odgrywając coraz większą rolę w kontrolowaniu takich zadań lotniczych, jak określanie tras najbardziej paliwooszczędnych, nawigowanie oraz wykrywanie i diagnozowanie awarii systemów. Korzystanie z tych pomocy może jednak prowadzić do mniej uważnego i mniej czujnego poszukiwania i przetwarzania informacji przez ludzi. W niektórych przypadkach ludzie mogą bardziej ufać dezinformacji dostarczanej przez komputery pokładowe niż własnym umiejętnościom.

Ważnym czynnikiem w automatyzacji związanej z lotnictwem jest stopień, w jakim piloci postrzegają siebie jako odpowiedzialnych za zadania wykonywane przez zautomatyzowane pomoce. Jedno z badań pilotów wykazało, że obecność drugiego członka załogi w kokpicie nie miała wpływu na odchylenie automatyki. W badaniu z 1994 r. porównano wpływ niskiego i wysokiego poziomu automatyzacji (LOA) na wydajność pilota i stwierdzono, że piloci pracujący z wysokim LOA spędzali mniej czasu na niezależnej refleksji nad decyzjami dotyczącymi lotu.

W innym badaniu wszyscy piloci, którzy otrzymali fałszywe automatyczne ostrzeżenia, które poinstruowały ich, aby wyłączyć silnik, zrobili to, mimo że ci sami piloci nalegali w wywiadzie, że nie zareagują na taki alert wyłączając silnik, a zamiast tego zmniejszyły moc do biegu jałowego. Jedno z badań z 1998 r. wykazało, że piloci z około 440 godzinami lotu wykryli więcej awarii automatyki niż niepiloci, chociaż obie grupy wykazały efekt samozadowolenia. Badanie z 2001 r. pilotów korzystających z systemu automatyzacji kokpitu, systemu wskazującego silnik i ostrzegającego załogę (EICAS), wykazało dowody na samozadowolenie. Piloci wykryli mniej awarii silnika podczas korzystania z systemu niż podczas ręcznego wykonywania zadania.

W badaniu z 2005 r. doświadczeni kontrolerzy ruchu lotniczego wykorzystali symulację wysokiej wierności scenariusza ATC (Free Flight), która obejmowała wykrywanie konfliktów między samodzielnymi samolotami. Mieli dostęp do zautomatyzowanego urządzenia, które wykrywało potencjalne konflikty na kilka minut przed czasem. Gdy urządzenie uległo awarii pod koniec procesu symulacji, znacznie mniej kontrolerów wykryło konflikt, niż gdy sytuacja była obsługiwana ręcznie. Inne badania przyniosły podobne wyniki.

Dwa badania dotyczące stronniczości automatyzacji w lotnictwie wykazały wyższy wskaźnik błędów prowizji niż błędów pominięć, podczas gdy inne badanie lotnicze wykazało 55% wskaźników pominięć i 0% stawek prowizji. Błędy związane z automatyzacją są szczególnie powszechne podczas fazy rejsu. Kiedy lot China Airlines stracił moc w jednym silniku, autopilot próbował rozwiązać ten problem, opuszczając lewe skrzydło, co ukryło problem przed załogą. Po wyłączeniu autopilota samolot przetoczył się w prawo i opadł stromo, powodując rozległe uszkodzenia. Zestrzelenie w 1983 roku Korean Airlines 747 nad sowiecką przestrzenią powietrzną miało miejsce, ponieważ koreańska załoga „oparła się na automatyce, która została niewłaściwie skonfigurowana i nigdy nie kontrolowała swoich postępów ręcznie”.

Opieka zdrowotna

Systemy wspomagania decyzji klinicznych (CDSS) mają na celu wspomaganie podejmowania decyzji klinicznych. Mają potencjał, aby spowodować znaczną poprawę w tym zakresie i skutkować poprawą wyników leczenia pacjentów. Jednak chociaż CDSS, jeśli jest właściwie używany, przynosi ogólną poprawę wydajności, powoduje również błędy, które mogą nie zostać rozpoznane z powodu błędu automatyzacji. Jednym z niebezpieczeństw jest to, że nieprawidłowe porady udzielane przez te systemy mogą spowodować, że użytkownicy zmienią poprawną decyzję, którą podjęli samodzielnie. Biorąc pod uwagę bardzo poważny charakter niektórych potencjalnych konsekwencji AB w dziedzinie opieki zdrowotnej, szczególnie ważne jest, aby zdawać sobie sprawę z tego problemu, gdy występuje on w warunkach klinicznych.

Czasami błąd automatyzacji w warunkach klinicznych jest głównym problemem, który sprawia, że ​​CDSS, w sumie, przynosi efekt przeciwny do zamierzonego; czasami jest to niewielki problem, a korzyści przewyższają wyrządzone szkody. Jedno z badań wykazało większą skłonność do automatyzacji wśród starszych użytkowników, ale zauważono, że może to wynikać nie z wieku, ale z doświadczenia. Badania rzeczywiście sugerują, że znajomość CDSS często prowadzi do odczulania i efektów przyzwyczajenia. Chociaż stronniczość automatyzacji występuje częściej wśród osób, które nie mają doświadczenia w danym zadaniu, niedoświadczeni użytkownicy wykazują największą poprawę wydajności, gdy korzystają z CDSS. W jednym badaniu zastosowanie CDSS poprawiło odpowiedzi klinicystów o 21%, z 29% do 50%, przy czym 7% poprawnych odpowiedzi innych niż CDSS zostało zmienionych niepoprawnie.

Badanie z 2005 r. wykazało, że kiedy lekarze podstawowej opieki zdrowotnej korzystali ze źródeł elektronicznych, takich jak PubMed , Medline i Google , nastąpił „od małego do średniego” wzrost poprawnych odpowiedzi, podczas gdy w równie małym odsetku przypadków ich użycie było wprowadzane w błąd. tych źródeł i zmieniono poprawne na nieprawidłowe odpowiedzi.

Badania przeprowadzone w 2004 i 2008 roku, które dotyczyły wpływu automatycznych pomocy na diagnozowanie raka piersi , dostarczyły wyraźnych dowodów na to, że automatyzacja obejmuje błędy pominięć. Nowotwory zdiagnozowane w 46% przypadków bez zautomatyzowanych pomocy wykryto tylko w 21% przypadków z automatycznymi urządzeniami, które nie wykryły nowotworu.

Wojskowy

Stronniczość automatyzacji może być kluczowym czynnikiem w wykorzystaniu inteligentnych systemów wspomagania decyzji w wojskowych operacjach dowodzenia i kontroli. Jedno z badań z 2004 r. wykazało, że efekty stronniczości automatyzacji przyczyniły się do wielu śmiertelnych decyzji wojskowych, w tym do zabójstw podczas wojny w Iraku . Naukowcy starali się określić właściwy LOA dla systemów wspomagania decyzji w tej dziedzinie.

Automobilowy

Samozadowolenie w zakresie automatyzacji jest również wyzwaniem dla zautomatyzowanych systemów jazdy, w których człowiek musi jedynie monitorować system lub działać jako kierowca awaryjny. Jest to na przykład omówione w raporcie Krajowej Rady Bezpieczeństwa Transportu na temat śmiertelnego wypadku pojazdu testowego UBER z pieszą Elaine Herzberg .

Korygowanie stronniczości

Stronniczość w zakresie automatyzacji można złagodzić poprzez projektowanie zautomatyzowanych systemów, takich jak zmniejszenie widoczności wyświetlacza, zmniejszenie szczegółowości lub złożoności wyświetlanych informacji lub przedstawienie automatycznej pomocy jako informacji pomocniczych, a nie jako dyrektyw lub poleceń. Wykazano, że szkolenie na zautomatyzowanym systemie, które obejmuje wprowadzanie zamierzonych błędów, jest znacznie bardziej skuteczne w zmniejszaniu błędu automatyzacji niż tylko informowanie użytkowników, że mogą wystąpić błędy. Jednak nadmierne sprawdzanie i kwestionowanie zautomatyzowanej pomocy może zwiększyć presję czasu i złożoność zadań, zmniejszając w ten sposób korzyści z automatycznej pomocy, więc projektowanie zautomatyzowanego systemu wspomagania decyzji może raczej zrównoważyć pozytywne i negatywne skutki niż próbować wyeliminować negatywne skutki.

Zobacz też

Bibliografia

Dalsza lektura

Zewnętrzne linki