Wpływ sztucznej inteligencji na miejsce pracy - Workplace impact of artificial intelligence

Zbliżenie szyi i górnej części tułowia osoby z czarnym prostokątnym czujnikiem i kamerą przymocowanymi do kołnierza koszuli
Sieci czujników do noszenia na ciele obsługujące sztuczną inteligencję mogą poprawić bezpieczeństwo i zdrowie pracowników dzięki dostępowi do spersonalizowanych danych w czasie rzeczywistym, ale stwarzają również zagrożenia psychospołeczne, takie jak mikrozarządzanie , postrzeganie nadzoru i obawy dotyczące bezpieczeństwa informacji .

Wpływ sztucznej inteligencji na pracowników obejmuje zarówno aplikacje poprawiające bezpieczeństwo i zdrowie pracowników , jak i potencjalne zagrożenia, które należy kontrolować.

Jednym z potencjalnych zastosowań jest wykorzystanie sztucznej inteligencji do eliminowania zagrożeń poprzez usuwanie ludzi z niebezpiecznych sytuacji, które wiążą się z ryzykiem stresu , przepracowania lub urazów układu mięśniowo-szkieletowego . Analityka predykcyjna może być również wykorzystywana do identyfikowania warunków, które mogą prowadzić do zagrożeń, takich jak zmęczenie , powtarzające się urazy przeciążeniowe lub narażenie na substancje toksyczne , co prowadzi do wcześniejszych interwencji. Innym jest usprawnienie przepływu pracy w zakresie bezpieczeństwa i higieny pracy poprzez automatyzację powtarzalnych zadań, usprawnienie programów szkoleniowych w zakresie bezpieczeństwa poprzez wirtualną rzeczywistość lub wykrywanie i zgłaszanie zdarzeń potencjalnie wypadkowych .

Sztuczna inteligencja wykorzystywana w miejscu pracy stwarza również możliwość pojawienia się nowych zagrożeń. Mogą one wynikać z Machine Learning technik prowadzących do nieprzewidywalnych zachowań i niepoznawalność w podejmowaniu decyzji, czy z ich cyberbezpieczeństwa i prywatności informacyjnych zagadnień. Wiele zagrożeń związanych ze sztuczną inteligencją ma charakter psychospołeczny, ponieważ może powodować zmiany w organizacji pracy. Obejmują one zmiany w umiejętnościach wymaganych od pracowników, zwiększone monitorowanie prowadzące do mikrozarządzania , algorytmy nieświadomie lub celowo naśladujące niepożądane ludzkie uprzedzenia oraz przypisywanie winy za błędy maszyny operatorowi. Sztuczna inteligencja może również prowadzić do zagrożeń fizycznych w postaci kolizji człowiek-robot oraz zagrożeń ergonomicznych interfejsów sterowania i interakcji człowiek-maszyna. Kontrola zagrożeń obejmuje cyberbezpieczeństwo i środki ochrony prywatności informacji, komunikację i przejrzystość z pracownikami w zakresie wykorzystania danych oraz ograniczenia dotyczące robotów współpracujących .

Z punktu widzenia bezpieczeństwa i zdrowia w miejscu pracy istotna jest tylko „słaba” lub „wąska” sztuczna inteligencja dostosowana do konkretnego zadania, ponieważ istnieje wiele przykładów, które są obecnie w użyciu lub mają wejść do użytku w najbliższej przyszłości. Oczekuje się, że „silna” lub „ogólna” sztuczna inteligencja nie będzie możliwa w najbliższej przyszłości, a dyskusja na temat jej zagrożeń leży w gestii futurystów i filozofów, a nie higienistów przemysłowych .

Aplikacje BHP

W celu przyjęcia jakiegokolwiek potencjalnego zastosowania AI w zakresie zdrowia i bezpieczeństwa, wymaga ono akceptacji zarówno przez kierowników, jak i pracowników. Na przykład akceptację pracowników mogą zmniejszyć obawy o prywatność informacji lub brak zaufania i akceptacji nowej technologii, co może wynikać z niewystarczającej przejrzystości lub szkolenia. Alternatywnie, przy wdrażaniu systemów opartych na sztucznej inteligencji menedżerowie mogą kłaść nacisk na wzrost wydajności ekonomicznej, a nie na poprawę bezpieczeństwa i zdrowia pracowników.

Eliminacja niebezpiecznych zadań

Duże pomieszczenie z podwieszanym sufitem wypełnione szafami z monitorami komputerowymi
Call center wiąże się ze znacznymi zagrożeniami psychospołecznymi z powodu nadzoru i przepracowania. AI-enabled chatboty można usunąć robotników z najbardziej podstawowych i powtarzalne z tych zadań.

Sztuczna inteligencja może zwiększyć zakres zadań roboczych, w których pracownik może zostać usunięty z sytuacji niosącej ryzyko . W pewnym sensie, podczas gdy tradycyjna automatyzacja może zastąpić funkcje ciała pracownika robotem, sztuczna inteligencja skutecznie zastępuje funkcje ich mózgu komputerem. Zagrożenia, których można uniknąć, to stres, przepracowanie, urazy mięśniowo-szkieletowe i nuda.

Może to poszerzyć zakres dotkniętych sektorów pracy o pracę umysłową i sektor usług, takich jak medycyna, finanse i technologie informacyjne. Na przykład pracownicy call center są narażeni na poważne zagrożenia dla zdrowia i bezpieczeństwa ze względu na ich powtarzalny i wymagający charakter oraz wysokie wskaźniki mikronadzoru. AI-enabled chatboty obniżyć zapotrzebowanie na ludzi do wykonywania najbardziej podstawowych zadań call center.

Analityka w celu zmniejszenia ryzyka

Rysunek przedstawiający mężczyznę podnoszącego ciężar na urządzenie, z zaznaczonymi różnymi odległościami
Równanie podnoszenia NIOSH jest skalibrowane dla typowego zdrowego pracownika, aby uniknąć urazów pleców , ale metody oparte na sztucznej inteligencji mogą zamiast tego umożliwiać spersonalizowane obliczanie ryzyka w czasie rzeczywistym.

Uczenie maszynowe służy do analizy ludzi w celu przewidywania zachowań pracowników, aby wspomóc podejmowanie decyzji kierowniczych, takich jak zatrudnienie i ocena wydajności. Można je również wykorzystać do poprawy zdrowia pracowników. Analizy mogą opierać się na danych wejściowych, takich jak działania online, monitorowanie komunikacji, śledzenie lokalizacji oraz analiza głosu i analiza mowy ciała sfilmowanych wywiadów. Na przykład analiza sentymentu może być wykorzystana do wykrycia zmęczenia, aby zapobiec przepracowaniu . Systemy wspomagania decyzji mają podobną zdolność do wykorzystania na przykład w zapobieganiu katastrofom przemysłowym lub usprawnianiu reagowania na katastrofy .

W przypadku pracowników zajmujących się ręczną obsługą materiałów analizy predykcyjne i sztuczna inteligencja mogą być stosowane w celu ograniczenia urazów układu mięśniowo-szkieletowego . Tradycyjne wytyczne opierają się na średnich statystycznych i są nastawione na typowych antropometrycznie ludzi. Analiza dużych ilości danych z czujników noszonych na ciele może umożliwić spersonalizowane obliczanie w czasie rzeczywistym zarządzania ryzykiem ergonomicznym i zmęczeniem , a także lepszą analizę ryzyka związanego z określonymi rolami zawodowymi.

Czujniki nadające się do noszenia mogą również umożliwić wcześniejszą interwencję przeciwko narażeniu na działanie substancji toksycznych, niż jest to możliwe w przypadku okresowego testowania obszaru lub strefy oddechowej. Ponadto wygenerowane duże zbiory danych mogą usprawnić nadzór nad zdrowiem w miejscu pracy , ocenę ryzyka i badania.

Usprawnienie przepływów pracy w zakresie bezpieczeństwa i zdrowia

Sztuczną inteligencję można również wykorzystać do usprawnienia przepływu pracy w zakresie bezpieczeństwa i zdrowia w miejscu pracy. Jednym z przykładów jest kodowanie roszczeń odszkodowawczych dla pracowników , które są składane w formie narracji prozą i muszą być ręcznie przypisywane znormalizowanym kodom. Sztuczna inteligencja jest badana, aby wykonać to zadanie szybciej, taniej i z mniejszą liczbą błędów.

Systemy rzeczywistości wirtualnej obsługujące sztuczną inteligencję mogą być przydatne do szkolenia w zakresie bezpieczeństwa w celu rozpoznawania zagrożeń.

Sztuczną inteligencję można wykorzystać do skuteczniejszego wykrywania sytuacji potencjalnie wypadkowych . Zgłaszanie i analiza zdarzeń potencjalnie wypadkowych są ważne dla zmniejszenia wskaźnika wypadków, ale często są one zaniżone, ponieważ nie są zauważane przez ludzi lub nie są zgłaszane przez pracowników ze względu na czynniki społeczne.

Zagrożenia

Rysunek przedstawiający tylną prostokątną bryłę oznaczoną „czarną skrzynką”, ze strzałką wchodzącą oznaczoną „wejście/bodziec” i strzałką wychodzącą oznaczoną „wyjście/odpowiedź”
Niektóre uczenia maszynowego metody treningowe są podatne na unpredictabiliy i niepoznawalność w podejmowaniu decyzji, które mogą prowadzić do zagrożenia, jeśli menedżerowie lub pracownicy nie mogą przewidzieć ani zrozumieć zachowanie systemu opartego na AI.

Istnieje kilka ogólnych aspektów sztucznej inteligencji, które mogą powodować określone zagrożenia. Ryzyko zależy od wdrożenia, a nie od samej obecności sztucznej inteligencji.

Systemy wykorzystujące podsymboliczną sztuczną inteligencję, takie jak uczenie maszynowe, mogą zachowywać się nieprzewidywalnie i są bardziej podatne na niejasność podczas podejmowania decyzji. Jest to szczególnie ważne w przypadku napotkania sytuacji, która nie była częścią zestawu danych treningowych sztucznej inteligencji , a nasila się w środowiskach o mniejszej strukturze. Niepożądane zachowanie może również wynikać z wad percepcji systemu (wynikających z oprogramowania lub degradacji czujnika ), reprezentacji wiedzy i rozumowania lub z błędów oprogramowania . Mogą wynikać z niewłaściwego szkolenia, na przykład zastosowania przez użytkownika tego samego algorytmu do dwóch problemów, które nie mają takich samych wymagań. Uczenie maszynowe stosowane w fazie projektowania może mieć inne konsekwencje niż te stosowane w czasie wykonywania . Systemy wykorzystujące symboliczną sztuczną inteligencję są mniej podatne na nieprzewidywalne zachowania.

Korzystanie ze sztucznej inteligencji zwiększa również ryzyko cyberbezpieczeństwa w odniesieniu do platform, które nie wykorzystują sztucznej inteligencji, a obawy dotyczące prywatności informacji w zakresie gromadzonych danych mogą stanowić zagrożenie dla pracowników.

Psychospołeczne

Wprowadzenie nowych technologii wykorzystujących sztuczną inteligencję może prowadzić do zmian w praktykach pracy, które niosą ze sobą zagrożenia psychospołeczne, takie jak konieczność przekwalifikowania się lub strach przed bezrobociem technologicznym .

Zagrożenia psychospołeczne to te, które wynikają ze sposobu projektowania, organizacji i zarządzania pracą lub jej kontekstów ekonomicznych i społecznych, a nie z fizycznej substancji lub przedmiotu. Powodują one nie tylko psychiatrycznych i psychologicznych efektów takich jak wypalenia zawodowego , zaburzeń lękowych i depresji , ale mogą również powodować zranienia lub choroby, takie jak choroby układu krążenia lub układu mięśniowo-szkieletowego obrażeń . Wiele zagrożeń związanych ze sztuczną inteligencją ma charakter psychospołeczny ze względu na możliwość powodowania zmian w organizacji pracy pod względem rosnącej złożoności i interakcji między różnymi czynnikami organizacyjnymi. Jednak projektanci zaawansowanych systemów produkcyjnych często pomijają zagrożenia psychospołeczne.

Zmiany w praktykach pracy

Oczekuje się, że sztuczna inteligencja doprowadzi do zmian w umiejętnościach wymaganych od pracowników, wymagając szkolenia obecnych pracowników, elastyczności i otwartości na zmiany. Wymóg łączenia konwencjonalnej wiedzy z umiejętnościami obsługi komputera może stanowić wyzwanie dla obecnych pracowników. Nadmierne poleganie na narzędziach sztucznej inteligencji może prowadzić do utraty umiejętności niektórych zawodów.

Zwiększone monitorowanie może prowadzić do mikrozarządzania, a tym samym do stresu i niepokoju. Postrzeganie nadzoru może również prowadzić do stresu. Kontrole w tym zakresie obejmują konsultacje z grupami pracowników, obszerne testy i zwracanie uwagi na wprowadzone uprzedzenia. Czujniki do noszenia na ciele , urządzenia do śledzenia aktywności i rzeczywistość rozszerzona mogą również powodować stres związany z mikrozarządzaniem, zarówno dla pracowników linii montażowej, jak i pracowników koncertów . Gigantom brakuje również ochrony prawnej i praw formalnych pracowników.

Istnieje również ryzyko, że ludzie będą zmuszani do pracy w tempie robota lub do monitorowania pracy robota w niestandardowych godzinach.

Stronniczość

Algorytmy wytrenowane na podstawie wcześniejszych decyzji mogą naśladować niepożądane ludzkie uprzedzenia , na przykład dyskryminujące praktyki zatrudniania i zwalniania z pracy w przeszłości . Asymetria informacji między kierownictwem a pracownikami może prowadzić do stresu, jeśli pracownicy nie mają dostępu do danych lub algorytmów, które są podstawą podejmowania decyzji.

Oprócz budowania modelu z nieumyślnie dyskryminującymi cechami, celowa dyskryminacja może nastąpić poprzez zaprojektowanie metryk, które potajemnie prowadzą do dyskryminacji przez skorelowane zmienne w nieoczywisty sposób.

W złożonych interakcjach człowiek-maszyna niektóre podejścia do analizy wypadków mogą być tendencyjne, aby chronić system technologiczny i jego twórców, przypisując winę poszczególnym ludzkim operatorom.

Fizyczny

Żółty prostokątny robot wózka widłowego na kółkach w magazynie, z widocznymi stosami pudeł i dodatkowymi podobnymi robotami za nim
Zautomatyzowane pojazdy kierowane to przykłady powszechnie stosowanych cobotów . Wykorzystanie sztucznej inteligencji do obsługi tych robotów może wpłynąć na ryzyko zagrożeń fizycznych, takich jak kolizja robota lub jego ruchomych części z pracownikami.

Zagrożenia fizyczne w postaci kolizji człowieka z robotem mogą wynikać z robotów wykorzystujących sztuczną inteligencję, zwłaszcza robotów współpracujących ( cobotów ). Coboty przeznaczone są do pracy w bezpośredniej bliskości człowieka, co uniemożliwia powszechne kontrolowanie zagrożeń związanych z izolowaniem robota za pomocą ogrodzeń lub innych barier, co jest szeroko stosowane w przypadku tradycyjnych robotów przemysłowych . Zautomatyzowane pojazdy kierowane to rodzaj cobota, który od 2019 r. jest powszechnie używany, często jako wózki widłowe lub wózki paletowe w magazynach lub fabrykach . W przypadku cobotów awarie czujników lub nieoczekiwane warunki środowiska pracy mogą prowadzić do nieprzewidywalnego zachowania robota, a tym samym do kolizji człowieka z robotem.

Samochody autonomiczne to kolejny przykład robotów obsługujących sztuczną inteligencję. Ponadto ergonomia interfejsów sterowania i interakcji człowiek-maszyna może powodować zagrożenia.

Kontrola zagrożeń

Sztuczna inteligencja, podobnie jak inne technologie obliczeniowe, wymaga środków cyberbezpieczeństwa w celu powstrzymania naruszeń i włamań do oprogramowania, a także środków ochrony prywatności informacji . Komunikacja i przejrzystość z pracownikami w zakresie wykorzystania danych to kontrola zagrożeń psychospołecznych wynikających z kwestii bezpieczeństwa i prywatności. Proponowane najlepsze praktyki w ramach programów monitorowania pracowników sponsorowanych przez pracodawcę obejmują stosowanie wyłącznie zatwierdzonych technologii czujników; zapewnienie dobrowolnego udziału pracowników; zaprzestanie zbierania danych poza miejscem pracy; ujawnianie wszystkich zastosowań danych; oraz zapewnienie bezpiecznego przechowywania danych.

W przypadku cobotów przemysłowych wyposażonych w czujniki obsługujące sztuczną inteligencję Międzynarodowa Organizacja Normalizacyjna (ISO) zaleciła: a) monitorowane elementy sterujące zatrzymywania związane z bezpieczeństwem; (b) prowadzenie cobota przez ludzką rękę; c) urządzenia sterujące monitorowaniem prędkości i separacji; oraz d) ograniczenia mocy i siły. Coboty obsługujące sztuczną inteligencję w sieci mogą udostępniać sobie nawzajem ulepszenia w zakresie bezpieczeństwa. Nadzór człowieka to kolejna ogólna kontrola zagrożeń dla sztucznej inteligencji.

Zarządzanie ryzykiem

Zarówno zastosowania, jak i zagrożenia wynikające ze sztucznej inteligencji można uznać za część istniejących ram zarządzania ryzykiem w zakresie bezpieczeństwa i higieny pracy . Podobnie jak w przypadku wszystkich zagrożeń, identyfikacja ryzyka jest najskuteczniejsza i najmniej kosztowna w fazie projektowania .

Nadzór stanu zdrowia w miejscu pracy , gromadzenie i analiza danych dotyczących zdrowia pracowników, stanowi wyzwanie dla sztucznej inteligencji, ponieważ dane dotyczące pracy są często zgłaszane zbiorczo i nie zawierają podziału na różne rodzaje pracy, a skupiają się raczej na danych ekonomicznych, takich jak zarobki i wskaźniki zatrudnienia. niż zawartość umiejętności pracy. Zamienniki dla treści umiejętności obejmują wymagania edukacyjne i klasyfikacje pracy rutynowej i nierutynowej oraz pracy poznawczej i fizycznej. Jednak mogą one nadal nie być wystarczająco szczegółowe, aby odróżnić konkretne zawody, które mają odmienny wpływ na sztuczną inteligencję. Amerykański Departament Pracy „s Pracy Sieci Informacji jest przykładem bazy danych ze szczegółowym taksonomii umiejętności. Ponadto dane są często przekazywane na poziomie krajowym, podczas gdy istnieje duże zróżnicowanie geograficzne, zwłaszcza między obszarami miejskimi i wiejskimi.

Normy i przepisy

Od 2019 r. ISO opracowuje standard dotyczący stosowania wskaźników i pulpitów nawigacyjnych , wyświetlaczy informacyjnych prezentujących wskaźniki firmy dla menedżerów w miejscach pracy. Planuje się, że standard będzie zawierał wytyczne dotyczące zarówno gromadzenia danych, jak i wyświetlania ich w czytelny i użyteczny sposób.

W Unii Europejskiej , ogólne rozporządzenie o ochronie danych , natomiast zorientowany danych konsumenckich, jest również istotne dla zbierania danych w miejscu pracy. Podmioty danych, w tym pracownicy, mają „prawo do niepodlegania decyzji opartej wyłącznie na zautomatyzowanym przetwarzaniu”. Inne odpowiednie dyrektywy UE obejmują dyrektywę maszynową (2006/42/WE), dyrektywę w sprawie urządzeń radiowych (2014/53/UE) oraz dyrektywę w sprawie ogólnego bezpieczeństwa produktów (2001/95/WE).

Bibliografia