Etyka sztucznej inteligencji - Ethics of artificial intelligence

W etyka sztucznej inteligencji jest gałęzią z etyki technologii specyficznych dla sztucznie inteligentnych systemów. Czasami dzieli się na troskę o moralne zachowanie ludzi, którzy projektują, wytwarzają, używają i traktują sztucznie inteligentne systemy, oraz troskę o zachowanie maszyn w etyce maszyn . Obejmuje również kwestię możliwej osobliwości ze względu na superinteligentną sztuczną inteligencję .

Podejścia do dziedzin etyki

Etyka robotów

Termin „etyka robotów” (czasami „roboetyka”) odnosi się do moralności tego, jak ludzie projektują, konstruują, używają i traktują roboty. Etyka robotów przecina się z etyką AI. Roboty to fizyczne maszyny, podczas gdy sztuczna inteligencja może być tylko oprogramowaniem. Nie wszystkie roboty działają poprzez systemy AI i nie wszystkie systemy AI są robotami. Etyka robotów dotyczy tego, w jaki sposób maszyny mogą być wykorzystywane do krzywdzenia lub przynoszenia korzyści ludziom, ich wpływu na indywidualną autonomię oraz ich wpływu na sprawiedliwość społeczną.

Etyka maszyn

Etyka maszyn (lub moralność maszyn) to dziedzina badań zajmująca się projektowaniem sztucznych agentów moralnych (AMA), robotów lub sztucznie inteligentnych komputerów, które zachowują się moralnie lub jakby moralnie. W celu uwzględnienia charakteru tych środków, sugerowano, aby rozważyć pewne idee filozoficzne, jak standardowy charakteryzowania agencji , racjonalnego agencji , moralnego i sztucznej agencji, które są związane z koncepcją AMA.

Isaac Asimov rozważał tę kwestię w latach 50. w swoim I, Robot . Pod naciskiem swojego redaktora Johna W. Campbella Jr. zaproponował trzy prawa robotyki do zarządzania sztucznie inteligentnymi systemami. Większość jego pracy została następnie poświęcona na testowanie granic jego trzech praw, aby zobaczyć, gdzie się załamią lub gdzie wywołają paradoksalne lub nieoczekiwane zachowanie. Jego praca sugeruje, że żaden zestaw stałych praw nie jest w stanie wystarczająco przewidzieć wszystkich możliwych okoliczności. Niedawno naukowcy i wiele rządów zakwestionowało pomysł, że samą sztuczną inteligencję można pociągać do odpowiedzialności. Panel zwołany przez Wielką Brytanię w 2010 r. zrewidował przepisy Asimova, aby wyjaśnić, że AI jest obowiązkiem albo jej producentów, albo jej właściciela/operatora.

W 2009 roku podczas eksperymentu w Laboratorium Systemów Inteligentnych w Ecole Polytechnique Fédérale w Lozannie w Szwajcarii roboty zaprogramowane do współpracy (w poszukiwaniu korzystnego zasobu i unikaniu trującego) nauczyły się okłamywać każdego inne, próbując zgromadzić pożyteczny zasób.

Niektórzy eksperci i naukowcy kwestionują wykorzystanie robotów w walce wojskowej, zwłaszcza gdy takie roboty mają pewien stopień autonomicznych funkcji. Marynarka Wojenna Stanów Zjednoczonych sfinansowała raport, z którego wynika, że ​​w miarę jak roboty wojskowe stają się coraz bardziej złożone, należy zwracać większą uwagę na implikacje ich zdolności do podejmowania autonomicznych decyzji. Prezes Stowarzyszenia na rzecz Rozwoju Sztucznej Inteligencji zlecił wykonanie badania, które ma na celu przyjrzenie się tej kwestii. Wskazują na programy takie jak Urządzenie Akwizycji Języka, które mogą naśladować ludzką interakcję.

Vernor Vinge zasugerował, że może nadejść moment, w którym niektóre komputery będą mądrzejsze od ludzi. Nazywa to „ osobliwością ”. Sugeruje, że może to być nieco lub być może bardzo niebezpieczne dla ludzi. Jest to omawiane w filozofii zwanej Singularitarianism . Maszyna Intelligence Research Institute sugerował potrzebę budowania „ Friendly AI ”, co oznacza, że zaliczki, które są już występujące z AI powinny obejmować również starań, aby AI natury przyjazny i humanitarny.

Trwa dyskusja na temat tworzenia testów, aby sprawdzić, czy sztuczna inteligencja jest zdolna do podejmowania etycznych decyzji . Alan Winfield dochodzi do wniosku, że test Turinga jest wadliwy, a wymagania, aby sztuczna inteligencja zdała test, jest zbyt niska. Proponowany alternatywny test to taki zwany etycznym testem Turinga, który poprawiłby obecny test, gdyby wielu sędziów zdecydowało, czy decyzja AI jest etyczna, czy nieetyczna.

W 2009 roku naukowcy i eksperci techniczni wzięli udział w konferencji zorganizowanej przez Association for the Advancement of Artificial Intelligence, aby omówić potencjalny wpływ robotów i komputerów oraz wpływ hipotetycznej możliwości, że mogą stać się samowystarczalne i zdolne do podejmowania własnych decyzji . Dyskutowali o możliwości i zakresie, w jakim komputery i roboty mogą być w stanie uzyskać dowolny poziom autonomii oraz w jakim stopniu mogą wykorzystać te zdolności do stwarzania zagrożenia lub zagrożenia. Zauważyli, że niektóre maszyny uzyskały różne formy półautonomii, w tym możliwość samodzielnego znajdowania źródeł zasilania i samodzielnego wybierania celów do ataku za pomocą broni. Zauważyli również, że niektóre wirusy komputerowe mogą uniknąć eliminacji i osiągnęły „inteligencję karaluchów”. Zauważyli, że samoświadomość przedstawiona w science-fiction jest prawdopodobnie mało prawdopodobna, ale istnieją inne potencjalne zagrożenia i pułapki.

Jest jednak jedna technologia, która może naprawdę wprowadzić w rzeczywistość możliwość robotów o moralnych kompetencjach. W artykule na temat nabywania wartości moralnych przez roboty Nayef Al-Rodhan wspomina o przypadku chipów neuromorficznych , które mają przetwarzać informacje podobnie jak ludzie, nieliniowo i z milionami połączonych ze sobą sztucznych neuronów. Roboty osadzone w technologii neuromorficznej mogą uczyć się i rozwijać wiedzę w wyjątkowo ludzki sposób. Nieuchronnie pojawia się pytanie, w jakim środowisku takie roboty poznałyby świat i czyją moralność odziedziczyłyby – czy też rozwiną w sobie także ludzkie „słabości”: egoizm, nastawienie na przetrwanie, wahanie itp.

W Moral Machines: Teaching Robots Right from Wrong Wendell Wallach i Colin Allen konkludują, że próby uczenia robotów dobra od zła prawdopodobnie przyczynią się do lepszego zrozumienia ludzkiej etyki poprzez motywowanie ludzi do rozwiązywania luk we współczesnej teorii normatywnej i dostarczanie platformy do eksperymentalnych badań. Jako jeden z przykładów wprowadziła normatywnych etyków do kontrowersyjnej kwestii, jakich konkretnych algorytmów uczenia się używać w maszynach. Nick Bostrom i Eliezer Yudkowsky argumentowali na rzecz drzew decyzyjnych (takich jak ID3 ) nad sieciami neuronowymi i algorytmami genetycznymi na tej podstawie, że drzewa decyzyjne przestrzegają współczesnych społecznych norm przejrzystości i przewidywalności (np. stare decyzje ), podczas gdy Chris Santos-Lang argumentował odwrotnie kierunek na tej podstawie, że normy w każdym wieku muszą ulec zmianie i że naturalne niepowodzenie w pełnym spełnieniu tych szczególnych norm jest niezbędne, aby ludzie byli mniej podatni na przestępczych „ hakerów ”.

Według raportu Center for the Governance of AI na Uniwersytecie Oksfordzkim z 2019 r. 82% Amerykanów uważa, że ​​roboty i sztuczną inteligencję należy starannie zarządzać. Przytaczane obawy dotyczyły sposobu wykorzystania sztucznej inteligencji w inwigilacji i rozpowszechnianiu fałszywych treści w Internecie (znanych jako głębokie fałszerstwa, gdy zawierają spreparowane obrazy wideo i dźwięki generowane z pomocą sztucznej inteligencji) po cyberataki, naruszenia prywatności danych, stronniczość w zatrudnianiu, pojazdy autonomiczne i drony, które nie wymagają ludzkiego kontrolera.

Zasady etyczne sztucznej inteligencji

W przeglądzie 84 wytycznych etycznych dla AI znaleziono 11 grup zasad: przejrzystość, sprawiedliwość i uczciwość, nieszkodzenie, odpowiedzialność, prywatność, dobroczynność, wolność i autonomia, zaufanie, zrównoważony rozwój, godność, solidarność.

Luciano Floridi i Josh Cowls stworzyli ramy etyczne zasad sztucznej inteligencji określone przez cztery zasady bioetyki ( dobroczynność , nieszkodzenie , autonomia i sprawiedliwość ) oraz dodatkową zasadę umożliwiającą sztuczną inteligencję – wyjaśnialność.

Przejrzystość, odpowiedzialność i open source

Bill Hibbard twierdzi, że ponieważ sztuczna inteligencja będzie miała tak głęboki wpływ na ludzkość, twórcy AI są przedstawicielami przyszłej ludzkości, a zatem mają etyczny obowiązek transparentności w swoich wysiłkach. Ben Goertzel i David Hart stworzyli OpenCog jako platformę open source do rozwoju sztucznej inteligencji. OpenAI to niedochodowa firma badawcza AI stworzona przez Elona Muska , Sama Altmana i innych w celu opracowania AI o otwartym kodzie źródłowym, która jest korzystna dla ludzkości. Istnieje wiele innych rozwiązań sztucznej inteligencji typu open source.

Niestety, tworzenie kodu open source nie czyni go zrozumiałym, co przez wiele definicji oznacza, że ​​kod AI nie jest przejrzysty. IEEE ma wysiłek normalizacji w zakresie przejrzystości AI. Wysiłek IEEE identyfikuje wiele skal przejrzystości dla różnych użytkowników. Co więcej, istnieje obawa, że ​​udostępnienie pełnych możliwości współczesnej sztucznej inteligencji niektórym organizacjom może być publicznym złem, czyli wyrządzić więcej szkody niż pożytku. Na przykład Microsoft wyraził zaniepokojenie umożliwieniem powszechnego dostępu do swojego oprogramowania do rozpoznawania twarzy, nawet tym, którzy mogą za to zapłacić. Microsoft opublikował niezwykły blog na ten temat, prosząc o regulacje rządowe, które pomogą określić, co należy zrobić.

Nie tylko firmy, ale także wielu innych badaczy i rzeczników obywateli zaleca regulacje rządowe jako sposób na zapewnienie przejrzystości, a dzięki niej ludzkiej odpowiedzialności. Ta strategia okazała się kontrowersyjna, ponieważ niektórzy obawiają się, że spowolni ona tempo innowacji. Inni twierdzą, że regulacja prowadzi do stabilności systemowej, która w dłuższej perspektywie jest bardziej zdolna do wspierania innowacji. OECD , ONZ , UE i wielu krajach są obecnie pracuje nad strategiami dla regulacji AI, a znalezienie odpowiednich ram prawnych.

26 czerwca 2019 r. Grupa ekspertów wysokiego szczebla Komisji Europejskiej ds. sztucznej inteligencji (AI HLEG) opublikowała „Zalecenia dotyczące polityki i inwestycji na rzecz wiarygodnej sztucznej inteligencji”. Jest to drugi dokument grupy HLEG AI, po publikacji „Wytycznych etycznych dla godnej zaufania sztucznej inteligencji” z kwietnia 2019 r. Zalecenia HLEG z czerwca AI dotyczą czterech głównych tematów: ludzi i społeczeństwa w ogólności, badań i środowisk akademickich, sektora prywatnego i sektora publicznego. Komisja Europejska twierdzi, że „zalecenia HLEG odzwierciedlają uznanie zarówno możliwości, jakie technologie sztucznej inteligencji mogą napędzać wzrost gospodarczy, dobrobyt i innowacje, jak również potencjalnego ryzyka” i stwierdza, że ​​UE dąży do przewodzenia w kształtowaniu polityki regulującej sztuczną inteligencję na arenie międzynarodowej.

Wyzwania etyczne

Błędy w systemach AI

Senator USA Kamala Harris mówi o uprzedzeniach rasowych w sztucznej inteligencji w 2020 roku

Sztuczna inteligencja staje się coraz bardziej nieodłączna w systemach rozpoznawania twarzy i głosu . Niektóre z tych systemów mają rzeczywiste zastosowania biznesowe i bezpośrednio wpływają na ludzi. Systemy te są podatne na uprzedzenia i błędy wprowadzane przez ich ludzkich twórców. Ponadto dane wykorzystywane do szkolenia tych systemów sztucznej inteligencji mogą zawierać błędy. Na przykład algorytmy rozpoznawania twarzy stworzone przez Microsoft, IBM i Face++ miały stronniczość, jeśli chodzi o wykrywanie płci; Te systemy sztucznej inteligencji były w stanie dokładniej wykryć płeć białych mężczyzn niż płeć mężczyzn o ciemnej skórze. Co więcej, badanie z 2020 r., w którym dokonano przeglądu systemów rozpoznawania głosu Amazon, Apple, Google, IBM i Microsoft, wykazało, że mają one wyższy wskaźnik błędów podczas transkrypcji głosów osób czarnoskórych niż białych. Co więcej, Amazon zaprzestał korzystania z zatrudniania i rekrutacji AI, ponieważ algorytm faworyzował kandydatów płci męskiej niż żeńskiej. Wynikało to z tego, że system Amazona został przeszkolony na podstawie danych zebranych przez okres 10 lat, które pochodziły głównie od kandydatów płci męskiej.

Stronniczość może wkraść się do algorytmów na wiele sposobów. Na przykład Friedman i Nissenbaum identyfikują trzy kategorie stronniczości w systemach komputerowych: stronniczość istniejącą, stronniczość techniczną i stronniczość pojawiającą się. W przetwarzaniu języka naturalnego problemy mogą wynikać z korpusu tekstowego — materiału źródłowego, którego algorytm używa do poznawania relacji między różnymi słowami.

Duże firmy, takie jak IBM, Google itp., podjęły wysiłki, aby zbadać i rozwiązać te uprzedzenia. Jednym z rozwiązań przeciwdziałania stronniczości jest stworzenie dokumentacji dla danych wykorzystywanych do szkolenia systemów sztucznej inteligencji.

Problem stronniczości w uczeniu maszynowym prawdopodobnie stanie się bardziej znaczący, gdy technologia rozprzestrzeni się na krytyczne obszary, takie jak medycyna i prawo, a coraz więcej osób bez głębokiego zrozumienia technicznego ma za zadanie jej wdrożenie. Niektórzy eksperci ostrzegają, że błąd algorytmiczny jest już wszechobecny w wielu branżach i że prawie nikt nie stara się go zidentyfikować lub skorygować. Społeczeństwa obywatelskie oferują narzędzia o otwartym kodzie źródłowym, które chcą zwiększyć świadomość stronniczości sztucznej inteligencji.

Prawa robota

„Prawa robotów” to koncepcja, zgodnie z którą ludzie powinni mieć moralne zobowiązania wobec swoich maszyn, podobne do praw człowieka czy praw zwierząt . Zasugerowano, że prawa robota (takie jak prawo do istnienia i wykonywania własnej misji) można powiązać z obowiązkiem robota w służbie ludzkości, analogicznie do łączenia praw człowieka z obowiązkami człowieka wobec społeczeństwa. Mogą one obejmować prawo do życia i wolności, wolność myśli i wypowiedzi oraz równość wobec prawa. Kwestia ta została rozpatrzona przez Institute for the Future oraz przez brytyjski Departament Handlu i Przemysłu .

Eksperci nie są zgodni co do tego, jak szybko potrzebne będą szczegółowe i szczegółowe przepisy dotyczące tego tematu. Glenn McGee poinformował, że do 2020 r. mogą pojawić się wystarczająco humanoidalne roboty, natomiast Ray Kurzweil wyznacza datę na 2029 r. Inna grupa naukowców, która spotkała się w 2007 r., przypuszczała, że ​​musi upłynąć co najmniej 50 lat, zanim zaistnieje jakikolwiek wystarczająco zaawansowany system.

Regulamin konkursu Loebner Prize 2003 przewidywał, że roboty będą miały własne prawa:

61. Jeśli w danym roku ogólnodostępne zgłoszenie open-source zgłoszone przez University of Surrey lub Cambridge Center zdobędzie Srebrny lub Złoty Medal, wówczas Medal i Nagroda Pieniężna zostaną przyznane organowi odpowiedzialnemu za opracowanie tego wpisu. W przypadku braku możliwości zidentyfikowania takiego organu lub w przypadku braku porozumienia między dwoma lub więcej wnioskodawcami Medal i Nagroda pieniężna będą powierzone do czasu, gdy Zgłoszenie będzie mogło legalnie posiadać, w Stanach Zjednoczonych lub w Stanach Zjednoczonych Ameryki. miejsce konkursu, nagroda pieniężna i złoty medal.

W październiku 2017 r. android Sophia otrzymał „honorowe” obywatelstwo Arabii Saudyjskiej , choć niektórzy uważali, że jest to bardziej chwyt reklamowy niż znaczące uznanie prawne. Niektórzy postrzegali ten gest jako otwarte oczernianie praw człowieka i rządów prawa .

Filozofia Sentientyzmu przyznaje stopnie moralnego rozważenia wszystkim czującym istotom, przede wszystkim ludziom i większości nie-ludzi. Jeśli sztuczna lub obca inteligencja wykazuje dowody bycia świadomymi , filozofia ta głosi, że należy im okazywać współczucie i przyznać prawa.

Joanna Bryson argumentowała, że ​​tworzenie sztucznej inteligencji wymagającej praw jest zarówno możliwe do uniknięcia, jak i samo w sobie byłoby nieetyczne, zarówno jako obciążenie dla agentów sztucznej inteligencji, jak i dla społeczeństwa ludzkiego.

Zagrożenie godności człowieka

Joseph Weizenbaum argumentował w 1976 r., że technologii sztucznej inteligencji nie należy wykorzystywać do zastępowania osób na stanowiskach wymagających szacunku i troski, takich jak:

  • Przedstawiciel obsługi klienta (technologia AI jest już dziś wykorzystywana w telefonicznych interaktywnych systemach odpowiedzi głosowych )
  • Opiekunka dla osób starszych (jak relacjonowała Pamela McCorduck w swojej książce The Fifth Generation )
  • Żołnierz
  • Sędzia
  • Policjant
  • Terapeuta (jak zaproponował Kenneth Colby w latach 70.)

Weizenbaum wyjaśnia, że od osób na tych stanowiskach wymagamy autentycznego uczucia empatii . Jeśli zastąpią je maszyny, zostaniemy wyobcowani, zdewaluowani i sfrustrowani, ponieważ sztucznie inteligentny system nie byłby w stanie symulować empatii. Sztuczna inteligencja stosowana w ten sposób stanowi zagrożenie dla ludzkiej godności. Weizenbaum twierdzi, że fakt, iż rozważamy możliwość maszyn w tych pozycjach, sugeruje, że doświadczyliśmy „atrofii ludzkiego ducha, która pochodzi z myślenia o sobie jako o komputerach”.

Pamela McCorduck sprzeciwia się temu, wypowiadając się w imieniu kobiet i mniejszości: „Wolałabym zaryzykować z bezstronnym komputerem”, wskazując, że istnieją warunki, w których wolelibyśmy mieć zautomatyzowanych sędziów i policję, które nie mają żadnego osobistego programu. Jednak Kaplan i Haenlein podkreślają, że systemy sztucznej inteligencji są tak inteligentne, jak dane wykorzystywane do ich szkolenia, ponieważ w swej istocie są niczym więcej niż fantazyjnymi maszynami dopasowującymi krzywe; Wykorzystywanie sztucznej inteligencji do wspierania orzeczenia sądu może być bardzo problematyczne, jeśli wcześniejsze orzeczenia wykazują uprzedzenia wobec pewnych grup, ponieważ te uprzedzenia zostają sformalizowane i zakorzenione, co czyni je jeszcze trudniejszymi do zauważenia i walki z nimi.

Weizenbaum martwił się również, że badacze sztucznej inteligencji (i niektórzy filozofowie) byli skłonni postrzegać ludzki umysł jako nic więcej niż program komputerowy (pozycja znana obecnie jako computationalism ). Według Weizenbauma te punkty sugerują, że badania nad sztuczną inteligencją dewaluują ludzkie życie.

Założyciel AI, John McCarthy, sprzeciwia się moralizującemu tokowi krytyki Weizenbauma. „Kiedy moralizowanie jest zarówno gwałtowne, jak i niejasne, zachęca do autorytarnych nadużyć” – pisze. Bill Hibbard pisze, że „Godność ludzka wymaga, abyśmy starali się usunąć naszą ignorancję na temat natury istnienia, a sztuczna inteligencja jest niezbędna do tego dążenia”.

Odpowiedzialność za samochody autonomiczne

Ponieważ coraz powszechniejsze stosowanie samochodów autonomicznych staje się coraz bardziej nieuchronne, należy zająć się nowymi wyzwaniami stawianymi przez pojazdy w pełni autonomiczne. Ostatnio toczyła się debata na temat odpowiedzialności prawnej strony odpowiedzialnej w przypadku, gdy te samochody ulegną wypadkowi. W jednym z raportów, w którym samochód bez kierowcy uderzył pieszego, kierowca był w samochodzie, ale sterowanie było całkowicie w rękach komputerów. Doprowadziło to do dylematu, kto ponosi winę za wypadek.

W innym incydencie 19 marca 2018 r. Elaine Herzberg została potrącona i zabita przez autonomicznego Ubera w Arizonie. W tym przypadku zautomatyzowany samochód był w stanie wykryć samochody i pewne przeszkody w celu autonomicznego poruszania się po jezdni, ale nie mógł przewidzieć pieszego na środku jezdni. Pojawiło się pytanie, czy kierowca, pieszy, firma samochodowa lub rząd powinni być pociągnięci do odpowiedzialności za jej śmierć.

Obecnie samochody autonomiczne są uważane za półautonomiczne, co wymaga od kierowcy uwagi i gotowości do przejęcia kontroli w razie potrzeby. W związku z tym rządy muszą regulować kierowcę, który nadmiernie polega na funkcjach autonomicznych. a także edukować ich, że są to tylko technologie, które choć wygodne, nie są całkowitym substytutem. Zanim samochody autonomiczne staną się powszechnie stosowane, należy rozwiązać te problemy za pomocą nowej polityki.

Uzbrojenie sztucznej inteligencji

Niektórzy eksperci i naukowcy kwestionują wykorzystanie robotów w walce wojskowej, zwłaszcza gdy takie roboty mają pewien stopień autonomii. 31 października 2019 r. Rada ds. Innowacji Obronnych Departamentu Obrony Stanów Zjednoczonych opublikowała projekt raportu zalecającego zasady etycznego korzystania ze sztucznej inteligencji przez Departament Obrony, które zapewniłyby, że operator zawsze będzie w stanie zajrzeć do „ czarna skrzynka” i zrozumieć proces łańcucha zabijania. Jednak głównym problemem jest sposób wdrożenia raportu. Marynarka Wojenna Stanów Zjednoczonych sfinansowała raport, który wskazuje, że w miarę jak roboty wojskowe stają się coraz bardziej złożone, należy zwracać większą uwagę na implikacje ich zdolności do podejmowania autonomicznych decyzji. Niektórzy badacze twierdzą, że autonomiczne roboty mogą być bardziej humanitarne, ponieważ mogą skuteczniej podejmować decyzje.

W ciągu ostatniej dekady prowadzono intensywne badania nad autonomiczną władzą z możliwością uczenia się przy użyciu przypisanych obowiązków moralnych. „Wyniki mogą zostać wykorzystane podczas projektowania przyszłych robotów wojskowych, do kontrolowania niechcianych tendencji do przypisywania robotom odpowiedzialności”. Z konsekwencjalistycznego punktu widzenia istnieje szansa, że ​​roboty rozwiną zdolność do podejmowania własnych, logicznych decyzji, kogo zabić i dlatego powinny istnieć ustalone ramy moralne , których sztuczna inteligencja nie może ominąć.

Ostatnio pojawiły się protesty w związku z inżynierią broni sztucznej inteligencji, które zawierały idee przejęcia ludzkości przez robota. Broń AI przedstawia rodzaj zagrożenia inny niż broń kontrolowana przez człowieka. Wiele rządów zaczęło finansować programy rozwoju uzbrojenia AI. Marynarka Wojenna Stanów Zjednoczonych ogłosiła niedawno plany rozwoju autonomicznej broni dronów , równolegle do podobnych zapowiedzi odpowiednio Rosji i Korei. Ze względu na to, że broń AI może stać się bardziej niebezpieczna niż broń operowana przez człowieka, Stephen Hawking i Max Tegmark podpisali petycję „Przyszłość życia”, aby zakazać broni AI. Wiadomość opublikowana przez Hawkinga i Tegmarka stwierdza, że ​​broń AI stanowi bezpośrednie zagrożenie i konieczne jest podjęcie działań, aby uniknąć katastrofalnych katastrof w najbliższej przyszłości.

„Jeśli jakakolwiek większa potęga wojskowa posunie się naprzód w rozwoju broni AI, globalny wyścig zbrojeń jest praktycznie nieunikniony, a punkt końcowy tej technologicznej trajektorii jest oczywisty: autonomiczna broń stanie się kałasznikowami jutra”, mówi petycja, która obejmuje również Skype co. -założyciel Jaan Tallinn i profesor lingwistyki MIT Noam Chomsky jako dodatkowi zwolennicy broni AI.

Fizyk i astronom Royal Sir Martin Rees ostrzegał przed katastrofalnymi przypadkami, takimi jak „głupie roboty, które stają się nieuczciwe lub sieć, która rozwija własny umysł”. Huw Price , kolega Reesa z Cambridge, wypowiedział podobne ostrzeżenie, że ludzie mogą nie przetrwać, gdy inteligencja „wymyka się ograniczeniom biologii”. Ci dwaj profesorowie stworzyli Centrum Badań nad Ryzykiem Egzystencjalnym na Uniwersytecie w Cambridge w nadziei na uniknięcie tego zagrożenia dla ludzkiej egzystencji.

Jeśli chodzi o możliwości militarnego wykorzystania inteligentnych niż człowiek systemów, Open Philanthropy Project pisze, że te scenariusze „wydają się potencjalnie równie ważne, jak ryzyko związane z utratą kontroli”, ale badania nad długoterminowym wpływem AI na społeczeństwo zostały stosunkowo mało czasu na tę kwestię: „ta klasa scenariuszy nie była głównym przedmiotem zainteresowania organizacji, które były najbardziej aktywne w tej dziedzinie, takich jak Instytut Badań Inteligencji Maszynowej (MIRI) i Instytut Przyszłości Ludzkości (FHI) oraz wydaje się, że było mniej analiz i debat na ich temat”.

Algorytmy nieprzejrzyste

Podejścia takie jak uczenie maszynowe z sieciami neuronowymi mogą skutkować podejmowaniem przez komputery decyzji, których one i ludzie, którzy je zaprogramowali, nie potrafią wyjaśnić. Ludziom trudno jest określić, czy takie decyzje są uczciwe i godne zaufania, co może prowadzić do niewykrycia stronniczości systemów sztucznej inteligencji lub odrzucenia korzystania z takich systemów. Doprowadziło to do poparcia, aw niektórych jurysdykcjach do powstania wymogów prawnych dotyczących sztucznej inteligencji, którą można wyjaśnić .

Osobliwość

Wielu badaczy twierdziło, że poprzez „eksplozję inteligencji” samodoskonaląca się sztuczna inteligencja może stać się tak potężna, że ​​ludzie nie byliby w stanie powstrzymać jej przed osiągnięciem swoich celów. W swoim artykule „Etyczne problemy w zaawansowanej sztucznej inteligencji” i późniejszej książce Superintelligence: Paths, Dangers, Strategies , filozof Nick Bostrom twierdzi, że sztuczna inteligencja może doprowadzić do wyginięcia człowieka. Twierdzi, że ogólna superinteligencja byłaby zdolna do samodzielnej inicjatywy i tworzenia własnych planów, a zatem może być bardziej odpowiednio postrzegana jako autonomiczny podmiot. Ponieważ sztuczne intelekty nie muszą podzielać naszych ludzkich tendencji motywacyjnych, do projektantów superinteligencji należało określenie jego pierwotnych motywacji. Ponieważ superinteligentna sztuczna inteligencja byłaby w stanie doprowadzić do niemal każdego możliwego wyniku i udaremnić wszelkie próby uniemożliwienia realizacji jej celów, może pojawić się wiele niekontrolowanych niezamierzonych konsekwencji . Może zabić wszystkich innych agentów, przekonać ich do zmiany zachowania lub zablokować próby ingerencji.

Jednak zamiast przytłaczać rasę ludzką i prowadzić do jej zniszczenia, Bostrom twierdził również, że superinteligencja może pomóc nam rozwiązać wiele trudnych problemów, takich jak choroby, ubóstwo i niszczenie środowiska, a także może pomóc nam „ulepszyć się”.

Sama złożoność ludzkich systemów wartości sprawia, że ​​bardzo trudno jest sprawić, by motywacje AI były przyjazne dla człowieka. O ile filozofia moralna nie dostarczy nam bezbłędnej teorii etycznej, funkcja użyteczności sztucznej inteligencji może pozwolić na wiele potencjalnie szkodliwych scenariuszy, które są zgodne z określonymi ramami etycznymi, ale nie „zdrowy rozsądek”. Według Eliezera Yudkowsky'ego nie ma powodu przypuszczać, że sztucznie zaprojektowany umysł miałby takie przystosowanie. Badacze sztucznej inteligencji, tacy jak Stuart J. Russell , Bill Hibbard , Roman Yampolskiy , Shannon Vallor , Steven Umbrello i Luciano Floridi zaproponowali strategie projektowania w celu opracowania korzystnych maszyn.

Aktorzy w etyce AI

Istnieje wiele organizacji zajmujących się etyką i polityką AI, publicznych i rządowych, a także korporacyjnych i społecznych.

Amazon , Google , Facebook , IBM i Microsoft założyły organizację non-profit, The Partnership on AI to Benefit People and Society, aby formułować najlepsze praktyki w zakresie technologii sztucznej inteligencji, pogłębiać wiedzę opinii publicznej i służyć jako platforma dotycząca sztucznej inteligencji . Apple dołączył do grupy w styczniu 2017 r. Członkowie korporacyjni będą wnosić wkład finansowy i badawczy do grupy, jednocześnie współpracując ze społecznością naukową, aby włączyć naukowców do zarządu.

IEEE ułożyła Globalną Inicjatywę Etyki autonomicznych i Inteligentnych Systemów który został tworzenia i przeglądu wytycznych z pomocą wejścia publicznej, przyjmuje jako członkowie wielu specjalistów od wewnątrz i na zewnątrz jego organizacji.

Tradycyjnie rząd jest wykorzystywany przez społeczeństwa w celu zapewnienia przestrzegania etyki poprzez ustawodawstwo i działania policyjne. Obecnie rządy krajowe, a także ponadnarodowe organizacje rządowe i pozarządowe podejmują wiele wysiłków, aby zapewnić etyczne stosowanie sztucznej inteligencji.

Inicjatywy międzyrządowe:

  • Komisja Europejska ma grupę ekspertów wysokiego szczebla na sztucznej inteligencji. W dniu 8 kwietnia 2019 r. opublikowano „Wytyczne etyczne dotyczące godnej zaufania sztucznej inteligencji”. Komisja Europejska posiada również jednostkę ds. innowacji i doskonałości w dziedzinie robotyki i sztucznej inteligencji, która w dniu 19 lutego 2020 r. opublikowała białą księgę na temat doskonałości i zaufania do innowacji w dziedzinie sztucznej inteligencji.
  • OECD stworzyła Obserwatorium OECD Polityka AI.

Inicjatywy rządowe:

  • W Stanach Zjednoczonych Obama administracja ułożyła plan działania na rzecz polityki AI. Administracja Obamy opublikowała dwie ważne białe księgi na temat przyszłości i wpływu sztucznej inteligencji. W 2019 r. Biały Dom poprzez notatkę wykonawczą znaną jako „American AI Initiative” polecił NIST (National Institute of Standards and Technology) rozpoczęcie prac nad Federalnym Zaangażowaniem Standardów AI (luty 2019).
  • W styczniu 2020 r. w Stanach Zjednoczonych administracja Trumpa opublikowała projekt rozporządzenia wykonawczego wydanego przez Biuro Zarządzania i Budżetu (OMB) w sprawie „Wytycznych dotyczących regulacji zastosowań sztucznej inteligencji” („Memorandum OMB AI”). muszą inwestować w aplikacje sztucznej inteligencji, zwiększyć zaufanie publiczne do sztucznej inteligencji, zmniejszyć bariery w korzystaniu ze sztucznej inteligencji i utrzymać konkurencyjność amerykańskiej technologii sztucznej inteligencji na rynku globalnym. w centrum zainteresowania i priorytetem wydają się być postępy w amerykańskiej technologii sztucznej inteligencji.Ponadto podmioty federalne są nawet zachęcane do korzystania z tego nakazu w celu obejścia wszelkich stanowych przepisów i regulacji, które rynek może uznać za zbyt uciążliwe do spełnienia.
  • The Computing Community Consortium (CCC) zajęło się ponad 100-stronicowym projektem raportu – 20-letnia mapa drogowa społeczności dla badań nad sztuczną inteligencją w USA
  • Centrum Bezpieczeństwa i nowa technologia radzi politykom nas na problemach bezpieczeństwa związanych z nowymi technologiami, takimi jak AI.
  • Partia Nie-Człowiek startuje w wyborach w Nowej Południowej Walii , z polityką przyznawania praw robotom, zwierzętom i ogólnie istotom nie będącym ludźmi, których inteligencja została przeoczona.

Inicjatywy akademickie:

Rola i wpływ fikcji w etyce AI

Rola fikcji w odniesieniu do etyki AI była złożona. Można wyróżnić trzy poziomy, na których fikcja wpłynęła na rozwój sztucznej inteligencji i robotyki: Historycznie fikcja zapowiadała wspólne tropy, które nie tylko wpłynęły na cele i wizje sztucznej inteligencji, ale także nakreśliły pytania etyczne i powszechne obawy z nią związane. W drugiej połowie dwudziestego i pierwszej dekadzie dwudziestego pierwszego wieku kultura popularna, w szczególności filmy, seriale i gry wideo, często powtarzała troski i dystopijne projekcje wokół kwestii etycznych dotyczących sztucznej inteligencji i robotyki. W ostatnim czasie tematy te coraz częściej pojawiają się także w literaturze wykraczającej poza sferę science fiction. Jak zauważa Carme Torras, profesor naukowy w Institut de Robòtica i Informàtica Industrial (Instytut robotyki i informatyki przemysłowej) na Politechnice Katalonii, w szkolnictwie wyższym science fiction jest coraz częściej wykorzystywane do nauczania zagadnień etycznych związanych z technologią. stopnie technologiczne.

Historia

Historycznie rzecz biorąc, badanie moralnych i etycznych implikacji „myślących maszyn” sięga co najmniej do Oświecenia: Leibniz już stawia pytanie, czy możemy przypisać inteligencję mechanizmowi, który zachowuje się tak, jakby był czującą istotą, podobnie jak Kartezjusz. , który opisuje to, co można uznać za wczesną wersję testu Turinga.

Okres romantyczny kilkakrotnie przewidywał sztucznych stworzeń, które wymykają się kontroli ich twórcy z surowymi konsekwencjami, najbardziej znany w Mary Shelley „s Frankenstein . Powszechne zainteresowanie industrializacją i mechanizacją w XIX i na początku XX wieku wyniosło jednak etyczne implikacje niezwiązanych z nimi postępów technicznych na pierwszy plan: RUR – Uniwersalne roboty Rossum , gra Karela Čapka o czujących robotach obdarzonych emocjami wykorzystywanymi jako niewolnicza praca jest nie tylko przypisuje się wynalezienie terminu „robot” (pochodzącego od czeskiego słowa oznaczającego pracę przymusową, robota ), ale także odniósł międzynarodowy sukces po premierze w 1921 roku. Sztuka George'a Bernarda Shawa Back to Metuselah , opublikowana w 1921 jeden punkt słuszności myślących maszyn, które działają jak ludzie; Film Fritza Langa z 1927 roku Metropolis przedstawia androida kierującego powstaniem wyzyskiwanych mas przeciwko opresyjnemu reżimowi społeczeństwa technokratycznego.

Wpływ fikcji na rozwój technologiczny

Podczas gdy oczekiwanie na przyszłość zdominowaną przez potencjalnie niezłomną technologię od dawna rozpalało wyobraźnię pisarzy i filmowców, jedno pytanie było rzadziej analizowane, a mianowicie, w jakim stopniu fikcja odegrała rolę w dostarczaniu inspiracji dla rozwoju technologicznego. Udokumentowano na przykład, że młody Alan Turing zobaczył i docenił sztukę GB Shawa Back to Metuselah w 1933 roku (zaledwie 3 lata przed publikacją jego pierwszego przełomowego artykułu, który położył podwaliny pod komputer cyfrowy) i prawdopodobnie przynajmniej znali sztuki takie jak RUR , który odniósł międzynarodowy sukces i został przetłumaczony na wiele języków.

Można również zadać pytanie, jaką rolę science fiction odegrało w ustalaniu zasad i etycznych implikacji rozwoju sztucznej inteligencji: Isaac Asimov skonceptualizował swoje Trzy prawa robotyki w opowiadaniu „ Runaround ” z 1942 r., będącym częścią zbioru opowiadań I, Robot ; Krótkometrażowy „ The sentinel ” Arthura C. Clarke'a , na którym oparty jest film Stanleya Kubricka 2001: Odyseja kosmiczna , został napisany w 1948 roku i opublikowany w 1952 roku. Innym przykładem (między innymi) mogą być liczne opowiadania i powieści Philipa K. Dicka – w szczególności Czy androidy marzą o elektrycznej owcy? , opublikowanym w 1968 roku i zawierającym własną wersję testu Turinga, test Voighta-Kampffa , aby ocenić reakcje emocjonalne androidów nie do odróżnienia od ludzi. Powieść stała się później podstawą wpływowego filmu Blade Runner z 1982 roku Ridleya Scotta.

Science Fiction od dziesięcioleci zmaga się z etycznymi implikacjami rozwoju sztucznej inteligencji, zapewniając w ten sposób plan problemów etycznych, które mogą pojawić się po osiągnięciu czegoś zbliżonego do ogólnej sztucznej inteligencji: film Spike'a Jonze z 2013 r. Her pokazuje, co może się stać, gdy użytkownik upadnie zakochany w uwodzicielskim głosie swojego systemu operacyjnego smartfona; Z kolei Ex Machina zadaje trudniejsze pytanie: czy w konfrontacji z wyraźnie rozpoznawalną maszyną, tylko ludzką uczynioną przez twarz oraz empatyczny i zmysłowy głos, nadal bylibyśmy w stanie nawiązać więź emocjonalną, nadal daliby się uwieść to ? (Film nawiązuje do tematu obecnego już dwa wieki wcześniej, w opowiadaniu ETA HoffmannaPiaskownica ” z 1817 roku . )

Tematem współistnienia ze sztucznych istot jest również tematem dwóch ostatnich powieściach: Maszyna jak ja przez Ian McEwan , opublikowanej w 2019 roku, obejmuje (między innymi) do miłosny trójkąt obejmujący takie osoby sztuczne, jak również pary ludzkiej. Klara i Słońce przez Nagrodą Nobla zwycięzca Kazuo Ishiguro , opublikowane w 2021 roku, jest konto pierwszej osoby z Klarą, za „AF” (znajomego sztuczny), który próbuje, na swój własny sposób, aby pomóc dziewczynie ona mieszka z , który po „podniesieniu” (tj. poddaniu go udoskonaleniom genetycznym) cierpi na dziwną chorobę.

Serial telewizyjny

Podczas gdy kwestie etyczne związane ze sztuczną inteligencją od dziesięcioleci pojawiają się w literaturze science fiction i filmach fabularnych , pojawienie się serialu telewizyjnego jako gatunku pozwalającego na dłuższe i bardziej złożone fabuły i rozwój postaci doprowadziło do pewnego znaczącego wkładu, który zajmuje się implikacjami etycznymi technologii. Szwedzka seria „ Real Humans” (2012–2013) dotyczyła złożonych konsekwencji etycznych i społecznych związanych z integracją sztucznych czujących istot w społeczeństwie. Brytyjska seria antologii dystopijnej science fiction Black Mirror (2013-2019) była szczególnie godna uwagi ze względu na eksperymentowanie z dystopijnymi fikcyjnymi osiągnięciami powiązanymi z szeroką gamą nowych technologii. Zarówno francuska seria Osmosis (2020), jak i brytyjska seria The One dotyczą pytania, co może się stać, jeśli technologia spróbuje znaleźć idealnego partnera dla osoby.

Wizje przyszłości w fikcji i grach

Film Trzynaste piętro sugeruje przyszłość, w której symulowane światy z świadomymi mieszkańcami są tworzone przez konsole do gier komputerowych w celach rozrywkowych. Film Matrix sugeruje przyszłość, w której dominującym gatunkiem na planecie Ziemi są czujące maszyny, a ludzkość traktowana jest z najwyższym gatunkowością . Krótka historia „ The Planck Dive ” sugeruje przyszłość, w której ludzkość zamieniła się w oprogramowanie, które można powielać i optymalizować, a istotne rozróżnienie między rodzajami oprogramowania jest czujące i nie czujące. Ten sam pomysł można znaleźć w Ratownictwie Medycznym Hologram z Starship Voyagera , który jest najwyraźniej czująca kopię obniżonej podzbioru świadomości jego twórca, dr Zimmerman , którzy z najlepszych pobudek, stworzył system, aby dać medyczny pomoc w nagłych wypadkach. Filmy Bicentennial Man i AI zajmują się możliwością istnienia czujących robotów, które mogłyby kochać. Ja, Robot zbadałem niektóre aspekty trzech praw Asimova. Wszystkie te scenariusze starają się przewidzieć możliwie nieetyczne konsekwencje tworzenia czujących komputerów.

Etyka sztucznej inteligencji jest jednym z kilku głównych tematów w serii gier Mass Effect firmy BioWare . Bada scenariusz cywilizacji przypadkowo tworzącej sztuczną inteligencję poprzez szybki wzrost mocy obliczeniowej poprzez sieć neuronową na skalę globalną . To wydarzenie spowodowało etyczną schizmę między tymi, którzy uważali, że nadanie organicznych praw nowo rozumnym Gethom było właściwe, a tymi, którzy nadal postrzegali je jako jednorazową maszynerię i walczyli o ich zniszczenie. Oprócz początkowego konfliktu, złożoność relacji między maszynami a ich twórcami jest kolejnym motywem przewodnim całej historii.

Z biegiem czasu debaty coraz mniej skupiały się na możliwościach, a bardziej na celowości , co podkreślają debaty „Kosmista” i „Terran” zainicjowane przez Hugo de Garisa i Kevina Warwicka . Według Hugo de Garisa kosmista w rzeczywistości dąży do zbudowania bardziej inteligentnych następców gatunku ludzkiego.

Eksperci z University of Cambridge argumentowali, że sztuczna inteligencja jest przedstawiana w fikcji i literaturze faktu w przeważającej mierze jako rasowo biała, w sposób, który zniekształca postrzeganie związanych z nią zagrożeń i korzyści.

Zobacz też

Uwagi

Zewnętrzne linki