Regulacja sztucznej inteligencji - Regulation of artificial intelligence

Regulacja sztucznej inteligencji jest rozwój sektora publicznego, polityki i prawa do promowania i regulowania sztucznej inteligencji (AI); jest to zatem związane z szerszą regulacją algorytmów . Krajobraz regulacyjny i polityczny dotyczący sztucznej inteligencji to pojawiający się problem w jurysdykcjach na całym świecie, w tym w Unii Europejskiej i organach ponadnarodowych, takich jak IEEE , OECD i innych. W latach 2016-2019 opublikowano falę wytycznych dotyczących etyki AI w celu utrzymania społecznej kontroli nad technologią. Uznaje się, że regulacje są niezbędne zarówno do wspierania sztucznej inteligencji, jak i zarządzania powiązanym ryzykiem. Regulacja AI za pomocą mechanizmów takich jak komisje rewizyjne może być również postrzegana jako społeczny sposób podejścia do problemu kontroli AI .

Tło

W 2017 roku Elon Musk wezwał do uregulowania rozwoju AI. Według NPR , dyrektor generalny Tesli „wyraźnie nie był zachwycony”, że opowiada się za kontrolą rządową, która mogłaby wpłynąć na jego własną branżę, ale uważał, że ryzyko przejścia całkowicie bez nadzoru jest zbyt wysokie: „Normalnie ustanawia się przepisy, gdy Dzieje się mnóstwo złych rzeczy, jest publiczne oburzenie, a po wielu latach zostaje powołana agencja regulacyjna, która reguluje tę branżę. Trwa to wieczność. To w przeszłości było złe, ale nie stanowiło fundamentalnego zagrożenia dla istnienia cywilizacji”. W odpowiedzi niektórzy politycy wyrazili sceptycyzm co do sensowności regulowania technologii, która wciąż jest w fazie rozwoju. Odpowiadając zarówno na Muska, jak i na propozycje prawodawców Unii Europejskiej z lutego 2017 r., aby uregulować sztuczną inteligencję i robotykę, dyrektor generalny Intela Brian Krzanich przekonywał, że sztuczna inteligencja jest w powijakach i jest za wcześnie, by regulować tę technologię. Zamiast próbować regulować samą technologię, niektórzy badacze sugerowali opracowanie wspólnych norm, w tym wymagań dotyczących testowania i przejrzystości algorytmów, ewentualnie w połączeniu z jakąś formą gwarancji.

Perspektywy

Regulacja sztucznej inteligencji to rozwój polityk i przepisów sektora publicznego w celu promowania i regulowania sztucznej inteligencji. Obecnie ogólnie uważa się, że regulacje są konieczne, aby zarówno zachęcać do sztucznej inteligencji, jak i zarządzać powiązanym ryzykiem. Rozważania dotyczące administracji publicznej i polityki generalnie koncentrują się na implikacjach technicznych i ekonomicznych oraz na wiarygodnych i skoncentrowanych na człowieku systemach SI, chociaż rozważa się również regulację sztucznych superinteligencji . Podstawowe podejście do regulacji koncentruje się na ryzyku i stronniczości technologii leżącej u podstaw sztucznej inteligencji, tj. algorytmach uczenia maszynowego, na poziomie danych wejściowych, testowaniu algorytmów i modelu decyzyjnym, a także na tym, czy wyjaśnienia stronniczości w kodzie mogą być zrozumiałe dla potencjalnych odbiorców technologii i technicznie wykonalne dla producentów.

Regulacja AI może wywodzić się z podstawowych zasad. Meta-przegląd istniejących zbiorów zasad, takich jak zasady Asilomar i zasady pekińskie, przeprowadzony w 2020 r. przez Berkman Klein Center for Internet & Society, zidentyfikował osiem takich podstawowych zasad: prywatność, odpowiedzialność, bezpieczeństwo i ochrona, przejrzystość i możliwość wyjaśnienia, uczciwość i brak dyskryminacja, kontrola technologii przez człowieka, odpowiedzialność zawodowa i szacunek dla wartości ludzkich. Prawo i przepisy dotyczące sztucznej inteligencji zostały podzielone na trzy główne tematy, a mianowicie zarządzanie autonomicznymi systemami wywiadowczymi, odpowiedzialność i odpowiedzialność za systemy oraz kwestie prywatności i bezpieczeństwa. Podejście administracji publicznej zakłada związek między prawem i regulacjami dotyczącymi SI , etyką SI oraz „społeczeństwem SI”, definiowanym jako zastępowanie i transformacja siły roboczej, akceptacja społeczna i zaufanie do SI oraz transformacja interakcji człowieka z maszyną. Opracowanie strategii sektora publicznego w zakresie zarządzania i regulacji sztucznej inteligencji jest uważane za konieczne na poziomie lokalnym, krajowym i międzynarodowym oraz w różnych dziedzinach, od zarządzania usługami publicznymi i odpowiedzialności po egzekwowanie prawa, opiekę zdrowotną (zwłaszcza koncepcja gwarancji ludzkiej ), sektor finansowy, robotyka, pojazdy autonomiczne, wojsko i bezpieczeństwo narodowe oraz prawo międzynarodowe.

W odpowiedzi na problem ze sterowaniem AI

Regulacja sztucznej inteligencji może być postrzegana jako pozytywny społeczny sposób zarządzania problemem kontroli sztucznej inteligencji , tj. potrzeba zapewnienia długoterminowej korzystnej sztucznej inteligencji, z innymi reakcjami społecznymi, takimi jak nicnierobienie lub zakaz postrzegania jako niepraktyczne, i podejściami, takimi jak wzmacnianie ludzi możliwości dzięki podejściom transhumanistycznym, takim jak interfejsy mózg-komputer , postrzegane są jako potencjalnie komplementarne. Regulacja badań nad sztuczną ogólną inteligencją (AGI) skupia się na roli komisji rewizyjnych, od uniwersytetu lub korporacji po poziom międzynarodowy, oraz na zachęcaniu do badań nad bezpieczną sztuczną inteligencją, wraz z możliwością zróżnicowanego postępu intelektualnego (priorytetowość strategii ograniczania ryzyka przed ryzykiem -przyjmowanie strategii w zakresie rozwoju sztucznej inteligencji) lub prowadzenie międzynarodowej masowej inwigilacji w celu kontroli zbrojeń AGI. Na przykład „AGI Nanny” jest proponowaną strategią, potencjalnie pod kontrolą ludzkości, mającą na celu zapobieganie tworzeniu niebezpiecznego superinteligencji, a także reagowanie na inne poważne zagrożenia dla ludzkiego dobrobytu, takie jak dywersja globalnego systemu finansowego, dopóki superinteligencja nie będzie mogła zostać bezpiecznie utworzona. Pociąga to za sobą stworzenie mądrzejszego niż człowiek, ale nie superinteligentnego, systemu sztucznej inteligencji ogólnej połączonego z dużą siecią nadzoru, w celu monitorowania ludzkości i ochrony jej przed niebezpieczeństwem”. Regulacja świadomych, etycznie świadomych AGI skupia się na integracji z istniejącym społeczeństwem ludzkim i można je podzielić ze względu na ich status prawny i prawa moralne.Regulacje dotyczące sztucznej inteligencji są postrzegane jako restrykcyjne, z ryzykiem uniemożliwienia rozwoju AGI.

Globalne wytyczne

Rozwój globalnego ładu pokładzie regulować rozwój AI Zasugerowano przynajmniej tak wcześnie jak 2017. W grudniu 2018 r Kanada i Francja ogłosiła plany G7-backed Międzynarodowego Panelu ds sztuczna inteligencja, na wzór Międzynarodowego Zespołu do spraw Zmian Klimatu , aby badać globalny wpływ sztucznej inteligencji na ludzi i gospodarkę oraz sterować rozwojem sztucznej inteligencji. W 2019 roku Panel został przemianowany na Globalne Partnerstwo w sprawie AI.

Globalnego Partnerstwa na temat sztucznej inteligencji została uruchomiona w czerwcu 2020, stwierdzając potrzebę dla AI, które zostaną opracowane w zgodzie z prawami człowieka i wartości demokratycznych, w celu zapewnienia zaufania publicznego i zaufania do technologii, jak określono w OECD Principles na sztucznej inteligencji (2019 ). Członkami założycielami Globalnego Partnerstwa na rzecz Sztucznej Inteligencji są Australia, Kanada, Unia Europejska, Francja, Niemcy, Indie, Włochy, Japonia, Korea Południowa, Meksyk, Nowa Zelandia, Singapur, Słowenia, USA i Wielka Brytania. Sekretariat GPAI jest prowadzony przez OECD w Paryżu we Francji. Mandat GPAI obejmuje cztery tematy, z których dwa są wspierane przez Międzynarodowe Centrum Ekspertyz w Montrealu na rzecz Rozwoju Sztucznej Inteligencji, a mianowicie odpowiedzialną sztuczną inteligencję i zarządzanie danymi. Odpowiednie centrum doskonałości w Paryżu, które nie zostało jeszcze zidentyfikowane, będzie wspierać pozostałe dwa tematy dotyczące przyszłości pracy i innowacji oraz komercjalizacji. GPAI zbada również, w jaki sposób można wykorzystać sztuczną inteligencję, aby zareagować na pandemię Covid-19.

Zalecenia OECD w sprawie sztucznej inteligencji zostały przyjęte w maju 2019 r., a zasady G20 w sprawie sztucznej inteligencji w czerwcu 2019 r. We wrześniu 2019 r. Światowe Forum Ekonomiczne opublikowało dziesięć „Wytycznych dotyczących zamówień rządowych w zakresie sztucznej inteligencji”. W lutym 2020 r. Unia Europejska opublikowała projekt dokumentu strategicznego dotyczącego promowania i regulowania sztucznej inteligencji.

W ONZ kilka podmiotów zaczęło promować i omawiać aspekty regulacji i polityki AI, w tym UNICRI Center for AI and Robotics . Na 40. sesji naukowej UNESCO w listopadzie 2019 r. organizacja rozpoczęła dwuletni proces tworzenia „instrumentu wyznaczającego globalne standardy w zakresie etyki sztucznej inteligencji”. W dążeniu do tego celu odbyły się fora i konferencje UNESCO poświęcone sztucznej inteligencji, aby zebrać opinie interesariuszy. Najnowszy projekt tekstu zalecenia Grupy Ekspertów Ad Hoc UNESCO w sprawie etyki SI został opublikowany we wrześniu 2020 r. i zawiera wezwanie do uzupełnienia luk legislacyjnych. UNESCO przedstawi międzynarodowy instrument dotyczący etyki SI do przyjęcia przez 192 państwa członkowskie w listopadzie 2021 r.

Przepisy regionalne i krajowe

Kalendarium strategii, planów działania i dokumentów politycznych określających krajowe, regionalne i międzynarodowe podejścia do sztucznej inteligencji

Krajobraz regulacyjny i polityczny dotyczący sztucznej inteligencji to pojawiający się problem w jurysdykcjach na całym świecie, w tym w Unii Europejskiej i Rosji. Od początku 2016 r. wiele organów krajowych, regionalnych i międzynarodowych rozpoczęło przyjmowanie strategii, planów działania i dokumentów politycznych dotyczących sztucznej inteligencji. Dokumenty te obejmują szeroki zakres tematów, takich jak regulacje i zarządzanie, a także strategia przemysłowa, badania, talenty i infrastruktura.

Kanada

Pan-kanadyjski Strategia Sztuczna inteligencja (2017) jest obsługiwana przez federalnego finansowania 125 mln Dolarów z celami zwiększenie liczby wybitnych badaczy AI i wykwalifikowanych absolwentów w Kanadzie, ustanawiając węzły doskonałości naukowej w trzech głównych ośrodkach AI, rozwój „Globalne przywództwo myślowe” w zakresie ekonomicznych, etycznych, politycznych i prawnych implikacji postępów w dziedzinie sztucznej inteligencji oraz wspieranie krajowej społeczności badawczej zajmującej się sztuczną inteligencją. Fundamentem strategii jest kanadyjski program CIFAR AI Chairs. Korzysta z dofinansowania w wysokości 86,5 miliona dolarów w ciągu pięciu lat, aby przyciągnąć i zatrzymać światowej sławy naukowców zajmujących się sztuczną inteligencją. W maju 2019 r. rząd federalny powołał Radę Doradczą ds. AI, skupiającą się na zbadaniu, jak wykorzystać mocne strony Kanady, aby zapewnić, że postępy w dziedzinie sztucznej inteligencji odzwierciedlają kanadyjskie wartości, takie jak prawa człowieka, przejrzystość i otwartość. Rada Doradcza ds. AI utworzyła grupę roboczą zajmującą się wydobywaniem wartości komercyjnej z kanadyjskiej sztucznej inteligencji i analizy danych. W 2020 r. rząd federalny i rząd Quebecu ogłosiły otwarcie Międzynarodowego Centrum Ekspertyz w Montrealu na rzecz Rozwoju Sztucznej Inteligencji, które przyczyni się do odpowiedzialnego rozwoju sztucznej inteligencji.

Chiny

Regulacja sztucznej inteligencji w Chinach jest regulowana głównie przez Radę Państwa ChRL z 8 lipca 2017 r. „Plan rozwoju sztucznej inteligencji nowej generacji” (Dokument Rady Stanu nr 35), w którym Komitet Centralny Partii Komunistycznej Chiny i Rada Państwa Chińskiej Republiki Ludowej wezwały władze Chin do promowania rozwoju sztucznej inteligencji. Uregulowanie kwestii wsparcia etycznego i prawnego dla rozwoju sztucznej inteligencji powstaje, ale polityka zapewnia państwową kontrolę nad chińskimi firmami i cennymi danymi, w tym przechowywanie danych o chińskich użytkownikach w kraju i obowiązkowe korzystanie z obywatela Chińskiej Republiki Ludowej. standardy dotyczące sztucznej inteligencji, w tym dotyczące dużych zbiorów danych, przetwarzania w chmurze i oprogramowania przemysłowego.

Rada Europy

Rady Europy (RE) jest międzynarodową organizacją, która promuje demokrację w zakresie praw człowieka i praworządności i obejmuje 47 państw, w tym wszystkich 29 sygnatariuszy 2018 Deklaracji Unii Europejskiej Współpracy na sztucznej inteligencji. RE stworzyła wspólną przestrzeń prawną, w której członkowie mają prawny obowiązek zagwarantowania praw określonych w Europejskiej Konwencji Praw Człowieka . W szczególności w odniesieniu do sztucznej inteligencji „Celem Rady Europy jest zidentyfikowanie obszarów przecinających się między sztuczną inteligencją a naszymi standardami w zakresie praw człowieka, demokracji i praworządności oraz opracowanie odpowiednich rozwiązań w zakresie ustanawiania standardów lub budowania zdolności”. Duża liczba istotnych dokumentów zidentyfikowanych przez RE obejmuje wytyczne, karty, dokumenty, raporty i strategie. Organy autorów tych dokumentów regulujących SI nie ograniczają się do jednego sektora społeczeństwa i obejmują organizacje, firmy, organy i państwa narodowe.

Unia Europejska

Większość krajów Unii Europejskiej (UE) ma własne strategie krajowe w zakresie regulacji sztucznej inteligencji, ale są one w dużej mierze zbieżne. Unia Europejska kieruje się europejską strategią dotyczącą sztucznej inteligencji, wspieraną przez grupę ekspertów wysokiego szczebla ds. sztucznej inteligencji. W kwietniu 2019 r. Komisja Europejska opublikowała Wytyczne etyczne dotyczące godnej zaufania sztucznej inteligencji (AI) , po czym w czerwcu 2019 r. wydała zalecenia dotyczące polityki i inwestycji na rzecz wiarygodnej sztucznej inteligencji . Grupa ekspertów wysokiego szczebla Komisji Europejskiej ds. sztucznej inteligencji prowadzi prace nad projektem godnej zaufania AI i Komisja wydały sprawozdania dotyczące aspektów bezpieczeństwa i odpowiedzialności AI oraz etyki pojazdów zautomatyzowanych. W 2020 r. Komisja Europejska zasięgnęła opinii na temat propozycji przepisów dotyczących sztucznej inteligencji i proces ten trwa.

2 lutego 2020 r. Komisja Europejska opublikowała Białą Księgę na temat Sztucznej Inteligencji – Europejskie podejście do doskonałości i zaufania . Biała Księga składa się z dwóch głównych elementów składowych: „ekosystemu doskonałości” i „ekosystemu zaufania”. Ta ostatnia przedstawia podejście UE do ram regulacyjnych dotyczących sztucznej inteligencji. W proponowanym podejściu Komisja rozróżnia zastosowania sztucznej inteligencji „wysokiego ryzyka” i „niewysokiego ryzyka”. Tylko te pierwsze powinny być objęte zakresem przyszłych ram regulacyjnych UE. O tym, czy tak jest, można zasadniczo rozstrzygnąć na podstawie dwóch kumulatywnych kryteriów dotyczących sektorów krytycznych i krytycznego wykorzystania. W przypadku aplikacji AI wysokiego ryzyka brane są pod uwagę następujące kluczowe wymagania: wymagania dotyczące danych szkoleniowych; prowadzenie danych i dokumentacji; obowiązki informacyjne; wymagania dotyczące solidności i dokładności; nadzór ludzki; oraz szczególne wymagania dotyczące konkretnych zastosowań sztucznej inteligencji, takich jak te wykorzystywane do celów zdalnej identyfikacji biometrycznej. Zastosowania sztucznej inteligencji, które nie kwalifikują się jako „wysokiego ryzyka”, mogłyby podlegać dobrowolnemu systemowi etykietowania. Jeżeli chodzi o zgodność i egzekwowanie, Komisja rozważa wcześniejsze oceny zgodności, które mogą obejmować „procedury testowania, inspekcji lub certyfikacji” lub „kontrole algorytmów i zbiorów danych wykorzystywanych w fazie opracowywania”. Europejska struktura zarządzania SI w formie ram współpracy właściwych organów krajowych mogłaby ułatwić wdrożenie ram regulacyjnych. Projekt ze stycznia 2021 r. wyciekł online 14 kwietnia 2021 r., zanim Komisja ostatecznie przedstawiła swój oficjalny „wniosek dotyczący rozporządzenia ustanawiającego zharmonizowane zasady dotyczące sztucznej inteligencji (ustawa o sztucznej inteligencji)” tydzień później. Niedługo potem formalnie zaproponowano ustawę o sztucznej inteligencji . Obejmuje to dopracowanie podejścia opartego na ryzyku 2020.

Zjednoczone Królestwo

Wielka Brytania wspierała zastosowanie i rozwój sztucznej inteligencji w biznesie poprzez Strategię Gospodarki Cyfrowej 2015-2018, wprowadzoną na początku 2015 roku przez Innovate UK w ramach UK Digital Strategy. W sektorze publicznym wytyczne zostały dostarczone przez Departament Cyfryzacji, Kultury, Mediów i Sportu w zakresie etyki danych oraz Instytut Alana Turinga w zakresie odpowiedzialnego projektowania i wdrażania systemów sztucznej inteligencji. Jeśli chodzi o bezpieczeństwo cybernetyczne, Krajowe Centrum Cyberbezpieczeństwa wydało wytyczne dotyczące „Inteligentnych narzędzi bezpieczeństwa”.

Stany Zjednoczone

Dyskusje na temat regulacji sztucznej inteligencji w Stanach Zjednoczonych obejmowały takie tematy, jak terminowość regulowania sztucznej inteligencji, charakter federalnych ram regulacyjnych regulujących i promujących sztuczną inteligencję, w tym to, jaka agencja powinna przewodzić, uprawnienia regulacyjne i kierownicze tej agencji oraz w jaki sposób aktualizacja przepisów w obliczu szybko zmieniającej się technologii, a także roli rządów stanowych i sądów.

Już w 2016 roku administracja Obamy zaczęła koncentrować się na zagrożeniach i regulacjach dotyczących sztucznej inteligencji. W raporcie zatytułowanym Przygotowanie dla przyszłości sztucznej inteligencji , National Science and Technology Rada precedensem, aby umożliwić naukowcom nadal rozwijać nowe technologie AI z kilkoma ograniczeniami. W raporcie stwierdzono, że „podejście do regulacji produktów wykorzystujących sztuczną inteligencję w celu ochrony bezpieczeństwa publicznego powinno opierać się na ocenie aspektów ryzyka…”. Zagrożenia te byłyby głównym powodem stworzenia jakiejkolwiek formy regulacji, zakładając, że żadne istniejące regulacje nie miałyby zastosowania do technologii sztucznej inteligencji.

Pierwszym głównym raportem był Narodowy Strategiczny Plan Badań i Rozwoju na rzecz Sztucznej Inteligencji. 13 sierpnia 2018 r. sekcja 1051 roku fiskalnego 2019 John S. McCain National Defence Authorization Act (PL 115-232) powołała Komisję Bezpieczeństwa Narodowego ds. Sztucznej Inteligencji „w celu rozważenia metod i środków niezbędnych do przyspieszenia rozwoju sztucznej inteligencji , uczenie maszynowe i powiązane technologie w celu kompleksowego zaspokojenia potrzeb w zakresie bezpieczeństwa i obrony narodowej Stanów Zjednoczonych”. Sterowanie w zakresie regulacji sztucznej inteligencji związanej z bezpieczeństwem zapewnia Narodowa Komisja Bezpieczeństwa ds. Sztucznej Inteligencji. Ustawa o sztucznej inteligencji (S.1558) to projekt ustawy, która ustanowi federalną inicjatywę mającą na celu przyspieszenie prac badawczo-rozwojowych nad sztuczną inteligencją, m.in. dla bezpieczeństwa gospodarczego i narodowego Stanów Zjednoczonych.

7 stycznia 2019 r., w następstwie zarządzenia wykonawczego w sprawie utrzymania amerykańskiego przywództwa w sztucznej inteligencji , Biuro Polityki Naukowej i Technologicznej Białego Domu opublikowało projekt Wytycznych dotyczących regulacji zastosowań sztucznej inteligencji , które zawierają dziesięć zasad dla agencji amerykańskich przy podejmowaniu decyzji, czy i jak regulować sztuczną inteligencję. W odpowiedzi Narodowy Instytut Standardów i Technologii opublikował stanowisko, Narodowa Komisja Bezpieczeństwa ds. Sztucznej Inteligencji opublikowała raport, a Rada ds. Innowacji Obronnych wydała zalecenia dotyczące etycznego wykorzystania sztucznej inteligencji. Rok później administracja wezwała do komentarzy dotyczących regulacji w innym projekcie swoich Wytycznych dotyczących regulacji zastosowań sztucznej inteligencji.

Inne konkretne agencje pracujące nad regulacją AI obejmują Food and Drug Administration, która stworzyła ścieżki regulujące włączanie AI do obrazowania medycznego.

Regulacja broni w pełni autonomicznej

Kwestie prawne związane ze śmiercionośnymi systemami broni autonomicznej (LAWS), w szczególności przestrzeganie prawa konfliktów zbrojnych , są przedmiotem dyskusji w Organizacji Narodów Zjednoczonych od 2013 r. w kontekście Konwencji o niektórych broniach konwencjonalnych . W szczególności w latach 2014, 2015 i 2016 odbyły się nieformalne spotkania ekspertów, a w 2016 r. powołano Grupę Ekspertów Rządowych (GGE) w celu dalszej dyskusji na ten temat. 2018.

W 2016 r. Chiny opublikowały dokument przedstawiający stanowisko, w którym kwestionowano adekwatność istniejącego prawa międzynarodowego w odniesieniu do ewentualnej w pełni autonomicznej broni, stając się pierwszym stałym członkiem Rady Bezpieczeństwa ONZ, który poruszył tę kwestię, i prowadząc do propozycji globalnych regulacji. Możliwość wprowadzenia moratorium lub prewencyjnego zakazu opracowywania i stosowania LAWS była również wielokrotnie podnoszona przez inne delegacje krajowe do Konwencji o niektórych broniach konwencjonalnych i jest zdecydowanie popierana przez Kampanię na rzecz Stop Killer Robots – koalicję non-profit. -organizacje rządowe. Rząd USA utrzymuje, że obecne międzynarodowe prawo humanitarne jest w stanie regulować rozwój lub stosowanie LAWS, a wojsko USA nie ma LAWS w swoim inwentarzu.

Zobacz też

Bibliografia

  1. ^ Heder, M (2020). „Krytyka wytycznych dotyczących etyki AI”. Információs Társadalom . 20 (4): 57-73. doi : 10.22503/inftars.XX.2020.4.5 .
  2. ^ „Etyczne podejście do sztucznej inteligencji jest absolutnym imperatywem, Andreas Kaplan” . Pobrano 26 kwietnia 2021 .
  3. ^ Sotala, Kaj; Jampolskiy, Roman V (2014-12-19). „Odpowiedzi na katastrofalne ryzyko AGI: ankieta” . Physica Scripta . 90 (1): 018001. doi : 10.1088/0031-8949/90/1/018001 . ISSN  0031-8949 .
  4. ^ a b „Elon Musk ostrzega gubernatorów: Sztuczna inteligencja stanowi „ryzyko egzystencjalne . NPR.org . Pobrano 27 listopada 2017 .
  5. ^ Gibbs Samuel (17 lipca 2017). „Elon Musk: ureguluj sztuczną inteligencję, aby zwalczać „egzystencjalne zagrożenie”, zanim będzie za późno” . Opiekun . Pobrano 27 listopada 2017 .
  6. ^ Charpal, Arjun (7 listopada 2017). „AI jest w powijakach i jest za wcześnie, by ją regulować, mówi dyrektor generalny Intela Brian Krzanich” . CNBC . Pobrano 27 listopada 2017 .
  7. ^ Kaplan, Andreas; Haenleina, Michaela (2019). „Siri, Siri, w mojej dłoni: kto jest najpiękniejszy w kraju? O interpretacjach, ilustracjach i implikacjach sztucznej inteligencji”. Horyzonty Biznesu . 62 : 15–25. doi : 10.1016/j.bushor.2018.08.004 .
  8. ^ Podręcznik naukowy dotyczący prawa sztucznej inteligencji . Barfield, Woodrow, Pagallo, Ugo. Cheltenham, Wielka Brytania. 2018. Numer ISBN 978-1-78643-904-8. OCLC  1039480085 .CS1 maint: inne ( link )
  9. ^ B Wirtz Bernd W .; Weyerer, Jan C.; Geyer, Karolina (24.07.2018). „Sztuczna inteligencja a sektor publiczny — zastosowania i wyzwania” . Międzynarodowy Dziennik Administracji Publicznej . 42 (7): 596–615. doi : 10.1080/01900692.2018.1498103 . ISSN  0190-0692 . S2CID  158829602 .
  10. ^ Buiten, Miriam C (2019). „W kierunku inteligentnej regulacji sztucznej inteligencji” . Europejski Dziennik Regulacji Ryzyka . 10 (1): 41–59. doi : 10.1017/err.2019.8 . ISSN  1867-299X .
  11. ^ Mantelero, Alessandro; Esposito, Maria Samantha (2021). „Oparta na dowodach metodologia oceny wpływu na prawa człowieka (HRIA) w rozwoju systemów intensywnie korzystających z danych SI” . Przegląd prawa komputerowego i bezpieczeństwa . 41 : 105561 . doi : 10.1016/j.clsr.2021.105561 . S2CID  237588123 .
  12. ^ a b Sztuczna inteligencja w społeczeństwie . Organizacja Współpracy Gospodarczej i Rozwoju. Paryż. 11 czerwca 2019 r. ISBN 978-92-64-54519-9. OCLC  1105926611 .CS1 maint: inne ( link )
  13. ^ Kamyshansky, Vladimir P.; Rudenko, Evgenia Y.; Kolomiets, Jewgienij A.; Kripakova, Dina R. (2020), „Revisiting the Place of Artificial Intelligence in Society and the State” , Artificial Intelligence: Anthropogenic Nature vs. Social Origin , Cham: Springer International Publishing, s. 359–364, doi : 10.1007/978 -3-030-39319-9_41 , ISBN 978-3-030-39318-2, S2CID  213070224 , pobrane 2021-03-27
  14. ^ BUITEN, Miriam C (2019). „W kierunku inteligentnej regulacji sztucznej inteligencji” . Europejski Dziennik Regulacji Ryzyka . 10 (1): 41–59. doi : 10.1017/err.2019.8 . ISSN  1867-299X . S2CID  155138874 .
  15. ^ Fjeld, Jessica; Achten, Nele; Hilligoss, Hannah; Nagy, Adam; Srikumar, Madhu (15.01.2020). „Principled Artificial Intelligence: Mapowanie konsensusu w podejściach etycznych i opartych na prawach do zasad dotyczących sztucznej inteligencji” . Cytowanie dziennika wymaga |journal=( pomoc )
  16. ^ Wirtz Bernd W.; Weyerer, Jan C.; Sturm, Benjamin J. (2020-04-15). „Ciemne strony sztucznej inteligencji: zintegrowane ramy zarządzania AI dla administracji publicznej”. Międzynarodowy Dziennik Administracji Publicznej . 43 (9): 818–829. doi : 10.1080/01900692.2020.1749851 . ISSN  0190-0692 . S2CID  28807452 .
  17. ^ B Bredt Stephan (04.10.2019). „Sztuczna inteligencja (AI) w sektorze finansowym — potencjał i strategie publiczne” . Granice w sztucznej inteligencji . 2 : 16. doi : 10.3389/frai.2019.00016 . ISSN  2624-8212 . PMC  7861258 . PMID  33733105 .
  18. ^ a b c Biała księga: O sztucznej inteligencji – europejskie podejście do doskonałości i zaufania (PDF) . Bruksela: Komisja Europejska. 2020. s. 1.
  19. ^ Wirtz Bernd W.; Müller, Wilhelm M. (2018-12-03). „Zintegrowane ramy sztucznej inteligencji dla zarządzania publicznego”. Przegląd Zarządzania Publicznego . 21 (7): 1076–1100. doi : 10.1080/14719037.2018.1549268 . ISSN  1471-9037 . S2CID  158267709 .
  20. ^ Reisman, Dillon; Schultz, Jason; Crawford, Kate; Whittaker, Meredith (2018). Algorytmiczne oceny wpływu: Praktyczne ramy odpowiedzialności agencji publicznej (PDF) . Nowy Jork: AI Now Institute.
  21. ^ „Ku Odpowiedzialnej Innowacji Sztucznej Inteligencji” (PDF) . UNICRI . 2020 . Źródło 2020-08-09 .
  22. ^ Gruson, Dawid (2019). „Ethique et intelligence artificielle en santé, pour une régulation positive” . Soins (po francusku). 64 (832): 54–57. doi : 10.1016/j.soin.2018.12.015 . PMID  30771853 .
  23. ^ B Kohli, Ajay; Mahadżan, Widur; Pieczęcie, Kevin; Kohli, Adżit; Jha, Saurabh (2019). „Koncepcje w amerykańskim rozporządzeniu Agencji ds. Żywności i Leków dotyczącym sztucznej inteligencji w obrazowaniu medycznym” . American Journal of Rentgenology . 213 (4): 886–888. doi : 10.2214/ajr.18.20410 . ISSN  0361-803X . PMID  31166758 . S2CID  174813195 .
  24. ^ Hwang, Thomas J.; Kesselheim, Aaron S.; Vokinger, Kerstin N. (17.12.2019). „Regulacja cyklu życia urządzeń programowych opartych na sztucznej inteligencji i uczeniu maszynowym w medycynie” . JAMA . 322 (23): 2285-2286. doi : 10.1001/jama.2019.16842 . ISSN  0098-7484 . PMID  31755907 . S2CID  208230202 .
  25. ^ Sharma, Kavita; Manczikanti, Padmawati (01.10.2020). „Regulacja Sztucznej Inteligencji w Wykrywaniu Leków i Opieki Zdrowotnej” . Raport dotyczący prawa biotechnologicznego . 39 (5): 371-380. doi : 10.1089/blr.2020.29183.ks . ISSN  0730-031X . S2CID  225540889 .
  26. ^ Petkus, Haroldas; Hoogewerf, Jan; Wyatt, Jeremy C (2020). „Co starsi lekarze myślą o sztucznej inteligencji i systemach wspomagania decyzji klinicznych: Analiza ilościowa i jakościowa danych ze specjalistycznych towarzystw” . Medycyna Kliniczna . 20 (3): 324–328. doi : 10.7861/clinmed.2019-0317 . ISSN  1470-2118 . PMC  7354034 . PMID  32414724 .
  27. ^ B c Gurkaynak, Gonenc; Yilmaz, Ilay; Haksever, Gunes (2016). „Dusząca sztuczna inteligencja: ludzkie zagrożenia”. Przegląd prawa komputerowego i bezpieczeństwa . 32 (5): 749–758. doi : 10.1016/j.clsr.2016.05.003 . ISSN  0267-3649 .
  28. ^ Iphofen, Ron; Kritikos, Mihalis (2019-01-03). „Regulacja sztucznej inteligencji i robotyki: etyka z założenia w społeczeństwie cyfrowym”. Współczesne nauki społeczne . 16 (2): 170–184. doi : 10.1080/21582041.2018.1563803 . ISSN  2158-2041 . S2CID  59298502 .
  29. ^ Zasady AI: Zalecenia dotyczące etycznego wykorzystania sztucznej inteligencji przez Departament Obrony (PDF) . Waszyngton, DC: Rada ds. Innowacji Obronnych Stanów Zjednoczonych. 2019. OCLC  1126650738 .
  30. ^ B c Babuta Aleksander; Oswalda, Mariona; Janjeva, Ardi (2020). Sztuczna inteligencja i bezpieczeństwo narodowe Wielkiej Brytanii: uwagi dotyczące polityki (PDF) . Londyn: Królewski United Services Institute.
  31. ^ a b „Roboty z bronią: The Rise of Autonomous Weapons Systems” . Snopes.com . 21 kwietnia 2017 r . Źródło 24 grudnia 2017 .
  32. ^ Bento, Lucas (2017). „No Mere Deodands: Obowiązki człowieka w korzystaniu z inteligentnych systemów opartych na przemocy w ramach międzynarodowego prawa publicznego” . Depozytariusze Stypendiów Harvarda . Źródło 2019-09-14 .
  33. ^ a b c d Sotala, Kaj; Jampolskiy, Roman V (2014-12-19). „Odpowiedzi na katastrofalne ryzyko AGI: ankieta” . Physica Scripta . 90 (1): 018001. doi : 10.1088/0031-8949/90/1/018001 . ISSN  0031-8949 .
  34. ^ a b Barrett, Anthony M.; Baum, Seth D. (23.05.2016). „Model ścieżek do katastrofy sztucznej superinteligencji do analizy ryzyka i decyzji”. Dziennik eksperymentalnej i teoretycznej sztucznej inteligencji . 29 (2): 397–414. arXiv : 1607.07730 . doi : 10.1080/0952813x.2016.1186228 . ISSN  0952-813X . S2CID  928824 .
  35. ^ Boyd, Mateusz; Wilson, Nick (01.11.2017). „Szybki rozwój sztucznej inteligencji: jak może zareagować rząd Nowej Zelandii?” . Polityka Kwartalna . 13 (4). doi : 10.26686/pq.v13i4.4619 . ISSN  2324-1101 .
  36. ^ Innowacje, nauka i rozwój gospodarczy Kanada (2019-05-16). „Deklaracja Międzynarodowego Panelu ds. Sztucznej Inteligencji” . gcnws . Źródło 2020-03-29 .
  37. ^ Simonite, Tom (08.01.2020). „Świat ma plan, by powstrzymać sztuczną inteligencję, ale USA się to nie podoba” . Przewodowy . Źródło 2020-03-29 .
  38. ^ a b „Rozporządzenie AI: Czy nadszedł czas?” . Tydzień Informacji . 24 lutego 2020 . Źródło 2020-03-29 .
  39. ^ a b c d e f g Raport naukowy UNESCO: wyścig z czasem na rzecz inteligentnego rozwoju . Paryż: UNESCO. 11 czerwca 2021. ISBN 978-92-3-100450-6.
  40. ^ „Zasady OECD dotyczące sztucznej inteligencji - Organizacja Współpracy Gospodarczej i Rozwoju” . www.oecd.org . Źródło 2020-03-29 .
  41. ^ Oświadczenie ministerialne G20 w sprawie handlu i gospodarki cyfrowej (PDF) . Miasto Tsukuba, Japonia: G20. 2019.
  42. ^ „Międzynarodowy panel etyczny AI musi być niezależny” . Natura . 572 (7770): 415. 2019-08-21. Kod Bibcode : 2019Natur.572R.415. . doi : 10.1038/d41586-019-02491-x . PMID  31435065 .
  43. ^ Wytyczne dotyczące zamówień AI (PDF) . Kolonia/Genewa: Światowe Forum Ekonomiczne. 2019.
  44. ^ B c d NíFhaoláin, Labhaoise; Hines, Andrzeju; Nallura, Viveka (2020). Ocena apetytu na wiarygodność i regulacje dotyczące sztucznej inteligencji w Europie (PDF) . Dublin: Uniwersytet Technologiczny w Dublinie, Szkoła Informatyki, Dublin. s. 1–12. Ten artykuł zawiera tekst dostępny na licencji CC BY 4.0 . (Licencja CC BY 4.0 oznacza, że ​​każdy ma prawo do ponownego wykorzystania cytowanego tutaj tekstu lub innych części samego oryginalnego artykułu, jeśli podają autorów. Więcej informacji: Licencja Creative Commons ) Zmiany zostały wprowadzone w następujący sposób: cytaty usunięte i drobne poprawki gramatyczne.
  45. ^ „UNICRI :: Międzyregionalny Instytut Badań nad Przestępczością Narodów Zjednoczonych i Sprawiedliwości” . www.unicri.it . Źródło 2020-08-08 .
  46. ^ Biblioteka Prawa Kongresu (USA). Global Legal Research Directorate, organ wydający. Regulacja sztucznej inteligencji w wybranych jurysdykcjach . LCCN  2019668143 . OCLC  1110727808 .
  47. ^ Popowa, Anna V.; Gorochowa, Swietłana S.; Abramowa, Marianna G.; Balashkina, Irina V. (2021), „System prawa i sztucznej inteligencji we współczesnej Rosji: cele i instrumenty modernizacji cyfrowej” , Studia w systemach, decyzji i kontroli , Cham: Springer International Publishing, s. 89-96, doi : 10.1007/978-3-030-56433-9_11 , ISBN 978-3-030-56432-2, S2CID  234309883 , pobrane 2021-03-27
  48. ^ „OECD Obserwatorium Innowacji Sektora Publicznego - Strategie AI i Komponenty Sektora Publicznego” . Źródło 2020-05-04 .
  49. ^ B Berryhill Jamie; Heang, Kevin Kok; Clogher, Rob; McBride, Keegan (2019). Witaj świecie: Sztuczna inteligencja i jej wykorzystanie w sektorze publicznym (PDF) . Paryż: Obserwatorium Innowacji Sektora Publicznego OECD. Błąd cytowania: nazwany odnośnik „:7” został zdefiniowany wielokrotnie z różną zawartością (patrz strona pomocy ).
  50. ^ Campbell, Thomas A. (2019). Sztuczna inteligencja: przegląd inicjatyw państwowych (PDF) . Evergreen, CO: FutureGrasp, LLC.
  51. ^ „Rada Europy i Sztuczna Inteligencja” . Sztuczna inteligencja . Źródło 2021-07-29 .
  52. ^ Anonimowy (2018-04-25). „Komunikacja Sztuczna Inteligencja dla Europy” . Kształtowanie cyfrowej przyszłości Europy - Komisja Europejska . Źródło 2020-05-05 .
  53. ^ smuhana (2018-06-14). „Grupa ekspertów wysokiego szczebla ds. sztucznej inteligencji” . Kształtowanie cyfrowej przyszłości Europy - Komisja Europejska . Źródło 2020-05-05 .
  54. ^ Andrasko, Józef; Mesarčík, Matúš; Hamuľák, Ondrej (2021-01-02). „Przecięcia regulacyjne między sztuczną inteligencją, ochroną danych i bezpieczeństwem cybernetycznym: wyzwania i możliwości dla ram prawnych UE” . Sztuczna inteligencja i społeczeństwo . 36 (2): 623–636. doi : 10.1007/s00146-020-01125-5 . ISSN  0951-5666 . S2CID  230109912 .
  55. ^ „Wytyczne etyczne dla godnej zaufania sztucznej inteligencji” (PDF) .
  56. ^ Weiser, Stephanie (03.04.2019). „Budowanie zaufania do sztucznej inteligencji zorientowanej na człowieka” . FUTURIUM - Komisja Europejska . Źródło 2020-05-05 .
  57. ^ Anonimowy (26.06.2019). „Zalecenia dotyczące polityki i inwestycji dla godnej zaufania sztucznej inteligencji” . Kształtowanie cyfrowej przyszłości Europy - Komisja Europejska . Źródło 2020-05-05 .
  58. ^ B Komisja Europejska. (2020). Biała księga na temat sztucznej inteligencji: europejskie podejście do doskonałości i zaufania . OCLC  114850140 .
  59. ^ „Biała księga w sprawie sztucznej inteligencji – europejskie podejście do doskonałości i zaufania | Kształtowanie cyfrowej przyszłości Europy” . digital-strategy.ec.europa.eu . Pobrano 2021-06-07 .
  60. ^ „Co czeka na wspólny program regulacyjny w sprawie sztucznej inteligencji?” . www.csis.org . Zarchiwizowane z oryginału w dniu 7 czerwca 2021 r . Pobrano 2021-06-07 .
  61. ^ Heikkila, Melissa (2021-04-14). „POLITICO AI: Decoded: Unijne przepisy dotyczące sztucznej inteligencji — Finlandia rozmawia z maszynami — projekt uczciwości Facebooka” (biuletyn). POLITYKA . Źródło 14.05.2021.
  62. ^ Komisja Europejska (2021-04-21). Europa na miarę ery cyfrowej: Komisja proponuje nowe zasady i działania na rzecz doskonałości i zaufania do sztucznej inteligencji (komunikat prasowy). Źródło 14.05.2021.
  63. ^ Ramy etyki danych (PDF) . Londyn: Departament Cyfryzacji, Kultury, Mediów i Sportu. 2018.
  64. ^ Leslie, Dawid (11.06.2019). „Zrozumienie etyki i bezpieczeństwa sztucznej inteligencji: przewodnik dotyczący odpowiedzialnego projektowania i wdrażania systemów sztucznej inteligencji w sektorze publicznym” . doi : 10.5281/zenodo.3240529 . S2CID  189762499 . Cytowanie dziennika wymaga |journal=( pomoc )
  65. ^ „Inteligentne narzędzia bezpieczeństwa” . www.ncsc.gov.uk . Źródło 2020-04-28 .
  66. ^ Tkacz, John Frank (28.12.2018). „Regulacja sztucznej inteligencji w Stanach Zjednoczonych” . Podręcznik badawczy na temat prawa sztucznej inteligencji : 155-212. doi : 10.4337/9781786439055.00018 . Numer ISBN 9781786439055.
  67. ^ Komitet Narodowej Rady Nauki i Technologii ds. Technologii (październik 2016). „Przygotowanie na przyszłość sztucznej inteligencji” . whitehouse.gov – za pośrednictwem archiwów narodowych .
  68. ^ „O” . Komisja Bezpieczeństwa Narodowego ds. Sztucznej Inteligencji . Źródło 2020-06-29 .
  69. ^ Stefanik, Elise M. (22.05.2018). „HR5356 – 115. Kongres (2017-2018): Ustawa Komisji Bezpieczeństwa Narodowego o Sztucznej Inteligencji z 2018 roku” . www.kongres.gov . Źródło 13.03.2020 .
  70. ^ Heinrich, Marcin (21.05.2019). "Tekst - S.1558 - 116. Kongres (2019-2020): Ustawa o inicjatywie sztucznej inteligencji" . www.kongres.gov . Źródło 2020-03-29 .
  71. ^ Scherer, Mateusz U. (2015). „Regulacja systemów sztucznej inteligencji: ryzyko, wyzwania, kompetencje i strategie”. Seria dokumentów roboczych SSRN . doi : 10.2139/ssrn.2609777 . ISSN  1556-5068 .
  72. ^ „Aktualizacja AI: Biały Dom wydaje 10 zasad regulacji sztucznej inteligencji” . Wewnątrz mediów technicznych . 2020-01-14 . Źródło 2020-03-25 .
  73. ^ Amerykańskie przywództwo w sztucznej inteligencji: plan federalnego zaangażowania w opracowywanie standardów technicznych i powiązanych narzędzi (PDF) . Narodowy Instytut Nauki i Techniki. 2019.
  74. ^ Raport końcowy NSCAI (PDF) . Waszyngton, DC: Komisja Bezpieczeństwa Narodowego ds. Sztucznej Inteligencji. 2021.
  75. ^ Zasady AI: Zalecenia dotyczące etycznego wykorzystania sztucznej inteligencji przez Departament Obrony (PDF) . Waszyngton, DC: Rada ds. Innowacji Obronnych. 2020.
  76. ^ „Request for Comments nad projektem memorandum do szefów departamentów i agencji wykonawczej«Poradniku dla rozporządzenia sztucznej inteligencji Applications » . Rejestr Federalny . 2020-01-13 . Źródło 2020-11-28 .
  77. ^ „Tło dotyczące śmiertelnych systemów broni autonomicznej w CCW” . ONZ Genewa.
  78. ^ „Zasady przewodnie potwierdzone przez Grupę Ekspertów Rządowych ds. Pojawiających się Technologii w Obszarze Systemu Zabójczej Broni Autonomicznej” (PDF) . ONZ Genewa.
  79. ^ Baum, Seth (2018-09-30). „Przeciwdziałanie dezinformacji superwywiadu” . Informacje . 9 (10): 244. doi : 10.3390/info9100244 . ISSN  2078-2489 .
  80. ^ „Poglądy krajów na zabójcze roboty” (PDF) . Kampania na rzecz powstrzymania zabójczych robotów.
  81. ^ Sayler, Kelley (2020). Sztuczna inteligencja i bezpieczeństwo narodowe: aktualizacja 10 listopada 2020 r. (PDF) . Waszyngton, DC: Centrum Badań Kongresu.