Prawa robotyki - Laws of robotics

The Laws of Robotics to zbiór przepisów, zasad lub zasad, które są przeznaczone jako podstawowe ramy, których celem jest zachowanie robotów przeznaczonych mieć pewien stopień autonomii . Roboty o takim stopniu złożoności jeszcze nie istnieją, ale były szeroko oczekiwane w science fiction , filmach i są przedmiotem aktywnych badań i rozwoju w dziedzinie robotyki i sztucznej inteligencji .

Najbardziej znanym zbiorem praw są te napisane przez Isaaca Asimova w latach czterdziestych lub na nich oparte, ale inne zbiory praw zostały zaproponowane przez badaczy w kolejnych dziesięcioleciach.

„Trzy prawa robotyki” Isaaca Asimova

Najbardziej znanym zbiorem praw są „ Trzy prawa robotykiIsaaca Asimova . Zostały one wprowadzone w jego opowiadaniu z 1942 r. „ Obieganie ”, choć zapowiedziano je w kilku wcześniejszych opowiadaniach. Trzy Prawa to:

  1. Robot nie może zranić człowieka ani przez bezczynność dopuścić do wyrządzenia krzywdy człowiekowi.
  2. Robot musi być posłuszny rozkazom ludzi, chyba że rozkazy te są sprzeczne z Pierwszym Prawem.
  3. Robot musi chronić swoją egzystencję, o ile taka ochrona nie jest sprzeczna z Pierwszym lub Drugim Prawem.

W The Evitable Conflict maszyny uogólniają Pierwsze Prawo w znaczeniu:

  1. „Żadna maszyna nie może zaszkodzić ludzkości, ani, poprzez bezczynność, pozwolić ludzkości na krzywdę”.

Zostało to udoskonalone pod koniec Fundamentu i Ziemi , wprowadzono prawo zerowe, z oryginalnymi trzema odpowiednio przepisanymi jako podrzędnymi:

0. Robot nie może wyrządzić krzywdy ludzkości lub przez bezczynność pozwolić ludzkości na krzywdę.

W oparciu o te ramy istnieją adaptacje i rozszerzenia. Od 2011 roku pozostają „ fikcyjnym urządzeniem ”.

EPSRC/AHRC zasady robotyki

W 2011 r. Rada ds. Badań nad Inżynierią i Naukami Fizycznymi (EPSRC) oraz Rada Badań nad Sztuką i Naukami Humanistycznymi (AHRC) z Wielkiej Brytanii wspólnie opublikowały zestaw pięciu „zasad etycznych dla projektantów, konstruktorów i użytkowników robotów” w świecie rzeczywistym , wraz z z siedmioma „przesłaniami wysokiego szczebla”, które mają zostać przekazane, na podstawie warsztatów badawczych z września 2010 r.:

  1. Roboty nie powinny być projektowane wyłącznie lub przede wszystkim do zabijania lub krzywdzenia ludzi.
  2. Odpowiedzialnymi agentami są ludzie, a nie roboty. Roboty to narzędzia zaprojektowane do osiągania ludzkich celów.
  3. Roboty powinny być projektowane w sposób zapewniający im bezpieczeństwo i ochronę.
  4. Roboty to artefakty; nie powinny być zaprojektowane tak, aby wykorzystywać wrażliwych użytkowników poprzez wywoływanie reakcji emocjonalnej lub zależności. Zawsze powinno być możliwe odróżnienie robota od człowieka.
  5. Zawsze powinno być możliwe ustalenie, kto jest prawnie odpowiedzialny za robota.

Komunikaty, które miały zostać przekazane, to:

  1. Wierzymy, że roboty mogą wywrzeć ogromny pozytywny wpływ na społeczeństwo. Chcemy zachęcać do odpowiedzialnych badań nad robotami.
  2. Zła praktyka boli nas wszystkich.
  3. Zajęcie się oczywistymi obawami społecznymi pomoże nam wszystkim poczynić postępy.
  4. Ważne jest, aby wykazać, że my, robotycy, jesteśmy zaangażowani w najlepsze możliwe standardy praktyki.
  5. Aby zrozumieć kontekst i konsekwencje naszych badań, powinniśmy współpracować z ekspertami z innych dyscyplin, m.in.: nauk społecznych, prawa, filozofii i sztuki.
  6. Powinniśmy rozważyć etykę przejrzystości: czy istnieją granice tego, co powinno być jawnie dostępne?
  7. Kiedy widzimy w prasie błędne relacje, zobowiązujemy się poświęcić trochę czasu na skontaktowanie się z reporterami.

Zasady EPSRC są powszechnie uznawane za przydatny punkt wyjścia. W 2016 roku Tony Prescott zorganizował warsztaty mające na celu zrewidowanie tych zasad, np. w celu odróżnienia zasad etycznych od prawnych.

Rozwój sądownictwa

Kolejna obszerna kodyfikacja terminologiczna służąca prawnej ocenie rozwoju technologicznego w branży robotyki rozpoczęła się już głównie w krajach azjatyckich. Postęp ten reprezentuje współczesną reinterpretację prawa (i etyki) w dziedzinie robotyki, interpretację, która zakłada przemyślenie na nowo tradycyjnych konstelacji prawnych. Obejmują one przede wszystkim kwestie odpowiedzialności prawnej w prawie cywilnym i karnym.

Prawa Satyi Nadelli

W czerwcu 2016 roku Satya Nadella , dyrektor generalna Microsoft Corporation , przeprowadziła wywiad z magazynem Slate i z grubsza naszkicowała sześć zasad dotyczących sztucznej inteligencji, których powinni przestrzegać jej projektanci:

  1. „AI musi być zaprojektowana, aby pomagać ludzkości”, co oznacza, że ​​należy szanować ludzką autonomię.
  2. „AI musi być przejrzysta”, co oznacza, że ​​ludzie powinni wiedzieć i być w stanie zrozumieć, jak działają.
  3. „Sztuczna inteligencja musi maksymalizować wydajność bez niszczenia godności ludzi”.
  4. „Sztuczna inteligencja musi być zaprojektowana z myślą o inteligentnej prywatności”, co oznacza, że ​​zdobywa zaufanie dzięki ochronie ich informacji.
  5. „AI musi mieć odpowiedzialność algorytmiczną, aby ludzie mogli cofnąć niezamierzone szkody”.
  6. „AI musi strzec się uprzedzeń”, aby nie dyskryminować ludzi.

„Prawa robotyki” Tildena

Mark W. Tilden jest fizykiem-robotem, który był pionierem w opracowywaniu prostej robotyki. Jego trzy główne zasady/zasady dotyczące robotów to:

  1. Robot musi za wszelką cenę chronić swoje istnienie.
  2. Robot musi uzyskać i utrzymać dostęp do własnego źródła zasilania.
  3. Robot musi nieustannie szukać lepszych źródeł zasilania.

To, co jest godne uwagi w tych trzech zasadach, to to, że są to w zasadzie zasady dotyczące „dzikiego” życia, więc w istocie to, co stwierdził Tilden, to „przekształcenie gatunku krzemu w świadomość, ale z pełną kontrolą nad specyfikacją. Nie rośliny. Nie zwierzę. Coś innego.

Zobacz też

Bibliografia