Prawa robotyki - Laws of robotics
Prawa robotyki |
---|
Etyka robotów przez Isaac Asimov ( w kulturze ) |
powiązane tematy |
The Laws of Robotics to zbiór przepisów, zasad lub zasad, które są przeznaczone jako podstawowe ramy, których celem jest zachowanie robotów przeznaczonych mieć pewien stopień autonomii . Roboty o takim stopniu złożoności jeszcze nie istnieją, ale były szeroko oczekiwane w science fiction , filmach i są przedmiotem aktywnych badań i rozwoju w dziedzinie robotyki i sztucznej inteligencji .
Najbardziej znanym zbiorem praw są te napisane przez Isaaca Asimova w latach czterdziestych lub na nich oparte, ale inne zbiory praw zostały zaproponowane przez badaczy w kolejnych dziesięcioleciach.
„Trzy prawa robotyki” Isaaca Asimova
Najbardziej znanym zbiorem praw są „ Trzy prawa robotyki ” Isaaca Asimova . Zostały one wprowadzone w jego opowiadaniu z 1942 r. „ Obieganie ”, choć zapowiedziano je w kilku wcześniejszych opowiadaniach. Trzy Prawa to:
- Robot nie może zranić człowieka ani przez bezczynność dopuścić do wyrządzenia krzywdy człowiekowi.
- Robot musi być posłuszny rozkazom ludzi, chyba że rozkazy te są sprzeczne z Pierwszym Prawem.
- Robot musi chronić swoją egzystencję, o ile taka ochrona nie jest sprzeczna z Pierwszym lub Drugim Prawem.
W The Evitable Conflict maszyny uogólniają Pierwsze Prawo w znaczeniu:
- „Żadna maszyna nie może zaszkodzić ludzkości, ani, poprzez bezczynność, pozwolić ludzkości na krzywdę”.
Zostało to udoskonalone pod koniec Fundamentu i Ziemi , wprowadzono prawo zerowe, z oryginalnymi trzema odpowiednio przepisanymi jako podrzędnymi:
- 0. Robot nie może wyrządzić krzywdy ludzkości lub przez bezczynność pozwolić ludzkości na krzywdę.
W oparciu o te ramy istnieją adaptacje i rozszerzenia. Od 2011 roku pozostają „ fikcyjnym urządzeniem ”.
EPSRC/AHRC zasady robotyki
W 2011 r. Rada ds. Badań nad Inżynierią i Naukami Fizycznymi (EPSRC) oraz Rada Badań nad Sztuką i Naukami Humanistycznymi (AHRC) z Wielkiej Brytanii wspólnie opublikowały zestaw pięciu „zasad etycznych dla projektantów, konstruktorów i użytkowników robotów” w świecie rzeczywistym , wraz z z siedmioma „przesłaniami wysokiego szczebla”, które mają zostać przekazane, na podstawie warsztatów badawczych z września 2010 r.:
- Roboty nie powinny być projektowane wyłącznie lub przede wszystkim do zabijania lub krzywdzenia ludzi.
- Odpowiedzialnymi agentami są ludzie, a nie roboty. Roboty to narzędzia zaprojektowane do osiągania ludzkich celów.
- Roboty powinny być projektowane w sposób zapewniający im bezpieczeństwo i ochronę.
- Roboty to artefakty; nie powinny być zaprojektowane tak, aby wykorzystywać wrażliwych użytkowników poprzez wywoływanie reakcji emocjonalnej lub zależności. Zawsze powinno być możliwe odróżnienie robota od człowieka.
- Zawsze powinno być możliwe ustalenie, kto jest prawnie odpowiedzialny za robota.
Komunikaty, które miały zostać przekazane, to:
- Wierzymy, że roboty mogą wywrzeć ogromny pozytywny wpływ na społeczeństwo. Chcemy zachęcać do odpowiedzialnych badań nad robotami.
- Zła praktyka boli nas wszystkich.
- Zajęcie się oczywistymi obawami społecznymi pomoże nam wszystkim poczynić postępy.
- Ważne jest, aby wykazać, że my, robotycy, jesteśmy zaangażowani w najlepsze możliwe standardy praktyki.
- Aby zrozumieć kontekst i konsekwencje naszych badań, powinniśmy współpracować z ekspertami z innych dyscyplin, m.in.: nauk społecznych, prawa, filozofii i sztuki.
- Powinniśmy rozważyć etykę przejrzystości: czy istnieją granice tego, co powinno być jawnie dostępne?
- Kiedy widzimy w prasie błędne relacje, zobowiązujemy się poświęcić trochę czasu na skontaktowanie się z reporterami.
Zasady EPSRC są powszechnie uznawane za przydatny punkt wyjścia. W 2016 roku Tony Prescott zorganizował warsztaty mające na celu zrewidowanie tych zasad, np. w celu odróżnienia zasad etycznych od prawnych.
Rozwój sądownictwa
Kolejna obszerna kodyfikacja terminologiczna służąca prawnej ocenie rozwoju technologicznego w branży robotyki rozpoczęła się już głównie w krajach azjatyckich. Postęp ten reprezentuje współczesną reinterpretację prawa (i etyki) w dziedzinie robotyki, interpretację, która zakłada przemyślenie na nowo tradycyjnych konstelacji prawnych. Obejmują one przede wszystkim kwestie odpowiedzialności prawnej w prawie cywilnym i karnym.
Prawa Satyi Nadelli
W czerwcu 2016 roku Satya Nadella , dyrektor generalna Microsoft Corporation , przeprowadziła wywiad z magazynem Slate i z grubsza naszkicowała sześć zasad dotyczących sztucznej inteligencji, których powinni przestrzegać jej projektanci:
- „AI musi być zaprojektowana, aby pomagać ludzkości”, co oznacza, że należy szanować ludzką autonomię.
- „AI musi być przejrzysta”, co oznacza, że ludzie powinni wiedzieć i być w stanie zrozumieć, jak działają.
- „Sztuczna inteligencja musi maksymalizować wydajność bez niszczenia godności ludzi”.
- „Sztuczna inteligencja musi być zaprojektowana z myślą o inteligentnej prywatności”, co oznacza, że zdobywa zaufanie dzięki ochronie ich informacji.
- „AI musi mieć odpowiedzialność algorytmiczną, aby ludzie mogli cofnąć niezamierzone szkody”.
- „AI musi strzec się uprzedzeń”, aby nie dyskryminować ludzi.
„Prawa robotyki” Tildena
Mark W. Tilden jest fizykiem-robotem, który był pionierem w opracowywaniu prostej robotyki. Jego trzy główne zasady/zasady dotyczące robotów to:
- Robot musi za wszelką cenę chronić swoje istnienie.
- Robot musi uzyskać i utrzymać dostęp do własnego źródła zasilania.
- Robot musi nieustannie szukać lepszych źródeł zasilania.
To, co jest godne uwagi w tych trzech zasadach, to to, że są to w zasadzie zasady dotyczące „dzikiego” życia, więc w istocie to, co stwierdził Tilden, to „przekształcenie gatunku krzemu w świadomość, ale z pełną kontrolą nad specyfikacją. Nie rośliny. Nie zwierzę. Coś innego.
Zobacz też
- Przyjazna sztuczna inteligencja
- Robotyka
- Etyka sztucznej inteligencji
- Roboty wojskowe, które mogą być zaprojektowane w taki sposób, że naruszają pierwsze prawo Asimova.
- Trzy prawa transhumanizmu
- Trzy prawa Clarke'a
- Prawa Nivena