Klonowanie cyfrowe - Digital cloning

Klonowanie cyfrowe to nowa technologia, która obejmuje algorytmy głębokiego uczenia się, które pozwalają manipulować obecnie istniejącymi dźwiękami , zdjęciami i filmami, które są hiperrealistyczne. Jednym ze skutków takiej technologii jest to, że hiperrealistyczne filmy i zdjęcia utrudniają ludzkiemu oku odróżnienie tego, co jest prawdziwe, a co fałszywe. Ponadto, gdy różne firmy udostępniają takie technologie opinii publicznej, mogą one przynieść różne korzyści, a także potencjalne problemy prawne i etyczne.

Klonowanie cyfrowe można podzielić na klonowanie audiowizualne (AV), pamięciowe, osobowości i zachowania konsumentów. W klonowaniu AV tworzenie sklonowanej cyfrowej wersji cyfrowego lub niecyfrowego oryginału może być wykorzystane, na przykład, do stworzenia fałszywego obrazu, awatara lub fałszywego filmu lub dźwięku osoby, którego nie można łatwo odróżnić od prawdziwą osobę, którą ma reprezentować. Klon pamięci i osobowości, taki jak klon umysłu, jest zasadniczo cyfrową kopią umysłu danej osoby. Klon zachowań konsumenckich to profil lub klaster klientów oparty na danych demograficznych.

Truby i Brown ukuli termin „klon myśli cyfrowej”, aby odnieść się do ewolucji klonowania cyfrowego w bardziej zaawansowany, spersonalizowany klon cyfrowy, który składa się z „repliki wszystkich znanych danych i zachowań konkretnej żywej osoby, rejestrującej w czasie rzeczywistym jej wybory, preferencje, trendy behawioralne i procesy podejmowania decyzji.”

Klonowanie cyfrowe po raz pierwszy stało się popularne w przemyśle rozrywkowym. Idea cyfrowych klonów zrodziła się w firmach filmowych tworzących wirtualnych aktorów zmarłych aktorów. Gdy aktorzy umierają podczas produkcji filmu, cyfrowy klon aktora może zostać zsyntetyzowany przy użyciu przeszłych nagrań, zdjęć i nagrań głosowych, aby naśladować prawdziwą osobę w celu kontynuowania produkcji filmu.

Nowoczesna sztuczna inteligencja pozwoliła na tworzenie deepfake'ów . Obejmuje to manipulowanie filmem do tego stopnia, że ​​osoba przedstawiona na filmie mówi lub wykonuje czynności, na które nie wyraziła zgody. W kwietniu 2018 r. BuzzFeed opublikował wideo z deepfake'iem Jordana Peele'a , które zostało zmanipulowane, aby przedstawić byłego prezydenta Baracka Obamę , wygłaszającego oświadczenia, których wcześniej nie wygłaszał publicznie, aby ostrzec opinię publiczną przed potencjalnym niebezpieczeństwem deepfake.

Oprócz deepfake firmy takie jak Intellitar umożliwiają teraz łatwe tworzenie cyfrowych klonów siebie poprzez dostarczanie serii obrazów i nagrań głosowych. To zasadniczo tworzy cyfrową nieśmiertelność , pozwalając bliskim na interakcję z tymi, którzy zmarli. Klonowanie cyfrowe pozwala nie tylko na cyfrowe upamiętnienie swoich bliskich, ale może być również wykorzystywane do tworzenia awatarów postaci historycznych i może być wykorzystywane w środowisku edukacyjnym.

Wraz z rozwojem różnych technologii, jak wspomniano powyżej, pojawia się wiele obaw, w tym kradzież tożsamości , naruszenia danych i inne kwestie etyczne. Jednym z problemów związanych z klonowaniem cyfrowym jest to, że nie ma prawie żadnych przepisów chroniących potencjalne ofiary przed tymi możliwymi problemami.

Technologia

Inteligentne platformy awatarów (IAP)

Intelligent Avatar Platform (IAP) można zdefiniować jako platformę internetową wspieraną przez sztuczną inteligencję, która pozwala na stworzenie własnego klona . Osoba musi wytrenować swojego klona, ​​aby działał i mówił jak ona, karmiąc algorytm licznymi nagraniami głosowymi i filmami o sobie. Zasadniczo platforma ta staje się miejscem, w którym żyje się wiecznie, ponieważ mogą wchodzić w interakcje z innymi awatarami na tej samej platformie. IAP staje się platformą, dzięki której można osiągnąć cyfrową nieśmiertelność , a także zachować drzewo genealogiczne i dziedzictwo dla następnych pokoleń.

Niektóre przykłady IAP to Intellitar i Eterni.me. Chociaż większość z tych firm jest wciąż w fazie rozwoju, wszystkie starają się osiągnąć ten sam cel, jakim jest umożliwienie użytkownikowi stworzenia dokładnego duplikatu siebie, aby przechowywać w cyberprzestrzeni każde wspomnienie, które ma w głowie. Niektóre zawierają darmową wersję, która pozwala użytkownikowi wybrać tylko swój awatar z danego zestawu obrazów i dźwięku. Jednak przy ustawieniu premium firmy te poproszą użytkownika o przesłanie zdjęć, filmów i nagrań audio jednego z nich, aby stworzyć realistyczną wersję siebie. Ponadto, aby upewnić się, że klon jest jak najbliżej oryginalnej osoby, firmy zachęcają również do interakcji z własnym klonem, rozmawiając i odpowiadając na pytania. Pozwala to algorytmowi nauczyć się poznania oryginalnej osoby i zastosować to do klona. Firma Intellitar została zamknięta w 2012 r. z powodu walk o własność intelektualną o używaną technologię

Potencjalne obawy związane z IAP obejmują potencjalne naruszenia danych i nieuzyskanie zgody zmarłego. IAP musi mieć solidne podstawy i odpowiedzialność przed naruszeniami danych i włamaniami, aby chronić dane osobowe zmarłych, które mogą obejmować nagrywanie głosu, zdjęcia i wiadomości. Oprócz ryzyka naruszenia prywatności osobistej istnieje również ryzyko naruszenia prywatności zmarłego . Chociaż można wyrazić zgodę na stworzenie cyfrowego klona siebie przed fizyczną śmiercią, nie jest on w stanie wyrazić zgody na działania, które może podjąć cyfrowy klon.

Głębokie podróbki

Jak opisano wcześniej, deepfake to forma manipulacji wideo, w której można zmienić obecnych ludzi, karmiąc różne obrazy konkretnej osoby, której chcą. Co więcej, można również zmienić głos i słowa, które osoba w filmie mówi, po prostu przesyłając serię nagrań głosowych nowej osoby trwających około jednej lub dwóch minut. W 2018 roku została wydana nowa aplikacja o nazwie FakeApp, która umożliwia publiczności łatwy dostęp do tej technologii w celu tworzenia filmów. Ta aplikacja została również wykorzystana do stworzenia filmu Buzzfeed byłego prezydenta Baracka Obamy . Dzięki deepfake branże mogą obniżyć koszty zatrudniania aktorów lub modeli do filmów i reklam, skutecznie tworząc filmy i filmy przy niskich kosztach, po prostu zbierając serię zdjęć i nagrań dźwiękowych za zgodą danej osoby.

Potencjalne obawy związane z deepfake polegają na tym, że dostęp jest przyznawany praktycznie każdemu, kto pobiera różne aplikacje, które oferują tę samą usługę. Ponieważ każdy może uzyskać dostęp do tego narzędzia, niektórzy mogą złośliwie używać aplikacji do tworzenia pornograficznych zemsty i manipulacyjnych filmów, na których urzędnicy publiczni wygłaszają oświadczenia, których nigdy nie powiedzą w prawdziwym życiu. To nie tylko narusza prywatność osoby w filmie, ale także budzi różne wątpliwości etyczne.

Klonowanie głosu

Klonowanie głosu to algorytm głębokiego uczenia się, który rejestruje nagrania głosu danej osoby i jest w stanie zsyntetyzować taki głos w taki, który jest bardzo podobny do oryginalnego głosu. Podobnie jak w przypadku deepfake, istnieje wiele aplikacji, takich jak Resemble AI, iSpeech i CereVoice Me, które zapewniają publiczny dostęp do takiej technologii. Algorytm potrzebuje po prostu co najwyżej kilku minut nagrań dźwiękowych, aby wytworzyć podobny głos, a także przyjmie dowolny tekst i odczyta go na głos. Mimo, że ta aplikacja jest wciąż w fazie rozwoju, szybko się rozwija, ponieważ wielkie korporacje technologiczne, takie jak Google i Amazon, inwestują w rozwój ogromne pieniądze.

Niektóre z pozytywnych zastosowań klonowania głosu obejmują możliwość syntezy milionów audiobooków bez użycia ludzkiej pracy. Inni to ci, którzy stracili głos, mogą odzyskać poczucie indywidualności, tworząc własny klon głosu, wprowadzając nagrania ich przemawiania, zanim utracili głos. Z drugiej strony klonowanie głosu jest również podatne na niewłaściwe użycie. Przykładem tego są głosy celebrytów i urzędników publicznych, które są klonowane i głos ten może powiedzieć coś, co wywoła konflikt, mimo że dana osoba nie ma żadnego związku z tym, co powiedział jej głos.

W uznaniu zagrożenia, jakie klonowanie głosu stanowi dla prywatności, uprzejmości i procesów demokratycznych, instytucje, w tym Federalna Komisja Handlu , Agencja ds. Zaawansowanych Projektów Badawczych Departamentu Sprawiedliwości i Obrony USA (DARPA), rozważyły ​​różne przypadki i metody użycia dźwięku głębokiego które mogą być użyte do ich zwalczania.

Konstruktywne zastosowania

Edukacja

Klonowanie cyfrowe może być przydatne w środowisku edukacyjnym, aby zapewnić uczniom bardziej wciągające wrażenia. Niektórzy uczniowie mogą uczyć się lepiej dzięki bardziej interaktywnym doświadczeniom, a tworzenie deepfake może zwiększyć zdolność uczenia się uczniów. Jednym z przykładów jest stworzenie cyfrowego klonu postaci historycznych, takich jak Abraham Lincoln, aby pokazać, z jakimi problemami borykał się w swoim życiu i jak był w stanie je przezwyciężyć. Innym przykładem wykorzystania cyfrowych klonów w środowisku edukacyjnym jest skłonienie mówców do tworzenia cyfrowych klonów samych siebie. Różne grupy wsparcia mogą mieć problemy z harmonogramami, ponieważ w ciągu roku jeżdżą po różnych szkołach. Jednak tworząc cyfrowe klony samych siebie, ich klony mogą zaprezentować temat w miejscach, w których grupa fizycznie nie była w stanie tego zrobić. Te korzyści edukacyjne mogą przynieść uczniom nowy sposób uczenia się, a także dać dostęp tym, którzy wcześniej nie byli w stanie uzyskać dostępu do zasobów ze względu na warunki środowiskowe.

Sztuka

Chociaż klonowanie cyfrowe jest już od jakiegoś czasu obecne w branży rozrywkowej i artystycznej, sztuczna inteligencja może znacznie rozszerzyć zastosowania tej technologii w branży. Przemysł filmowy może stworzyć jeszcze bardziej hiperrealistycznych aktorów i aktorki, które odeszły. Ponadto przemysł filmowy może również tworzyć cyfrowe klony w scenach filmowych, które mogą wymagać dodatków, co może znacznie obniżyć koszty produkcji. Klonowanie cyfrowe i inne technologie mogą być jednak korzystne do celów niekomercyjnych. Na przykład artyści mogą być bardziej ekspresywni, jeśli chcą zsyntetyzować awatary, aby stać się częścią ich produkcji wideo. Mogą również tworzyć cyfrowe awatary, aby tworzyć szkice swojej pracy i pomagać w formułowaniu pomysłów przed przejściem do pracy nad ostatecznym dziełem.

Cyfrowa nieśmiertelność

Chociaż cyfrowa nieśmiertelność istnieje już od jakiegoś czasu, ponieważ konta zmarłych w mediach społecznościowych nadal pozostają w cyberprzestrzeni, tworzenie wirtualnego klona, ​​który jest nieśmiertelny, nabiera nowego znaczenia. Dzięki stworzeniu cyfrowego klona można nie tylko uchwycić wizualną obecność samych siebie, ale także ich manierę, w tym osobowość i poznanie. Dzięki cyfrowej nieśmiertelności można nadal kontaktować się z bliskimi po ich śmierci, co prawdopodobnie może zakończyć barierę fizycznej śmierci. Co więcej, rodziny mogą łączyć się z wieloma pokoleniami, tworząc w pewnym sensie drzewo genealogiczne, aby przekazać dziedzictwo rodzinne przyszłym pokoleniom, umożliwiając przekazywanie historii.

Obawy

Fałszywe wiadomości

Z powodu braku przepisów dotyczących deepfake pojawiło się kilka obaw. Niektóre z nich dotyczą filmów typu deepfake, które mogą wyrządzić potencjalne szkody, obejmują przedstawianie urzędników politycznych wykazujących nieodpowiednie zachowanie, policjantów pokazanych jako strzelających do nieuzbrojonych czarnych mężczyzn oraz żołnierzy mordujących niewinnych cywilów, chociaż może to nigdy nie miało miejsca w prawdziwym życiu. Przy takich hiperrealistycznych filmach publikowanych w Internecie bardzo łatwo jest wprowadzić w błąd opinię publiczną, co może skłonić ludzi do podjęcia działań, przyczyniając się w ten sposób do tego błędnego koła niepotrzebnych szkód. Dodatkowo, wraz ze wzrostem liczby fałszywych wiadomości w ostatnich wiadomościach, istnieje również możliwość łączenia deepfake'ów i fałszywych wiadomości. Spowoduje to dalsze trudności w odróżnieniu tego, co jest prawdziwe, a co fałszywe. Informacje wizualne mogą być bardzo przekonujące dla ludzkich oczu, dlatego połączenie deepfake i fake news może mieć szkodliwy wpływ na społeczeństwo. Firmy zajmujące się mediami społecznościowymi i inne platformy informacyjne powinny wprowadzić surowe przepisy.

Użytek własny

Innym powodem, dla którego deepfake mogą być złośliwie wykorzystywane, jest sabotowanie drugiego na poziomie osobistym. Wraz ze wzrostem dostępności technologii do tworzenia deepfake szantażyści i złodzieje są w stanie łatwo wydobyć dane osobowe w celu uzyskania korzyści finansowych i innych powodów, tworząc filmy z bliskimi ofiary proszącymi o pomoc. Co więcej, klonowanie głosu może być złośliwie wykorzystywane przez przestępców do wykonywania fałszywych połączeń telefonicznych z ofiarami. Rozmowy telefoniczne będą miały taki sam głos i sposób bycia jak osoba, co może skłonić ofiarę do podania prywatnych informacji przestępcy bez wiedzy. Ewentualnie, zły aktor może na przykład stworzyć deepfake osoby nałożonej na film wideo w celu wyłudzenia zapłaty za szantaż i/lub jako akt zemsty porno .

Tworzenie deepfake'ów i klonów głosowych do użytku osobistego może być niezwykle trudne zgodnie z prawem, ponieważ nie ma to żadnej szkody komercyjnej. Przychodzą one raczej często w postaci urazów psychicznych i emocjonalnych, co utrudnia sądowi zadośćuczynienie.

Implikacje etyczne

Chociaż istnieje wiele problemów prawnych, które pojawiają się wraz z rozwojem takiej technologii, istnieją również problemy etyczne, które mogą nie być chronione na mocy obowiązujących przepisów. Jednym z największych problemów związanych z wykorzystaniem deepfake i klonowania głosu jest możliwość kradzieży tożsamości. Jednak kradzież tożsamości pod kątem deepfake jest trudna do ścigania, ponieważ obecnie nie ma przepisów dotyczących deepfake'ów. Co więcej, szkody, jakie może przynieść złośliwe użycie deepfake, mają raczej charakter psychologiczny i emocjonalny niż finansowy, co utrudnia znalezienie lekarstwa. Allen przekonuje, że sposób, w jaki należy traktować swoją prywatność, jest podobny do kategorycznego imperatywu Kanta .

Inną implikacją etyczną jest wykorzystanie prywatnych i osobistych informacji, z których należy zrezygnować, aby korzystać z technologii. Ponieważ klonowanie cyfrowe, deepfake i klonowanie głosu wykorzystują algorytm głębokiego uczenia się, im więcej informacji otrzyma algorytm, tym lepsze są wyniki. Jednak każda platforma niesie ze sobą ryzyko naruszenia danych, co może potencjalnie prowadzić do uzyskania dostępu do bardzo osobistych informacji przez grupy, na które użytkownicy nigdy nie wyrazili zgody. Co więcej, prywatność pośmiertna staje pod znakiem zapytania, gdy członkowie rodziny ukochanej osoby próbują zebrać jak najwięcej informacji, aby stworzyć cyfrowego klona zmarłego bez pozwolenia na to, ile informacji są gotowi oddać.

Obowiązujące przepisy w Stanach Zjednoczonych

Prawa autorskie

W Stanach Zjednoczonych prawa autorskie wymagają pewnego rodzaju oryginalności i kreatywności, aby chronić indywidualność autora. Jednak tworzenie cyfrowego klonu oznacza po prostu pobieranie danych osobowych, takich jak zdjęcia, nagrania głosowe i inne informacje, aby stworzyć wirtualną osobę, która jest tak bliska rzeczywistej osobie. W decyzji Sądu Najwyższego sprawa Feist Publications Inc. v. Wsi Telewizji Services Company, Inc . Sędzia O'Connor podkreślił znaczenie oryginalności i pewnego stopnia kreatywności. Jednak zakres oryginalności i kreatywności nie jest jasno określony, tworząc szarą strefę dla praw autorskich. Tworzenie cyfrowych klonów wymaga nie tylko danych osoby, ale także danych wejściowych twórcy dotyczących sposobu działania lub przemieszczania się cyfrowego klonu. W sprawie Meshwerks przeciwko Toyocie pytanie to zostało podniesione, a sąd stwierdził, że te same prawa autorskie, które zostały stworzone dla fotografii, powinny mieć zastosowanie do klonów cyfrowych.

Prawo do reklamy

Przy obecnym braku przepisów chroniących osoby fizyczne przed potencjalnym złośliwym wykorzystaniem klonowania cyfrowego, prawo do reklamy może być najlepszym sposobem ochrony danej osoby w warunkach prawnych. Prawo reklamy , nazywane także dóbr osobistych, daje autonomię jednostki, jeśli chodzi o kontrolowanie ich własny głos, wygląd i inne aspekty, które w istocie czyni się ich osobowości w otoczeniu komercyjnym. Jeśli film typu deepfake lub cyfrowy klon takiej osoby powstaje bez jej zgody, przedstawiając osobę podejmującą działania lub składającą oświadczenia, które są niezgodne z jej osobowością, osoba ta może podjąć działania prawne, twierdząc, że narusza to jej prawo do reklamy. Chociaż prawo do reklamy wyraźnie stanowi, że ma ono na celu ochronę wizerunku osoby w otoczeniu komercyjnym, co wymaga pewnego rodzaju zysku, niektórzy twierdzą, że prawodawstwo może zostać zaktualizowane, aby chronić wizerunek i osobowość praktycznie każdego. Inną ważną uwagą jest to, że prawo do reklamy jest wdrażane tylko w określonych stanach, więc niektóre stany mogą mieć różne interpretacje tego prawa w porównaniu z innymi stanami.

Działania zapobiegawcze

Rozporządzenie

Cyfrowe i cyfrowe klony myśli podnoszą kwestie prawne dotyczące prywatności danych, świadomej zgody, przeciwdziałania dyskryminacji, praw autorskich i prawa do reklamy. Więcej jurysdykcji musi pilnie uchwalić przepisy podobne do ogólnego rozporządzenia o ochronie danych w Europie, aby chronić ludzi przed pozbawionym skrupułów i szkodliwym wykorzystaniem ich danych oraz nieuprawnionym rozwojem i wykorzystywaniem klonów myśli cyfrowej.

Technologia

Jednym ze sposobów zapobiegania byciu ofiarą którejkolwiek z wyżej wymienionych technologii jest opracowanie sztucznej inteligencji przeciwko tym algorytmom. Istnieje już kilka firm, które opracowały sztuczną inteligencję, która potrafi wykrywać zmanipulowane obrazy, patrząc na wzory w każdym pikselu. Stosując podobną logikę, próbują stworzyć oprogramowanie, które pobiera każdą klatkę danego filmu i analizuje ją piksel po pikselu, aby znaleźć wzór oryginalnego wideo i określić, czy został on zmanipulowany.

Oprócz opracowywania nowych technologii, które mogą wykrywać wszelkie manipulacje wideo, wielu badaczy podkreśla znaczenie tworzenia przez prywatne korporacje bardziej rygorystycznych wytycznych w celu ochrony prywatności osób. Wraz z rozwojem sztucznej inteligencji należy zadać sobie pytanie, jak wpływa to na dzisiejsze społeczeństwo, ponieważ zaczyna pojawiać się praktycznie w każdym aspekcie społeczeństwa, w tym w medycynie , edukacji , polityce i gospodarce . Co więcej, sztuczna inteligencja zacznie pojawiać się w różnych aspektach społeczeństwa, co sprawia, że ​​ważne jest posiadanie przepisów chroniących prawa człowieka, gdy technologia przejmie kontrolę. Ponieważ sektor prywatny zyskuje większą władzę cyfrową nad społeczeństwem, ważne jest, aby ustanowić surowe przepisy i prawa, aby zapobiec złośliwemu wykorzystywaniu danych osobowych przez prywatne korporacje. Ponadto przeszła historia różnych naruszeń danych i naruszeń polityki prywatności powinna być również ostrzeżeniem o tym, w jaki sposób można uzyskać dostęp do danych osobowych i wykorzystać je bez zgody danej osoby.

Umiejętność korzystania z technologii cyfrowych

Innym sposobem zapobiegania szkodom ze strony tych technologii jest edukowanie ludzi o zaletach i wadach klonowania cyfrowego. W ten sposób umożliwia każdej osobie podjęcie racjonalnej decyzji w oparciu o własne okoliczności. Co więcej, ważne jest również edukowanie ludzi, jak chronić informacje, które umieszczają w Internecie. Zwiększając kompetencje cyfrowe społeczeństwa, ludzie mają większą szansę na stwierdzenie, czy dany film został zmanipulowany, ponieważ mogą być bardziej sceptyczni wobec informacji, które znajdują w Internecie.

Zobacz też

Bibliografia

  1. ^ Floridi Luciano (2018). „Sztuczna inteligencja, Deepfakes i przyszłość ektypów” . Filozofia i technologia . 31 (3): 317–321. doi : 10.1007/s13347-018-0325-3 .
  2. ^ Borel, Brooke (2018). „Kliknięcia, kłamstwa i kasety wideo”. Naukowy Amerykanin . 319 (4): 38–43. Kod Bibcode : 2018SciAm.319d..38B . doi : 10.1038/scientificamerican1018-38 . PMID  30273328 .
  3. ^ a b c Truby, Jon; Brązowy, Rafael (2021). „Klony ludzkiej myśli cyfrowej: Święty Graal sztucznej inteligencji dla dużych zbiorów danych” . Prawo teleinformatyczne . 30 (2): 140–168. doi : 10.1080/13600834.2020.1850174 . hdl : 10576/17266 . S2CID  229442428 . CC-BY icon.svg Tekst został skopiowany z tego źródła, które jest dostępne na licencji Creative Commons Attribution 4.0 International License .
  4. ^ B Broda, Józef (2001). „KLONY, KOŚCI I STREFY ZMIERZCHU: Ochrona cyfrowej postaci Szybcy, Umarli i Wyimaginowani”. Berkeley Technology Law Journal . 16 (3): 1165-1271. JSTOR  24116971 .
  5. ^ B c Allen, Anita (2016). „Ochrona własnej prywatności w gospodarce Big Data” . Harvard Law Review . 130 (2): 71-86.
  6. ^ B Silverman, Craig (kwiecień 2018). „Jak rozpoznać Deepfake'a, takiego jak film Baracka Obamy-Jordana Peele'a” . Kanał buzzów .
  7. ^ B c d e Meese James (2015). „Osobowość pośmiertna i afordancje mediów cyfrowych”. Śmiertelność . 20 (4): 408–420. doi : 10.1080/13576275.2015.1083724 . hdl : 10453/69288 . S2CID  147550696 .
  8. ^ B Nemitz Paul Friedrich (2018). „Demokracja i technologia konstytucyjna w dobie sztucznej inteligencji” . Transakcje filozoficzne Towarzystwa Królewskiego A: Nauki matematyczne, fizyczne i inżynieryjne . 59 (9): 20180089. Kod Bib : 2018RSPTA.37680089N . doi : 10.1098/rsta.2018.0089 . PMID  30323003 .
  9. ^ B Michalik Lyndsay (2013). " ' Haunting Fragments': Cyfrowy Żałoba i Intermedia Performance". Teatr Roczny . 66 (1): 41-64. ProQuest  1501743129 .
  10. ^ Ursache, Mariusz. "Wieczność" .
  11. ^ http://fusion.net/story/116999/this-start-up-promised-10000-people-eternal-digital-life-then-it-died/
  12. ^ S. Agarwal, H. Farid, Y. Gu, M. He, K. Nagano i H. Li, „Ochrona światowych liderów przed głębokimi fałszerstwami”, w warsztatach IEEE Conference on Computer Vision and Pattern Recognition (CVPR) , Czerwiec 2019.
  13. ^ B c d e Chesney Robert (2018). „Głębokie podróbki: zbliżające się wyzwanie dla prywatności, demokracji i bezpieczeństwa narodowego” (PDF) . Dziennik elektroniczny SSRN . 26 (1): 1-58.
  14. ^ Suwajanakorn, Supasorn (2017). „Syntetyzowanie Obamy” (PDF) . Transakcje ACM na grafice . 36 (4): 1–13. doi : 10.1145/3072959.3073640 . S2CID  207586187 .
  15. ^ B c Brayne Sarah (2018). „Dane wizualne i prawo”. Dochodzenie prawno-społeczne . 43 (4): 1149–1163. doi : 10.1111/lsi.12373 . S2CID  150076575 .
  16. ^ Fletcher, Jan (2018). „Deepfakes, sztuczna inteligencja i jakiś rodzaj dystopii: nowe twarze wydajności online po fakcie”. Dziennik teatralny . 70 (4): 455–71. doi : 10.1353/tj.2018.0097 . S2CID  191988083 .
  17. ^ „Eksperci klonowania głosu obejmują przestępczość, pozytywne przypadki użycia i zabezpieczenia” . 29 stycznia 2020 r.
  18. ^ Chesney, Robert (2019). „Deepfakes i nowa wojna dezinformacyjna: nadchodząca era geopolityki postprawdy” . Sprawy Zagraniczne . 98 (1): 147–55.
  19. ^ Sala, Kathleen (2018). „Deepfake Videos: Kiedy widzieć nie wierzy” . Katolicki Uniwersytet Czasopisma Prawa i Techniki . 27 (1): 51-75.
  20. ^ Poudel, Sawrpool (2016). „Internet rzeczy: podstawowe technologie, interoperacyjność i zagrożenia dla prywatności i bezpieczeństwa” . Przegląd prawa technologicznego Berkeley . 31 (2): 997-1021.
  21. ^ Dang, L. Ming (2018). "Głębokie uczenie oparte na komputerowej identyfikacji twarzy przy użyciu splotowej sieci neuronowej" . Nauki stosowane . 8 (12): 2610. doi : 10.3390/app8122610 .
  22. ^ Savin-Baden, Maggi (2018). „Cyfrowa nieśmiertelność i wirtualni ludzie” (PDF) . Nauka i edukacja postcyfrowa . 1 (1): 87–103. doi : 10.1007/s42438-018-0007-6 .
  23. ^ B Newell Bryce Clayton (2010). „Niezależne tworzenie i oryginalność w dobie naśladowanej rzeczywistości: analiza porównawcza ochrony praw autorskich i baz danych dla cyfrowych modeli prawdziwych ludzi” . Uniwersytet Brighama Younga Prawo Międzynarodowe i Zarządzanie . 6 (2): 93–126.
  24. ^ Goering, Kevin (2018). „Prawo do publikacji w Nowym Jorku: nowe spojrzenie na prywatność i pierwsza poprawka w erze cyfrowej – wiosenne sympozjum AELJ 2” . Dziennik elektroniczny SSRN . 36 (3): 601–635.
  25. ^ Harris, Douglas (2019). „Deepfakes: fałszywa pornografia jest tutaj, a prawo nie może cię chronić” . Książęcy przegląd prawa i technologii . 17 : 99–127.
  26. ^ Bas, Harvey (1998). „Paradygmat uwierzytelniania dowodów fotograficznych w epoce cyfrowej” . Przegląd prawa Thomasa Jeffersona . 20 (2): 303–322.
  27. ^ Wen, Jie (2012). „Analiza złośliwego zachowania oparta na Cyber-I urodzenia”. Czasopismo Inteligentnej Produkcji . 25 (1): 147–55. doi : 10.1007/s10845-012-0681-2 . S2CID  26225937 . ProQuest  1490889853 .
  28. ^ Maras, Marie-Helen (2018). „Określanie autentyczności dowodów wideo w erze sztucznej inteligencji i w następstwie filmów Deepfake”. Międzynarodowy Dziennik Dowodów i Dowodów . 23 (1): 255–262. doi : 10.1177/1365712718807226 . S2CID  150336977 .