Deepfake
Część serii o |
sztucznej inteligencji |
---|
Deepfake ( połączenie słów „ głębokie uczenie się ” i „fałszywość”) to syntetyczne media , w których osoba na istniejącym obrazie lub filmie jest zastępowana podobizną innej osoby. Chociaż czynność tworzenia fałszywych treści nie jest nowa, deepfake wykorzystuje potężne techniki uczenia maszynowego i sztucznej inteligencji do manipulowania lub generowania treści wizualnych i dźwiękowych, które można łatwiej oszukać. Główne metody uczenia maszynowego wykorzystywane do tworzenia deepfake'ów opierają się na głębokim uczeniu i obejmują trenowanie generatywnych sieci neuronowych , takich jak autoenkodery lub generatywne sieci przeciwstawne (GAN).
Deepfake'i przyciągnęły powszechną uwagę ze względu na ich potencjalne wykorzystanie do tworzenia materiałów związanych z wykorzystywaniem seksualnym dzieci , filmów pornograficznych z udziałem celebrytów , pornografii zemsty , fałszywych wiadomości , mistyfikacji , zastraszania i oszustw finansowych . Wywołało to reakcję zarówno przemysłu, jak i rządu, aby wykryć i ograniczyć ich użycie.
Od tradycyjnej rozrywki po gry , technologia deepfake ewoluowała, stając się coraz bardziej przekonująca i dostępna dla publiczności, umożliwiając rewolucję w branży rozrywkowej i medialnej .
Historia
Obróbka zdjęć została opracowana w XIX wieku i wkrótce została zastosowana w filmach . Technologia stale się poprawiała w XX wieku, a wraz z pojawieniem się cyfrowego wideo przyspieszyła .
Technologia Deepfake została opracowana przez badaczy w instytucjach akademickich od lat 90., a później przez amatorów w społecznościach internetowych. Ostatnio metody zostały przyjęte przez przemysł.
Badania akademickie
Badania akademickie związane z deepfake'ami są podzielone między dziedzinę wizji komputerowej , poddziedzinę informatyki, która rozwija techniki tworzenia i identyfikacji deepfake'ów, oraz podejścia humanistyczne i społeczne, które badają społeczne, etyczne i estetyczne implikacje deepfake'ów.
Nauki społeczne i humanistyczne podchodzą do deepfake'ów
W badaniach kinematograficznych deepfake pokazuje, jak „ludzka twarz wyłania się jako centralny obiekt ambiwalencji w erze cyfrowej”. Artyści wideo wykorzystali deepfake'i do „żartobliwego przepisania historii kina poprzez doposażenie kanonicznego kina w nowych gwiazdorów”. Filmoznawca Christopher Holliday analizuje, w jaki sposób zamiana płci i rasy wykonawców w znanych scenach filmowych destabilizuje klasyfikacje i kategorie płci. Pomysł „ queerowania ” deepfake'ów jest również omawiany w dyskusji Olivera M. Gingricha na temat dzieł sztuki mediów, które wykorzystują deepfake'y do zmiany płci, w tym Zizi: Queering the Dataset brytyjskiego artysty Jake'a Elwesa , dzieło, które wykorzystuje deepfakes drag queens do celowej zabawy z płeć. Zaczyna się również badać estetyczny potencjał deepfake'ów. Historyk teatru, John Fletcher, zauważa, że wczesne demonstracje deepfake'ów są przedstawiane jako przedstawienia i sytuuje je w kontekście teatru, omawiając „niektóre z bardziej niepokojących zmian paradygmatu”, które deepfake reprezentują jako gatunek teatralny.
Filozofowie i badacze mediów dyskutowali o etyce deepfake'ów, zwłaszcza w odniesieniu do pornografii. Badaczka mediów, Emily van der Nagel, opiera się na badaniach fotografii nad zmanipulowanymi obrazami, aby omówić systemy weryfikacji, które pozwalają kobietom wyrażać zgodę na wykorzystanie ich zdjęć.
Poza pornografią, filozofowie określali deepfake jako „epistemiczne zagrożenie” dla wiedzy, a tym samym dla społeczeństwa. Istnieje kilka innych sugestii, jak radzić sobie z zagrożeniami, jakie stwarzają deepfakes poza pornografią, ale także dla korporacji, polityków i innych, związane z „wyzyskiem, zastraszaniem i sabotażem osobistym”, a także istnieje kilka naukowych dyskusji na temat potencjalnych reakcji prawnych i regulacyjnych zarówno na studiach prawniczych, jak i medioznawstwie. W psychologii i badaniach nad mediami uczeni omawiają skutki dezinformacji z wykorzystaniem deepfake'ów oraz społeczny wpływ deepfake'ów.
Podczas gdy większość anglojęzycznych badań akademickich na temat deepfake'ów koncentruje się na zachodnich obawach związanych z dezinformacją i pornografią, antropolog cyfrowy Gabriele de Seta przeanalizował chińską recepcję deepfake'ów, które są znane jako huanlian , co oznacza "zmieniające się twarze". Chiński termin nie zawiera „fałszywego” angielskiego deepfake, a de Seta argumentuje, że ten kontekst kulturowy może wyjaśniać, dlaczego chińska reakcja dotyczyła bardziej praktycznych reakcji regulacyjnych na „ryzyko oszustwa, prawa do wizerunku, zysk ekonomiczny i nierównowagę etyczną”. ".
Badania informatyczne nad deepfake'ami
Wczesnym przełomowym projektem był program Video Rewrite, opublikowany w 1997 roku, który zmodyfikował istniejące nagranie wideo osoby mówiącej, aby przedstawić tę osobę wypowiadającą bezgłośnie słowa zawarte w innej ścieżce dźwiękowej. Był to pierwszy system, który w pełni zautomatyzował tego rodzaju reanimację twarzy i zrobił to przy użyciu technik uczenia maszynowego w celu połączenia między dźwiękami wydawanymi przez obiekt wideo a kształtem twarzy obiektu.
Współczesne projekty akademickie koncentrowały się na tworzeniu bardziej realistycznych filmów i ulepszaniu technik. Program „Synthesizing Obama”, opublikowany w 2017 roku, modyfikuje materiał wideo byłego prezydenta Baracka Obamy , aby przedstawiał go wypowiadającego bezgłośnie słowa zawarte w osobnej ścieżce dźwiękowej. Projekt wymienia jako główny wkład badawczy swoją fotorealistyczną technikę syntezy kształtów ust z dźwięku. Program Face2Face, opublikowany w 2016 roku, modyfikuje materiał wideo przedstawiający twarz osoby, aby przedstawiać ją naśladującą mimikę innej osoby w czasie rzeczywistym. Projekt wymienia jako główny wkład badawczy pierwszą metodę odtwarzania mimiki twarzy w czasie rzeczywistym przy użyciu aparatu, który nie rejestruje głębi, co umożliwia wykonanie tej techniki przy użyciu popularnych aparatów konsumenckich.
W sierpniu 2018 roku naukowcy z Uniwersytetu Kalifornijskiego w Berkeley opublikowali artykuł przedstawiający fałszywą aplikację do tańca, która może sprawiać wrażenie mistrzowskich umiejętności tanecznych za pomocą sztucznej inteligencji. Ten projekt rozszerza zastosowanie deepfake'ów na całe ciało; poprzednie prace koncentrowały się na głowie lub częściach twarzy.
Naukowcy wykazali również, że deepfake'i rozszerzają się na inne dziedziny, takie jak manipulowanie obrazami medycznymi. W tej pracy pokazano, w jaki sposób atakujący może automatycznie wstrzyknąć lub usunąć raka płuc w tomografii komputerowej 3D pacjenta. Wynik był tak przekonujący, że oszukał trzech radiologów i najnowocześniejszą sztuczną inteligencję do wykrywania raka płuc. Aby zademonstrować zagrożenie, autorzy z powodzeniem przeprowadzili atak na szpital w teście penetracyjnym White hat .
Ankieta dotycząca deepfake'ów, opublikowana w maju 2020 r., przedstawia harmonogram rozwoju tworzenia i wykrywania deepfake'ów w ciągu ostatnich kilku lat. Ankieta wykazała, że badacze skupili się na rozwiązywaniu następujących problemów związanych z tworzeniem deepfake:
- Uogólnienie. Wysokiej jakości deepfakes są często osiągane poprzez szkolenie godzin materiału filmowego celu. Wyzwanie to polega na zminimalizowaniu ilości danych treningowych i czasu szkolenia modelu wymaganego do tworzenia wysokiej jakości obrazów oraz umożliwieniu wykonania wyszkolonych modeli na nowych tożsamościach (niewidocznych podczas szkolenia).
- Trening w parze. Uczenie nadzorowanego modelu może dawać wysokiej jakości wyniki, ale wymaga parowania danych. Jest to proces znajdowania przykładów danych wejściowych i ich pożądanych wyników, z których model może się uczyć. Parowanie danych jest pracochłonne i niepraktyczne w przypadku uczenia się na wielu tożsamościach i zachowaniach twarzy. Niektóre rozwiązania obejmują samonadzorowane szkolenie (z wykorzystaniem klatek z tego samego wideo), korzystanie z niesparowanych sieci, takich jak Cycle-GAN, lub manipulowanie osadzonymi sieciami.
- Wyciek tożsamości. W tym przypadku tożsamość kierowcy (tj. aktora kontrolującego twarz w rekonstrukcji) jest częściowo przenoszona na wygenerowaną twarz. Niektóre proponowane rozwiązania obejmują mechanizmy uwagi, uczenie się kilku strzałów, rozplątywanie, konwersje granic i pomijanie połączeń.
- Okluzje. Kiedy część twarzy jest zasłonięta ręką, włosami, okularami lub jakimkolwiek innym przedmiotem, mogą wystąpić artefakty. Powszechną okluzją jest zamknięta jama ustna, która zasłania wnętrze jamy ustnej i zęby. Niektóre rozwiązania obejmują segmentację obrazu podczas szkolenia i malowania.
- Spójność czasowa. W filmach zawierających deepfake mogą wystąpić artefakty, takie jak migotanie i drgania, ponieważ sieć nie ma kontekstu poprzedzających klatek. Niektórzy badacze zapewniają ten kontekst lub wykorzystują nowe straty spójności czasowej, aby poprawić realizm. Wraz z rozwojem technologii zakłócenia maleją.
Ogólnie rzecz biorąc, oczekuje się, że deepfake będzie miał kilka implikacji w mediach i społeczeństwie, produkcji medialnej, reprezentacji w mediach, odbiorcach mediów, płci, prawie i regulacjach oraz polityce.
Rozwój amatorski
Termin deepfakes powstał pod koniec 2017 roku od użytkownika Reddit o nazwie „deepfakes”. On, jak również inni członkowie społeczności Reddit r/deepfakes, udostępnili utworzone przez siebie deepfake'i; wiele filmów zawierało twarze celebrytów zamienione na ciała aktorek w filmach pornograficznych, podczas gdy treści niepornograficzne obejmowały wiele filmów z twarzą aktora Nicolasa Cage'a zamienioną na różne filmy.
Pozostają inne społeczności internetowe, w tym społeczności Reddit, które nie udostępniają pornografii, takie jak r / SFWdeepfakes (skrót od „bezpieczne głębokie podróbki do pracy”), w których członkowie społeczności udostępniają głębokie podróbki przedstawiające celebrytów, polityków i inne osoby w scenariuszach niepornograficznych. Inne społeczności internetowe nadal udostępniają pornografię na platformach, które nie zakazały pornografii deepfake.
Rozwój handlowy
W styczniu 2018 roku została uruchomiona autorska aplikacja desktopowa o nazwie FakeApp. Ta aplikacja pozwala użytkownikom łatwo tworzyć i udostępniać filmy z zamienionymi twarzami. Od 2019 roku FakeApp został zastąpiony przez alternatywy typu open source, takie jak Faceswap, DeepFaceLab oparty na wierszu poleceń i aplikacje internetowe, takie jak DeepfakesWeb.com
Większe firmy zaczęły wykorzystywać deepfake. Korporacyjne filmy szkoleniowe można tworzyć przy użyciu sfałszowanych awatarów i ich głosów, na przykład Synthesia, która wykorzystuje technologię deepfake z awatarami do tworzenia spersonalizowanych filmów. Gigant aplikacji mobilnych Momo stworzył aplikację Zao, która pozwala użytkownikom nałożyć swoją twarz na klipy telewizyjne i filmowe za pomocą jednego zdjęcia. Od 2019 roku japońska firma DataGrid zajmująca się sztuczną inteligencją stworzyła deepfake całego ciała, który może stworzyć osobę od podstaw. Zamierzają wykorzystać je w modzie i odzieży.
Od 2020 roku istnieją również deepfakes audio i oprogramowanie AI zdolne do wykrywania deepfakes i klonowania ludzkich głosów po 5 sekundach słuchania. Mobilna aplikacja deepfake Impressions została uruchomiona w marcu 2020 roku. Była to pierwsza aplikacja do tworzenia filmów deepfake celebrytów z telefonów komórkowych.
Wskrzeszenie
Technologia deepfake może być wykorzystywana nie tylko do fabrykowania wiadomości i działań innych osób, ale także do ożywiania zmarłych osób. 29 października 2020 roku Kim Kardashian opublikowała wideo przedstawiające swojego zmarłego ojca Roberta Kardashiana ; twarz w filmie Roberta Kardashiana została stworzona za pomocą technologii deepfake. Ten hologram został stworzony przez firmę Kaleida, która wykorzystuje połączenie wydajności, śledzenia ruchu, SFX, VFX i technologii DeepFake do hologramów .
W 2020 roku Joaquin Oliver, ofiara strzelaniny w Parkland , został wskrzeszony dzięki technologii deepfake. Rodzice Olivera połączyli siły w imieniu swojej organizacji Nonprofit Change the Ref i McCann Health, by wyprodukować ten fałszywy film promujący kampanię głosowania na temat bezpieczeństwa broni. W tej fałszywej wiadomości Joaquin zachęca widzów do głosowania.
W 2022 roku Elvis Presley został wskrzeszony w America's Got Talent 17 przy użyciu technologii deepfake.
Techniki
Deepfake polegają na rodzaju sieci neuronowej zwanej autoenkoderem . Składają się one z kodera, który redukuje obraz do utajonej przestrzeni o niższych wymiarach , oraz dekodera, który rekonstruuje obraz z utajonej reprezentacji. Deepfake wykorzystuje tę architekturę, mając uniwersalny koder, który koduje osobę w ukrytej przestrzeni. Ukryta reprezentacja zawiera kluczowe cechy dotyczące ich rysów twarzy i postawy ciała. Można to następnie zdekodować za pomocą modelu wyszkolonego specjalnie dla celu. Oznacza to, że szczegółowe informacje o celu zostaną nałożone na podstawowe cechy twarzy i ciała oryginalnego wideo, reprezentowane w ukrytej przestrzeni.
Popularna aktualizacja tej architektury dołącza do dekodera generatywną sieć przeciwstawną . Sieć GAN trenuje generator, w tym przypadku dekoder, oraz dyskryminator w relacji kontradyktoryjnej. Generator tworzy nowe obrazy z ukrytej reprezentacji materiału źródłowego, podczas gdy dyskryminator próbuje określić, czy obraz jest generowany. Powoduje to, że generator tworzy obrazy, które bardzo dobrze naśladują rzeczywistość, ponieważ wszelkie defekty zostałyby wyłapane przez dyskryminator. Oba algorytmy stale się poprawiają w grze o sumie zerowej . Utrudnia to walkę z deepfake'ami, ponieważ stale ewoluują; za każdym razem, gdy zostanie stwierdzona wada, można ją naprawić.
Aplikacje
Szantaż
Deepfakes mogą być wykorzystywane do generowania materiałów szantażu, które fałszywie obciążają ofiarę. Raport sporządzony przez American Congressional Research Service ostrzegał, że deepfake może być wykorzystywany do szantażowania wybranych urzędników lub osób mających dostęp do informacji niejawnych w celach szpiegowskich lub wywierania wpływu .
Alternatywnie, ponieważ podróbek nie można wiarygodnie odróżnić od oryginalnych materiałów, ofiary rzeczywistego szantażu mogą teraz twierdzić, że prawdziwe artefakty są podróbkami, dając im wiarygodne zaprzeczenie. Efektem jest unieważnienie wiarygodności istniejących materiałów szantażu, co wymazuje lojalność wobec szantażysty i niszczy kontrolę szantażysty. Zjawisko to można nazwać „inflacją szantażu”, ponieważ „dewaluuje” prawdziwy szantaż, czyniąc go bezwartościowym. Możliwe jest wykorzystanie standardowego sprzętu GPU z małym oprogramowaniem do generowania treści szantażu dla dowolnej liczby podmiotów w ogromnych ilościach, zwiększając podaż fałszywych treści szantażu w sposób nieograniczony i wysoce skalowalny.
Pornografia
W 2017 roku pornografia Deepfake pojawiła się w Internecie, zwłaszcza na Reddicie . Od 2019 roku wiele deepfake'ów w Internecie zawiera pornografię celebrytek, których podobizny są zwykle wykorzystywane bez ich zgody. W raporcie opublikowanym w październiku 2019 r. przez holenderski start-up Deeptrace, zajmujący się cyberbezpieczeństwem, oszacowano, że 96% wszystkich deepfake online miało charakter pornograficzny. Od 2018 r. uwagę po raz pierwszy zwrócił między innymi deepfake Daisy Ridley . Według stanu na październik 2019 r. większość tematów deepfake w Internecie to brytyjskie i amerykańskie aktorki. Jednak około jedna czwarta badanych to Koreańczycy z Korei Południowej, z których większość to gwiazdy K-popu.
W czerwcu 2019 roku została wydana aplikacja DeepNude do pobrania dla systemów Windows i Linux , która wykorzystywała sieci neuronowe, w szczególności generatywne sieci przeciwników , do usuwania odzieży z wizerunków kobiet. Aplikacja miała zarówno płatną, jak i bezpłatną wersję, płatna wersja kosztowała 50 USD. 27 czerwca twórcy usunęli aplikację i zwrócili konsumentom pieniądze.
Polityka
Deepfake'i były wykorzystywane do fałszywego przedstawiania znanych polityków w filmach.
- W kwietniu 2018 roku Jordan Peele współpracował z Buzzfeed , aby stworzyć deepfake Baracka Obamy z głosem Peele'a; służyło jako ogłoszenie usługi publicznej w celu zwiększenia świadomości na temat deepfake'ów.
- W 2018 roku w osobnych filmach twarz prezydenta Argentyny Mauricio Macri została zastąpiona twarzą Adolfa Hitlera , a twarz Angeli Merkel została zastąpiona twarzą Donalda Trumpa .
- W styczniu 2019 roku stowarzyszona z Fox KCPQ wyemitowała deepfake Trumpa podczas jego przemówienia w Gabinecie Owalnym , kpiąc z jego wyglądu i koloru skóry. Pracownik uznany za odpowiedzialnego za wideo został następnie zwolniony.
- Komisja Wywiadu Izby Reprezentantów Stanów Zjednoczonych przeprowadziła przesłuchania w sprawie potencjalnego złośliwego wykorzystania deepfake'ów do wpływania na wybory.
- W kwietniu 2020 r. belgijski oddział Extinction Rebellion opublikował na Facebooku fałszywe wideo przedstawiające belgijską premier Sophie Wilmès . Film promował możliwy związek między wylesianiem a COVID-19 . Miał ponad 100 000 wyświetleń w ciągu 24 godzin i otrzymał wiele komentarzy. Na stronie na Facebooku, na której pojawił się film, wielu użytkowników zinterpretowało ten film jako autentyczny.
- Podczas kampanii prezydenckiej w USA w 2020 r. pojawiło się wiele głębokich podróbek, które rzekomo wskazywały na pogorszenie funkcji poznawczych Joe Bidena — zasypianie podczas wywiadu, gubienie się i mówienie — wszystkie te plotki wzmacniały plotki o jego upadku.
- Podczas kampanii wyborczej do Zgromadzenia Ustawodawczego Delhi w 2020 r . Partia Delhi Bharatiya Janata Party wykorzystała podobną technologię do dystrybucji wersji anglojęzycznej reklamy kampanii jej lidera, Manoj Tiwari , przetłumaczonej na haryanvi , aby skierować ją do wyborców Haryana . Aktor zapewnił lektora, a sztuczna inteligencja przeszkolona przy użyciu wideo przemówień Tiwari została wykorzystana do zsynchronizowania wideo z nowym lektorem. Członek personelu partii opisał to jako „pozytywne” wykorzystanie technologii deepfake, która pozwoliła im „przekonująco zbliżyć się do grupy docelowej, nawet jeśli kandydat nie mówił językiem wyborcy”.
- W 2020 roku Bruno Sartori wyprodukował deepfake'i parodiujące polityków, takich jak Jair Bolsonaro i Donald Trump .
- W kwietniu 2021 roku do polityków w wielu krajach europejskich zgłosili się żartownisie Vovan i Lexus , oskarżani przez krytyków o pracę na rzecz rosyjskiego państwa. Podszywali się pod Leonida Wołkowa , rosyjskiego polityka opozycyjnego i szefa sztabu kampanii rosyjskiego lidera opozycji Aleksieja Nawalnego , rzekomo za pomocą technologii deepfake. Jednak para powiedziała The Verge , że nie używali deepfake'ów, a po prostu używali podobnego do siebie .
Sztuka
W marcu 2018 multidyscyplinarny artysta Joseph Ayerle opublikował grafikę wideo Un'emozione per sempre 2.0 (angielski tytuł: The Italian Game ). Artystka pracowała z technologią Deepfake, aby stworzyć sztuczną inteligencję aktorki , syntetycznej wersji gwiazdy filmowej z lat 80. Ornelli Muti , podróżującej w czasie od 1978 do 2018 roku. Massachusetts Institute of Technology odniósł się do tej pracy w badaniu „Collective Wisdom”. Artystka wykorzystała podróż w czasie Ornelli Muti do zgłębienia pokoleniowych refleksji, jednocześnie badając rolę prowokacji w świecie sztuki. Do realizacji technicznej Ayerle wykorzystał sceny z fotomodelką Kendall Jenner . Program zastąpił twarz Jennera obliczoną przez AI twarzą Ornelli Muti. W rezultacie aktorka AI ma twarz włoskiej aktorki Ornelli Muti i ciało Kendall Jenner.
Deepfakes są szeroko stosowane w satyrze lub parodiowaniu celebrytów i polityków. Serial internetowy Sassy Justice z 2020 r. , stworzony przez Treya Parkera i Matta Stone'a , w dużym stopniu przedstawia wykorzystanie sfałszowanych osób publicznych do satyrowania bieżących wydarzeń i podnoszenia świadomości na temat technologii deepfake.
Gra aktorska
Pojawiły się spekulacje na temat wykorzystania deepfake'ów do tworzenia cyfrowych aktorów do przyszłych filmów. Cyfrowo skonstruowani/zmodyfikowani ludzie byli już wcześniej wykorzystywani w filmach , a deepfake może przyczynić się do nowych rozwiązań w najbliższej przyszłości. Technologia Deepfake była już wykorzystywana przez fanów do umieszczania twarzy w istniejących filmach, na przykład umieszczając Harrisona Forda na twarzy Hana Solo w Solo: A Star Wars Story , a techniki podobne do tych stosowanych w deepfake zostały użyte w aktorstwo księżniczki Lei i Wielkiego Moffa Tarkina w Łotrze 1 .
Wraz z postępem technologii deepfake, Disney udoskonalił swoje efekty wizualne za pomocą technologii deepfake o wysokiej rozdzielczości. Disney ulepszył swoją technologię poprzez progresywne szkolenie zaprogramowane do rozpoznawania mimiki twarzy, wdrożenie funkcji zamiany twarzy i iterację w celu ustabilizowania i udoskonalenia wyników. Ta technologia deepfake o wysokiej rozdzielczości pozwala zaoszczędzić znaczne koszty operacyjne i produkcyjne. Model generowania deepfake firmy Disney może wytwarzać media generowane przez sztuczną inteligencję w rozdzielczości 1024 x 1024, w przeciwieństwie do popularnych modeli, które produkują media w rozdzielczości 256 x 256. Technologia pozwala Disneyowi odmłodzić postacie lub ożywić zmarłych aktorów.
W filmie dokumentalnym Welcome to Chechnya z 2020 r. Wykorzystano technologię deepfake, aby ukryć tożsamość osób, z którymi przeprowadzono wywiady, aby chronić je przed odwetem.
Rozrywka
8 czerwca 2022 roku Daniel Emmet, były zawodnik AGT , połączył siły ze start-upem AI Metaphysic AI, aby stworzyć hiperrealistyczny deepfake, aby wyglądał jak Simon Cowell . Cowell, znany z ostrej krytyki uczestników, był na scenie, interpretując „ You're The Inspiration ” zespołu Chicago . Emmet śpiewał na scenie, gdy obraz Simona Cowella pojawił się na ekranie za nim w nieskazitelnej synchronizacji.
30 sierpnia 2022 r. Metaphysic AI miał „głęboko fałszywego” Simona Cowella , Howiego Mandela i Terry'ego Crewsa śpiewających operę na scenie.
13 września 2022 roku Metaphysic AI wystąpiła z syntetyczną wersją Elvisa Presleya w finale America's Got Talent .
Projekt sztucznej inteligencji MIT 15.ai został wykorzystany do tworzenia treści dla wielu internetowych fandomów , szczególnie w mediach społecznościowych.
Mem internetowy
W 2020 roku pojawił się mem internetowy wykorzystujący deepfake do generowania filmów przedstawiających ludzi śpiewających refren „Baka Mitai” ( ば か み た い ) , piosenki z gry Yakuza 0 z serii gier wideo Yakuza . W serialu melancholijna piosenka jest śpiewana przez gracza w minigrze karaoke . Większość iteracji tego mema wykorzystuje jako szablon wideo z 2017 roku przesłane przez użytkownika Dobbsyrules, który synchronizuje piosenkę ustami .
Media społecznościowe
Deepfake'i zaczęły być wykorzystywane na popularnych platformach społecznościowych, w szczególności za pośrednictwem Zao, chińskiej aplikacji deepfake, która pozwala użytkownikom zastępować własne twarze postaciami w scenach z filmów i programów telewizyjnych, takich jak Romeo i Julia i Gra o tron . Aplikacja pierwotnie została poddana kontroli pod kątem inwazyjnych danych użytkownika i polityki prywatności, po czym firma wydała oświadczenie, w którym twierdziła, że zmieni tę politykę. W styczniu 2020 roku Facebook ogłosił, że wprowadza nowe środki, aby temu przeciwdziałać na swoich platformach.
Kongresowa Służba Badawcza przytoczyła nieokreślone dowody wskazujące na to, że agenci zagranicznego wywiadu używali deepfake do tworzenia kont w mediach społecznościowych w celu rekrutacji osób mających dostęp do informacji niejawnych .
TikToku ukazały się realistyczne filmy deepfake aktora Toma Cruise'a , które stały się wirusowe i zgromadziły ponad dziesiątki milionów wyświetleń. Filmy deepfake przedstawiały „wygenerowanego przez sztuczną inteligencję sobowtóra” Cruise'a wykonującego różne czynności, takie jak granie na polu golfowym, popisywanie się sztuczką z monetami i gryzienie lizaka. Twórca klipów, belgijski artysta VFX Chris Umé, powiedział, że po raz pierwszy zainteresował się deepfake'ami w 2018 roku i dostrzegł w nich „twórczy potencjał”.
Skarpetkowa Lalka
Z fotografii deepfake można stworzyć sockpuppets , nieistniejących ludzi, którzy są aktywni zarówno w internecie, jak iw tradycyjnych mediach. Wygląda na to, że fałszywa fotografia została wygenerowana wraz z legendą pozornie nieistniejącej osoby o imieniu Oliver Taylor, której tożsamość została opisana jako student uniwersytetu w Wielkiej Brytanii. Postać Olivera Taylora publikowała opinie w kilku gazetach i była aktywna w mediach internetowych, atakując brytyjskiego naukowca prawa i jego żonę, nazywając ich „sympatykami terroryzmu”. technologii hakowania telefonów NSO. Reuters mógł znaleźć tylko skąpe dane dotyczące Olivera Taylora, a „jego” uniwersytet nie miał o nim żadnych danych. Wielu ekspertów zgodziło się, że zdjęcie profilowe to deepfake. Kilka gazet nie wycofało przypisywanych mu artykułów ani nie usunęło ich ze swoich stron internetowych. Istnieje obawa, że takie techniki stanowią nowe pole bitwy w dezinformacji .
Kolekcje fałszywych zdjęć nieistniejących osób w sieciach społecznościowych zostały również rozmieszczone w ramach izraelskiej propagandy partyzanckiej . Strona Facebooka „Syjonistyczna Wiosna” zawierała zdjęcia nieistniejących osób wraz z ich „zeznaniami” rzekomo wyjaśniającymi, dlaczego porzucili swoją lewicową politykę na rzecz prawicy, a strona zawierała również dużą liczbę postów od premiera Minister Izraela Benjamin Netanjahu i jego syn oraz z innych prawicowych źródeł izraelskich. Wydaje się, że zdjęcia zostały wygenerowane przez technologię „ syntezy ludzkich obrazów ”, oprogramowanie komputerowe, które pobiera dane ze zdjęć prawdziwych ludzi, aby stworzyć realistyczny, złożony obraz nieistniejącej osoby. W większości „zeznań” powodem przyjęcia prawicy był szok wywołany wiadomością o rzekomym podżeganiu do przemocy wobec premiera. Prawicowi izraelscy nadawcy telewizyjni wyemitowali następnie „zeznania” tych nieistniejących osób, opierając się na fakcie, że były one „udostępniane” w Internecie. Nadawcy wyemitowali historię, mimo że nadawcy nie mogli znaleźć takich osób, wyjaśniając: „Dlaczego pochodzenie ma znaczenie?” Inne fałszywe profile na Facebooku – profile fikcyjnych osób – zawierały materiały, które rzekomo zawierały takie podżeganie przeciwko prawicowemu premierowi, w odpowiedzi na które premier skarżył się, że istnieje spisek mający na celu jego zabójstwo.
Obawy
Oszustwo
Głębokie podróbki dźwięku były wykorzystywane jako część oszustw socjotechnicznych , oszukując ludzi, aby myśleli, że otrzymują instrukcje od zaufanej osoby. W 2019 roku dyrektor generalny brytyjskiej firmy energetycznej został oszukany przez telefon, kiedy otrzymał polecenie przelania 220 000 euro na węgierskie konto bankowe przez osobę, która wykorzystała technologię deepfake audio, aby podszyć się pod głos dyrektora generalnego firmy macierzystej.
Wiarygodność i autentyczność
Chociaż fałszywe zdjęcia są od dawna obfite, sfałszowanie filmów jest trudniejsze, a obecność deepfake'ów zwiększa trudność w sklasyfikowaniu filmów jako autentycznych lub nie. Badacz sztucznej inteligencji, Alex Champandard, powiedział, że ludzie powinni wiedzieć, jak szybko można zepsuć rzeczy za pomocą technologii deepfake, i że problem nie jest natury technicznej, ale raczej problemem, który należy rozwiązać, ufając informacjom i dziennikarstwu. Deepfake można wykorzystać do zniesławienia, podszywania się i szerzenia dezinformacji. Podstawową pułapką jest to, że ludzkość może wpaść w epokę, w której nie można już określić, czy treść medium odpowiada prawdzie.
Podobnie profesor informatyki Hao Li z University of Southern California twierdzi, że deepfake stworzone do złośliwego użytku, takie jak fałszywe wiadomości, będą jeszcze bardziej szkodliwe, jeśli nie zostaną podjęte żadne działania w celu rozpowszechnienia wiedzy na temat technologii deepfake. Li przewidział, że prawdziwe filmy i deepfake staną się nie do odróżnienia już za pół roku, od października 2019 r., Ze względu na szybki postęp w sztucznej inteligencji i grafice komputerowej.
Były ekspert ds. oszustw Google, Shuman Ghosemajumder , nazwał deepfake obszarem „niepokoju społecznego” i powiedział, że nieuchronnie ewoluują one do punktu, w którym będą mogły być generowane automatycznie, a jednostka może wykorzystać tę technologię do wyprodukowania milionów fałszywych filmów.
Konsekwencje deepfake'a nie są na tyle znaczące, aby zdestabilizować cały system rządowy; jednak deepfake'i mają zdolność wyrządzania ogromnych szkód poszczególnym podmiotom. Dzieje się tak dlatego, że deepfake są często wycelowane w jedną osobę i/lub jej relacje z innymi w nadziei na stworzenie narracji wystarczająco silnej, aby wpłynąć na opinię publiczną lub przekonania. Można to zrobić za pomocą deepfake phishingu głosowego, który manipuluje dźwiękiem w celu tworzenia fałszywych połączeń telefonicznych lub rozmów. Inną metodą wykorzystania deepfake są sfabrykowane prywatne uwagi, które manipulują mediami w celu przekazania osobom wyrażającym szkodliwe komentarze.
We wrześniu 2020 r. Microsoft ogłosił publicznie, że opracowuje narzędzie programowe do wykrywania Deepfake.
Przykładowe wydarzenia
Baracka Obamę
17 kwietnia 2018 roku amerykański aktor Jordan Peele , BuzzFeed i Monkeypaw Productions opublikował na YouTube deepfake przedstawiający Baracka Obamę, który przedstawiał Baracka Obamę przeklinającego i wyzywającego Donalda Trumpa. W tym deepfake'u głos i twarz Peele'a zostały przekształcone i zmanipulowane w głos Obamy. Intencją tego filmu było pokazanie niebezpiecznych konsekwencji i siły deepfake'ów oraz tego, jak deepfake'i mogą sprawić, że ktoś coś powie.
Donalda Trumpa
5 maja 2019 roku Derpfakes opublikował na YouTube deepfake Donalda Trumpa , oparty na skeczu Jimmy'ego Fallona wykonanym w programie NBC The Tonight Show . W oryginalnym skeczu (wyemitowanym 4 maja 2016 r.) Jimmy Fallon przebrał się za Donalda Trumpa i udawał, że bierze udział w rozmowie telefonicznej z Barackiem Obamą, rozmawiając w sposób, który przedstawiał go jako chwalącego się swoim głównym zwycięstwem w Indianie. W deepfake'u twarz Jimmy'ego Fallona została przekształcona w twarz Donalda Trumpa, a dźwięk pozostał ten sam. Ten film typu deepfake został wyprodukowany przez firmę Derpfakes w celach komediowych.
Nancy Pelosi
W 2019 r. klip z przemówienia Nancy Pelosi w Center for American Progress (wygłoszony 22 maja 2019 r.), w którym wideo zostało spowolnione, oprócz zmiany tonu dźwięku, aby wyglądało to tak, jakby była pijana, było szeroko rozpowszechniane w mediach społecznościowych. Krytycy twierdzą, że nie był to deepfake, ale płytki; mniej wyrafinowana forma manipulacji wideo.
Kim Dzong Un i Władimir Putin
29 września 2020 r. do YouTube zostały przesłane deepfake przywódcy Korei Północnej Kim Dzong-una i prezydenta Rosji Władimira Putina , stworzone przez bezpartyjną grupę rzeczniczą RepresentUs .
Deepfake Kima i Putina miały być emitowane publicznie jako reklamy, aby przekazać pogląd, że ingerencja tych przywódców w wybory w USA byłaby szkodliwa dla demokracji w Stanach Zjednoczonych. Reklamy miały również na celu zszokowanie Amerykanów, aby uświadomili sobie, jak krucha jest demokracja oraz jak media i wiadomości mogą znacząco wpłynąć na ścieżkę kraju, niezależnie od wiarygodności. Jednak chociaż reklamy zawierały końcowy komentarz, w którym wyszczególniono, że materiał filmowy nie był prawdziwy, ostatecznie nie zostały wyemitowane z powodu obaw i wrażliwości na to, jak Amerykanie mogą zareagować.
Wołodymyr Zełenski
W mediach społecznościowych krążyło jednominutowe fałszywe wideo przedstawiające prezydenta Ukrainy Wołodymyra Zełenskiego, który pozornie mówi swoim żołnierzom, aby złożyli broń i poddali się podczas rosyjskiej inwazji na Ukrainę w 2022 r . Rosyjskie media społecznościowe go promowały, ale po tym, jak został zdemaskowany, Facebook i YouTube go usunęły. Twitter zezwolił na wideo w tweetach, w których został ujawniony jako fałszywy, ale powiedział, że zostanie usunięty, jeśli zostanie opublikowany w celu oszukania ludzi. Hakerzy umieścili dezinformację w wiadomościach przewijanych na żywo w stacji telewizyjnej Ukraina 24, a wideo pojawiło się na krótko na stronie internetowej stacji, oprócz fałszywych twierdzeń, że Zełenski uciekł ze stolicy swojego kraju, Kijowa . Nie było od razu jasne, kto stworzył deepfake, na co Zełenski odpowiedział własnym filmem, mówiąc: „Nie planujemy złożenia broni. Aż do naszego zwycięstwa”.
Wilcze wiadomości
Pod koniec 2022 r. prochińscy propagandyści zaczęli rozpowszechniać fałszywe filmy rzekomo pochodzące z „Wolf News”, w których wykorzystano syntetycznych aktorów. Technologia została opracowana przez londyńską firmę Synthesia, która sprzedaje ją jako tanią alternatywę dla żywych aktorów do szkoleń i filmów HR.
Odpowiedzi
Platformy mediów społecznościowych
Świergot
Twitter podejmuje aktywne działania w celu obsługi syntetycznych i zmanipulowanych mediów na swojej platformie. Aby zapobiec rozprzestrzenianiu się dezinformacji, Twitter umieszcza powiadomienie na tweetach zawierających zmanipulowane media i/lub deepfake, które sygnalizują widzom, że media są zmanipulowane. Pojawi się również ostrzeżenie dla użytkowników, którzy planują retweetowanie, polubienie lub interakcję z tweetem. Twitter będzie również pracował nad zapewnieniem użytkownikom łącza obok tweeta zawierającego zmanipulowane lub syntetyczne media, które prowadzą do Twitter Moment lub wiarygodnego artykułu informacyjnego na powiązany temat - jako działanie demaskujące. Twitter ma również możliwość usuwania tweetów zawierających deepfake lub zmanipulowane media, które mogą zagrażać bezpieczeństwu użytkowników. W celu lepszego wykrywania przez Twittera deepfake'ów i zmanipulowanych mediów, Twitter poprosił użytkowników, którzy są zainteresowani współpracą z nimi, o pracę nad rozwiązaniami do wykrywania deepfake'ów o wypełnienie formularza (termin na 27 listopada 2020 r.).
Facebook podjął wysiłki w celu zachęcenia do tworzenia deepfake'ów w celu opracowania najnowocześniejszego oprogramowania do wykrywania deepfake'ów. Facebook był czołowym partnerem w organizowaniu konkursu Deepfake Detection Challenge (DFDC), który odbył się w grudniu 2019 r. dla 2114 uczestników, którzy wygenerowali ponad 35 000 modeli. Najlepsze modele o najwyższej dokładności wykrywania zostały przeanalizowane pod kątem podobieństw i różnic; odkrycia te są przedmiotem zainteresowania dalszych badań mających na celu ulepszenie i udoskonalenie modeli wykrywania deepfake'ów. Facebook wyszczególnił również, że platforma będzie usuwać media generowane przez sztuczną inteligencję używaną do zmiany mowy danej osoby. Jednak media, które zostały zredagowane w celu zmiany kolejności lub kontekstu słów w wiadomości, pozostaną na stronie, ale zostaną oznaczone jako fałszywe, ponieważ nie zostały wygenerowane przez sztuczną inteligencję.
Wykrycie
Większość badań akademickich dotyczących deepfake koncentruje się na wykrywaniu filmów typu deepfake. Jednym ze sposobów wykrywania deepfake'ów jest użycie algorytmów do rozpoznawania wzorców i wychwytywania subtelnych niespójności, które pojawiają się w filmach typu deepfake. Na przykład naukowcy opracowali automatyczne systemy, które badają filmy pod kątem błędów, takich jak nieregularne migające wzorce oświetlenia. Podejście to było krytykowane, ponieważ wykrywanie deepfake'ów charakteryzuje się „ ruchomym słupkiem bramki ”, w którym produkcja deepfake'ów wciąż się zmienia i ulepsza w miarę ulepszania algorytmów wykrywania deepfake'ów. Aby ocenić najskuteczniejsze algorytmy wykrywania deepfake'ów, koalicja wiodących firm technologicznych zorganizowała Deepfake Detection Challenge, aby przyspieszyć technologię identyfikacji zmanipulowanych treści. Zwycięski model konkursu Deepfake Detection Challenge miał 65% dokładności na zestawie 4000 nagrań wideo. Zespół z Massachusetts Institute of Technology opublikował w grudniu 2021 roku artykuł wykazujący, że zwykli ludzie mają 69-72% dokładności w identyfikowaniu losowej próbki 50 z tych filmów.
Zespół z University of Buffalo opublikował w październiku 2020 r. artykuł, w którym przedstawił swoją technikę wykorzystywania odbić światła w oczach przedstawionych osób do wykrywania głębokich podróbek z dużym prawdopodobieństwem powodzenia, nawet bez użycia narzędzia do wykrywania sztucznej inteligencji, przynajmniej dla obecnie.
Inny zespół kierowany przez Waela AbdAlmageeda z Visual Intelligence and Multimedia Analytics Laboratory (VIMAL) Instytutu Nauk Informacyjnych na Uniwersytecie Południowej Kalifornii opracował dwie generacje detektorów deepfake opartych na splotowych sieciach neuronowych . Pierwsza generacja wykorzystywała powtarzające się sieci neuronowe do wykrywania niespójności czasoprzestrzennych w celu identyfikacji artefaktów wizualnych pozostawionych przez proces generowania deepfake. Algorytm zarchiwizował 96% dokładności w FaceForensics++; jedyny dostępny w tamtym czasie test porównawczy deepfake na dużą skalę. Druga generacja wykorzystywała kompleksowe głębokie sieci do rozróżniania artefaktów i semantycznych informacji o twarzy wysokiego poziomu za pomocą sieci dwugałęziowych. Pierwsza gałąź propaguje informacje o kolorze, podczas gdy druga gałąź tłumi treść twarzy i wzmacnia niskie częstotliwości za pomocą Laplace'a lub Gaussa (LoG) . Ponadto uwzględnili nową funkcję utraty, która uczy się zwartej reprezentacji prawdziwych twarzy, jednocześnie rozpraszając reprezentacje (tj. cechy) deepfake'ów. Podejście VIMAL wykazało najnowocześniejszą wydajność w testach porównawczych FaceForensics++ i Celeb-DF, a 16 marca 2022 r . bez żadnego przeszkolenia ani znajomości algorytmu, za pomocą którego stworzono deepfake.
Inne techniki wykorzystują blockchain do weryfikacji źródła mediów. Filmy będą musiały zostać zweryfikowane przez księgę, zanim zostaną pokazane na platformach społecznościowych. Dzięki tej technologii zatwierdzane byłyby tylko filmy z zaufanych źródeł, co zmniejsza rozprzestrzenianie się potencjalnie szkodliwych mediów typu deepfake.
Zasugerowano cyfrowe podpisywanie wszystkich filmów i obrazów przez aparaty i kamery wideo, w tym aparaty w smartfonach, w celu zwalczania deepfake'ów. Pozwala to na śledzenie każdego zdjęcia lub filmu z powrotem do jego pierwotnego właściciela, który może zostać wykorzystany do ścigania dysydentów.
Prostym sposobem na wykrycie fałszywych połączeń wideo jest poproszenie dzwoniącego o odwrócenie się bokiem.
Reakcja internetu
Od 2017 roku Samantha Cole z Vice opublikowała serię artykułów dotyczących wiadomości dotyczących pornografii deepfake. 31 stycznia 2018 r. Gfycat zaczął usuwać wszystkie deepfake ze swojej strony. W serwisie Reddit subreddit r / deepfakes został zablokowany 7 lutego 2018 r. Z powodu naruszenia zasad dotyczących „niedobrowolnej pornografii”. W tym samym miesiącu przedstawiciele Twittera oświadczyli, że zawieszą konta podejrzane o publikowanie treści deepfake bez zgody. Witryna czatu Discord podejmowała w przeszłości działania przeciwko deepfake'om i zajęła ogólne stanowisko przeciwko deepfake'om. We wrześniu 2018 r. Google dodał „niedobrowolne syntetyczne obrazy pornograficzne” do swojej listy zakazów, umożliwiając każdemu zażądanie zablokowania wyników przedstawiających ich fałszywe akty. [ sprawdź składnię cytatu ] W lutym 2018 r. Pornhub zapowiedział, że zablokuje na swojej stronie internetowej fałszywe filmy wideo, ponieważ są one uważane za „treści bez zgody”, co narusza ich warunki korzystania z usługi. Oświadczyli również wcześniej Mashable, że usuną treści oznaczone jako deepfake. Pisarze z Motherboard z Buzzfeed News poinformowali, że wyszukiwanie „deepfake” na Pornhub wciąż zwracało wiele ostatnich filmów z deepfake.
Facebook wcześniej oświadczył, że nie usunie deepfake'ów ze swoich platform. Zamiast tego filmy będą oznaczane jako fałszywe przez strony trzecie, a następnie będą miały mniejszy priorytet w kanałach użytkownika. Ta odpowiedź została podjęta w czerwcu 2019 r. po tym, jak deepfake przedstawiający film Marka Zuckerberga z 2016 r. pojawił się na Facebooku i Instagramie .
W maju 2022 roku Google oficjalnie zmieniło warunki korzystania z usług swoich kolaboracji Jupyter Notebook , zakazując korzystania z ich usługi colab w celu tworzenia deepfake'ów. Stało się to kilka dni po opublikowaniu artykułu VICE, w którym twierdzono, że „większość deepfake'ów to pornografia bez zgody” oraz że główne zastosowanie popularnego oprogramowania do deepfake'u DeepFaceLab (DFL), „najważniejszej technologii zasilającej ogromną większość tego pokolenia of deepfake”, który często był używany w połączeniu z Google colabs, polegałby na tworzeniu pornografii bez zgody, wskazując na fakt, że wśród wielu innych dobrze znanych przykładów implementacji DFL stron trzecich, takich jak deepfake na zlecenie The Walt Disney Company , oficjalne teledyski i seriale internetowe Sassy Justice autorstwa twórców South Park , strona DFL GitHub zawiera również linki do strony porno deepfake Mr.
Odpowiedź prawna
W Stanach Zjednoczonych pojawiło się kilka odpowiedzi na problemy stwarzane przez deepfake. W 2018 roku ustawa Malicious Deep Fake Prohibition Act została wprowadzona do Senatu USA , a w 2019 roku ustawa DEEPFAKES Accountability Act została wprowadzona w Izbie Reprezentantów . Kilka stanów wprowadziło również przepisy dotyczące deepfake'ów, w tym Wirginia, Teksas, Kalifornia i Nowy Jork. W dniu 3 października 2019 r. Gubernator Kalifornii, Gavin Newsom , podpisał ustawy montażowe nr 602 i nr 730. Ustawa montażowa nr 602 zapewnia osobom będącym celem treści deepfake o charakterze jednoznacznie seksualnym, stworzonym bez ich zgody, powództwo przeciwko twórcy treści. Ustawa nr 730 zabrania rozpowszechniania złośliwych, fałszywych mediów audio lub wizualnych skierowanych do kandydata ubiegającego się o urząd publiczny w ciągu 60 dni od jego wyboru.
W listopadzie 2019 r. Chiny ogłosiły, że od 2020 r. Deepfakes i inne syntetycznie sfałszowane materiały filmowe powinny zawierać wyraźną informację o ich sfałszowaniu. Niezastosowanie się do tego zalecenia może zostać uznane za przestępstwo, o czym poinformowała chińska administracja cyberprzestrzeni na swojej stronie internetowej. Wydaje się, że chiński rząd zastrzega sobie prawo do ścigania zarówno użytkowników, jak i internetowych platform wideo nieprzestrzegających zasad.
W Wielkiej Brytanii producenci fałszywych materiałów mogą być ścigani za nękanie, ale pojawiają się wezwania do uznania deepfake za określone przestępstwo; w Stanach Zjednoczonych, gdzie ścigano tak różne zarzuty, jak kradzież tożsamości , cyberstalking i pornografia zemsty , omówiono również pojęcie bardziej kompleksowego statutu.
W Kanadzie Communications Security Establishment opublikował raport, w którym stwierdzono, że deepfake może być wykorzystywany do ingerowania w kanadyjską politykę, w szczególności do dyskredytowania polityków i wpływania na wyborców. W rezultacie obywatele Kanady mają wiele sposobów radzenia sobie z deepfake'ami, jeśli staną się ich celem.
Odpowiedź z DARPA
W 2018 r. Agencja Zaawansowanych Projektów Badawczych w Obronie (DARPA) sfinansowała projekt, w ramach którego poszczególne osoby będą rywalizować w tworzeniu filmów, dźwięków i obrazów generowanych przez sztuczną inteligencję, a także zautomatyzowanych narzędzi do wykrywania tych głębokich podróbek. W 2019 roku DARPA zorganizowała „dzień wnioskodawców” projektu powiązanego z programem Semantic Forensics, w ramach którego badacze mieli za zadanie zapobiegać wirusowemu rozprzestrzenianiu się mediów zmanipulowanych przez sztuczną inteligencję. DARPA i Semantic Forensics Program współpracowały również w celu wykrycia mediów manipulowanych przez sztuczną inteligencję poprzez wysiłki w szkoleniu komputerów w zakresie wykorzystywania zdrowego rozsądku i logicznego rozumowania. W 2020 roku DARPA stworzyła program Media Forensics (MediFor), aby wykrywać i ograniczać rosnące szkody, jakie stwarzają deepfake i media generowane przez sztuczną inteligencję, aby dostarczać informacji o tym, jak media zostały stworzone, oraz aby zająć się i podkreślić konsekwentną rolę deepfake'ów i ich wpływ przy podejmowaniu decyzji.
W kulturze popularnej
- Analog z połowy grudnia 1986 r. Opublikowano powieść „Picaper” autorstwa Jacka Wodhamsa. Jego fabuła obraca się wokół cyfrowo ulepszonych lub wygenerowanych cyfrowo filmów wyprodukowanych przez wykwalifikowanych hakerów służących pozbawionym skrupułów prawnikom i politykom.
- Film The Running Man z 1987 roku z Arnoldem Schwarzeneggerem w roli głównej przedstawia autokratyczny rząd używający komputerów do cyfrowego zastępowania twarzy aktorów twarzami poszukiwanych zbiegów, aby wyglądało na to, że uciekinierzy zostali zneutralizowani.
- W techno-thrillerze A Philosophical Investigation Philipa Kerra z 1992 roku „Wittgenstein”, główny bohater i seryjny morderca, wykorzystuje zarówno oprogramowanie podobne do deepfake, jak i kombinezon rzeczywistości wirtualnej do uprawiania seksu z awatarem Isadory „Jake” Jakowicza, porucznika policji, który miał go schwytać.
- Film Rising Sun z 1993 roku, w którym występują Sean Connery i Wesley Snipes, przedstawia inną postać, Jingo Asakumę, który ujawnia, że dysk komputerowy zmienił cyfrowo tożsamość osobistą, aby wplątać w to konkurenta.
- Technologia Deepfake jest częścią fabuły dramatu BBC One The Capture z 2019 roku . Serial opowiada historię byłego brytyjskiego żołnierza Shauna Emery'ego, który jest oskarżony o napaść i uprowadzenie swojego adwokata. Fachowo sfałszowane z telewizji przemysłowej jest wykorzystywane do wrobienia go i wprowadzenia w błąd policji prowadzącej dochodzenie w jego sprawie.
- Al Davis kontra NFL : Struktura narracyjna tego filmu dokumentalnego z 2021 roku, będącego częścią serialu dokumentalnego ESPN 30 na 30 , wykorzystuje głęboko fałszywe wersje dwóch głównych bohaterów filmu, obaj nieżyjący — Al Davis , który był właścicielem Las Vegas Raiders podczas kadencji zespołu w Oakland i Los Angeles oraz Pete Rozelle , komisarz NFL , który często ścierał się z Davisem.
- Technologia Deepfake jest prezentowana w „Impawster Syndrome”, 57. odcinku kanadyjskiego serialu policyjnego Hudson & Rex , wyemitowanego po raz pierwszy 6 stycznia 2022 r., W którym członek zespołu policyjnego St. John's jest badany w związku z podejrzeniem rabunku i napaści z powodu sfałszował nagranie z monitoringu, wykorzystując jego podobiznę.
- Korzystając z technologii deepfake w swoim teledysku do singla „ The Heart Part 5 ” z 2022 roku, muzyk Kendrick Lamar przekształcił się w postacie przypominające między innymi Nipseya Hussle'a , OJ Simpsona i Kanye Westa . Technologia deepfake w filmie została stworzona przez Deep Voodoo, studio kierowane przez Treya Parkera i Matta Stone'a , którzy stworzyli South Park .
- Aloe Blacc uhonorował swojego wieloletniego współpracownika Avicii cztery lata po jego śmierci, wykonując piosenkę „ Wake Me Up ” w języku angielskim , hiszpańskim i mandaryńskim , używając technologii deepfake.
Zobacz też
- 15.ai
- Komputerowa animacja twarzy
- Klonowanie cyfrowe
- Przechwytywanie ruchu twarzy
- Hiperrzeczywistość
- Technologia zastępowania tożsamości
- Interaktywne postacie online
- Regulacja sztucznej inteligencji
- StyleGAN
- Media syntetyczne
- Dolina niesamowitości
- Wirtualny aktor
Linki zewnętrzne
- Sasse, Ben (19 października 2018). „Ta nowa technologia może wprawić amerykańską politykę w zawrót głowy” . opinie. Washington Post . Źródło 10 lipca 2019 r .
- Wyzwanie wykrywania fałszywego/sfałszowanego dźwięku (ASVspoof)
- Wyzwanie wykrywania fałszywych informacji (DFDC)
- Bibliografia: Umiejętność korzystania z mediów w dobie deepfake'ów . Kurator: dr Joshua Glick.