Porady
Witaj w świecie deepfakeów

Zmęczony fake newsami? Przygotuj się na ich dużo niebezpieczniejszą wersję. Katarzyna Bielińska


Nie wierzysz własnym oczom? Masz rację. Aplikacje sterowane przez sztuczną inteligencję generującą fałszywe nagrania wideo, które wyglądają uderzająco realistycznie, zalewają cyfrowy świat. I to od kilku lat. Co rusz głośno o kolejnym manipulującym rzeczywistość deepfake’u. Ostatnio za sprawą Toma Cruise’a i aplikacji TikTok.

Na tej platformie społecznościowej ukazał się film, na którym znany aktor gra w golfa i przechadza po domu. Nie było to zbyt zaskakujące – w obecnej sytuacji epidemiologicznej aplikacja pełni funkcję czerwonego dywanu, na którym gwiazdy Hollywoodu, które utknęły w domu, mogą znów przez moment zabłysnąć. Problem jednak w tym, że Tom Cruise żadnego filmu na TikToku nie umieszczał…

Zrób ze mnie Cruise’a

Okazało się, że produkcja jest dziełem bardzo utalentowanego twórcy deepfake’ów. Profesjonalne narzędzia do rozpoznawania takich fałszywek potwierdzały autentyczność klipu, jedynie część widzów twierdziła, że niektóre artefakty (np. niezsynchronizowane odbicia) wskazują na to, że Cruise z kijem golfowym w dłoni na TikToku to po prostu mistyfikacja. Tak czy siak, produkcja z mężczyzną do złudzenia przypominającym słynnego aktora wzbudziła ogromne zainteresowanie – film obejrzało kilkanaście milionów osób.

Zagadka znalazła swoje rozwiązanie. Bijący rekordy popularności materiał wideo okazał się efektem współpracy belgijskiego artysty od efektów wizualnych Christophera Ume’a i Milesa Fishera, aktora oraz muzyka. Panowie pracowali już razem wcześniej – Ume umieścił na sylwetce Fishera twarz Cruise'a w filmie przedstawiającym fikcyjną kampanię aktora na prezydenta Stanów Zjednoczonych w 2020 roku.

Jednak tajemnicze konto na TikToku DeepTomCruise nie było planowane. – Fisher skontaktował się ze mną ponownie i powiedział: „Zróbmy zabawny film… Sfilmuję się w swoim ogrodzie, a Ty potem zrobisz ze mnie Toma Cruise’a – opowiadał Ume magazynowi „The Guardian”. Dwa dni później Fisher przesłał artyście zrzut ekranu z TikToka: „Stary. Dwa i pół miliona wyświetleń!” – napisał.

Zaczęło się od pornografii

Deepfake, czyli metoda syntezy ludzkiego obrazu na bazie sztucznej inteligencji, służąca do łączenia i nakładania na wyjściowe istniejących obrazów i filmów, pojawiła się w internecie stosunkowo niedawno. Sam termin łączy w sobie dwa pojęcia „deep” (głęboki) oraz „fake” (fałszerstwo) i jest dokładnie tym, na co wskazują te dwa człony: opartym na algorytmach głębokiego uczenia się fałszerstwem. Metoda zaczęła zyskiwać na popularności w grudniu 2017 roku, kiedy to w serwisie Reddit użytkownik o nicku deepfakes opublikował kilka fałszywych filmów pornograficznych, zastępując twarze aktorów twarzami celebrytów: Daisy Ridley, Emmy Watson, Gal Gadot i Scarlett Johansson. A potem poszło z górki. Początkowo do preparowania deepfake’ów, oprócz materiałów: zdjęć, nagrań wideo czy audio danej osoby (na podstawie których sztuczna inteligencja może nauczyć się mimiki twarzy czy gestów podrabianej osoby), potrzebny był wydajny komputer i umiejętności programistyczne. Jednak z biegiem czasu pojawiły się przyjazne i łatwe w obsłudze aplikacje (takie jak np. FakeApp, DeepFaceLab), które przeprowadzają użytkownika przez proces podrabiania materiału. Mechanizm działania programów do deepfake’ów jest zawsze taki sam. Na podstawie odpowiednio bogatego „zestawu wejściowego” dokumentującego przyszłą ofiarę montażu aplikacja uczy się naśladować i odtwarzać mimikę jej twarzy, intonację głosu, gesty i ruchy, a także specyficzne słownictwo, którego używa.

Konkurencja sieci neuronowych

Ogromny postęp jakości fałszywych produkcji wideo nastąpił dzięki modelowi generatywnemu z siecią-adwersarzem (Generative Adversarial Network, GAN), który zestawia ze sobą dwa algorytmy sztucznej inteligencji. Te konkurujące ze sobą głębokie sieci neuronowe trenowane są na prawdziwych obrazach. Następnie rozpoczyna się część współzawodniczenia, w której udział bierze jedna sieć generująca obrazy (nazywana generatywną) i druga – sieć dyskryminująca – próbująca określić, czy obraz jest prawdziwy, czy fałszywy. Sieć generatywna uczy się na podstawie osiągniętego wyniku, a dyskryminująca dowiaduje się, jak zwiększyć swoją skuteczność. Z każdym cyklem obie sieci są coraz lepsze. Po kilku milionach takich cykli szkoleniowych GAN wie, jak wygenerować fałszywy obraz, którego równie zaawansowana sieć neuronowa nie będzie mogła odróżnić od prawdziwego.


Efekt w praktyce może wyglądać tak przekonująco jak na tym filmiku:



Materiał ten, przygotowany przez aktora Jima Meskimena, znanego z pracy lektora w produkcjach wideo, oraz artystę o nicku Sham00k, profesjonalnie tworzącego deepfake’i, doskonale ilustruje, jak wygląda manipulacja treścią wideo. W produkcji wykorzystano twarze 20 celebrytów, a jej opracowanie zajęło 250 godzin i wygenerowało blisko 1 terabajt danych. Jak widać, z jednej strony przygotowanie dobrego sfałszowanego filmiku to niemały i kosztowny wyczyn. Z drugiej – patrząc na potencjalne efekty, jaki może przynieść taka produkcja: masowe rozpowszechnianie nieprawdziwych informacji na dowolny temat, zniszczenie reputacji konkretnej osoby czy nawet sfałszowane wyniki wyborów —jest to proces zadziwiająco łatwy do osiągnięcia i niedrogi.

Każdy może być każdym

Bo deepfake’i tylko na początku wyglądały jak dobra zabawa. Tempo rozprzestrzenienia się filmowych imitacji, łatwo osiągalne i coraz bardziej doskonałe narzędzia do ich produkcji oraz coraz większa trudność w odróżnieniu podróbek sprawiły, że efekty tego zjawiska są przerażające. – To wielka sprawa. Możesz dosłownie włożyć w czyjeś usta , co tylko zechcesz – powiedział na łamach „The Wall Street Journal” Hany Farid, profesor informatyki z Dartmouth College. I tak właśnie się dzieje, a ofiarami deepfake'ów najczęściej padają politycy i celebryci. Ta metoda pozwala każdemu spreparować materiał wideo, w którym pojawiają się znane postaci, takie jak np. były prezydent USA Donald Trump czy kanclerz Niemiec Angela Merkel, wypowiadający się na kontrowersyjne i dzielące społeczeństwo tematy. Na YouTubie wciąż jeszcze można zobaczyć deepfake’a, w którym twarz argentyńskiego prezydenta Mauricio Macri została zastąpiona twarzą Adolfa Hitlera.

Wiele imitacji z udziałem polityków próbuje oszukać odbiorców, jednak są też takie, które są tylko parodią i niczym więcej. Hitem stała się przeróbka wideo zatytułowana „Better Call Trump”, w której twarz Saula Goodmana z serialu „Breaking Bad” zastąpiono twarzą Donalda Trumpa. W tej niezwykle sugestywnej podróbie Saul wyjaśnia młodemu Jessiemu Pinkmanowi, w jaki sposób działają pralnie brudnych pieniędzy. Parodia jest o tyle zabawna, że byli pracownicy Deutsche Banku twierdzili, że niektóre firmy prowadzone przez Trumpa mogły być zamieszane w proceder prania brudnych pieniędzy.



Siłę, z jaką sfabrykowane materiały wideo mogą manipulować ludźmi, pokazuje przypadek Włoszki Nancy Pelosi, mówczyni Izby Reprezentantów Stanów Zjednoczonych. Jest on o tyle ciekawy, że tym razem nie mieliśmy do czynienia z wyrafinowaną produkcją wygenerowaną przez GAN-y, a po prostu nagraniem z konferencji puszczonym w tempie zwolnionym o 25 procent. Przez ten prosty zabieg polityk sprawia wrażenie jakby bełkotała pod wpływem alkoholu lub była chora. Filmik z jej przemową został opublikowany na profilu Politics Watchdog na Facebooku, gdzie zyskał ponad 2,5 miliona wyświetleń, i szeroko rozpowszechniony w internecie. W tym również przez byłego burmistrza Nowego Jorku Rudy'ego Giulianiego, który napisał na Twitterze: „Co jest nie tak z Nancy Pelosi? Mówi w dziwny sposób”.

Nierówna walka

Kontrowersje wokół tej produkcji to zaledwie wierzchołek góry lodowej tego, jak deepfake’i mogą wzniecić polityczne huragany czy nawet zaburzyć międzynarodowe bezpieczeństwo. Zrobienie zdjęcia lub nagrania wideo dowolnej osoby – np. głowy państwa – i zmodyfikowanie go tak, aby powiedziała coś, czego nigdy nie powiedziała… Tak, to zdecydowanie nie jest zabawne. Nic więc dziwnego, że walkę z deepfake’ami podjęli nie tylko właściciele serwisów społecznościowych (Facebook w 2020 roku zapowiedział, że będzie usuwał takie materiały z wyjątkiem tych o wyłącznie satyrycznym charakterze), ale także agencje obrony wielu państw. Giganci, np. Microsoft i Amazon ogłosili, że będą współpracować z najlepszymi uniwersytetami na świecie (Massachusetts Institute of Technology, Uniwersytetem Oksfordzkim oraz Uniwersytetami z Berkeley i Maryland), by wspierać rozwój metod wykrywających fałszywki. Efekty? Na razie walka z coraz trudniejszymi do wykrycia podróbkami pozostaje nierówna.

Patrz prawdzie w oczy

Jednym z najświeższych osiągnięć nauki na tym polu jest sprytny sposób wykrywania deepfake’ów opracowany przez zespół informatyków z Uniwersytetu w Buffalo pod przewodnictwem dr Siweia Lyu. Naukowiec pomagał Facebookowi opracować narzędzia do globalnego wykrywania fałszywych materiałów oraz Deepfake-o-meter – zasób online pomagający przeciętnemu człowiekowi sprawdzić, czy obejrzany przez niego film jest w rzeczywistości spreparowany.

Deepfake – twarze wygenerowane przez AI
Która z tych osób jest fałszywa? Odpowiedź: wszystkie

źródło: www.thispersondoesnotexist.com i Uniwersytet w Buffalo.

Nowa metoda wykrywania sfabrykowanych produkcji polega na obserwacji i analizie odbić obrazu w oczach. Okazuje się, że sztuczna inteligencja tworząca fałszywe nagrania i obrazy jest zaskakująco nieefektywna w generowaniu obrazów postaci odbijających się w oczach. – Na zdjęciu prawdziwej twarzy wykonanym aparatem odbicie w obu oczach będzie takie same – mówi dr Siwei Lyu. Jednak obrazy syntetyzowane przez GAN zazwyczaj nie są w stanie dokładnie uchwycić tego podobieństwa. Dzięki temu wynalazek amerykańskich naukowców może znajdować takie nieścisłości, a dzięki temu wykrywać zmanipulowane materiały – z bardzo dobrymi wynikami. W testach na zdjęciach portretowych narzędzie to wykazywało 94-procentową skuteczność w wykrywaniu obrazów spreparowanych przez oprogramowanie . Aby przeprowadzić eksperymenty, zespół badawczy uzyskał prawdziwe obrazy z bazy danych ludzkich twarzy Flickr Faces-HQ, a także fałszywe obrazy z www.thispersondoesnotexist.com – repozytorium twarzy wygenerowanych przez sztuczną inteligencję, które mimo że wyglądają jak żywe, w rzeczywistości są wygenerowane maszynowo.

Niestety, nowy system wykrywania fałszerstw ma kilka ograniczeń. Najbardziej oczywistą wadą narzędzia jest to, że opiera się na odbiciu źródła światła w obu źrenicach. Niespójności w tych wzorach można naprawić za pomocą ręcznego przetwarzania końcowego, a jeśli jedno oko nie jest widoczne na obrazie, metoda nie zadziała. Poza tym system jest skuteczny tylko w przypadku zdjęć portretowych. Jeśli twarz na zdjęciu nie patrzy w obiektyw, narzędzie prawdopodobnie wygeneruje fałszywe alarmy. Amerykanie pracują obecnie nad poprawą skuteczności metody. Choć w swojej obecnej postaci system nie wykryje najbardziej wyrafinowanych deepfake'ów, jednak nadal może poradzić sobie z wieloma bardziej prymitywnymi. A tych jest w sieci najwięcej. Osiągnięcie informatyków z Buffalo daje nam nieco nadziei, że prędzej czy później uda się wynaleźć metodę „rozbrajania” nieautentycznych zdjęć i filmów. I wtedy to co, widzimy w sieci będzie tym, co jest naprawdę.

Bibliografia

Alex Hern, "I don't want to upset people": Tom Cruise deepfake creator speaks out, [dostęp: 23.03.2001]

Olga Wasiuta, Sergiusz Wasiuta, "Deepfake jako skomplikowana i głęboko fałszywa rzeczywistość", Annales Universitatis Paedagogicae Cracoviensis, Studia de Securitate 9(3) (2019), Uniwersytet Pedagogiczny w Krakowie, [dostęp: 23.03.2001]

Ilona Dąbrowska, "Deepfake, nowy wymiar internetowej manipulacji", Zarządzanie Mediami, Tom 8, Numer 2, Uniwersytet Marii Curie-Skłodowskiej w Lublinie 2020, [dostęp: 23.03.2001]

Mirosław Mamczur, Deepfake – co to takiego i jak go zrobić?, blog Miroslawmamczur.pl, [dostęp: 23.03.2001]

Hilke Schellmann, "Deepfake Videos Are Getting Real and That’s a Problemtream explores the dark side of sophisticated video fakery", serwis internetowy „The Wall Street Journal”, [dostęp: 23.03.2001]

Łukasz Kruczkowski, "FakeApp – czy powinniśmy obawiać się aplikacji, która z każdego może zrobić gwiazdę filmów dla dorosłych?", serwis Komputerswiat.pl, [dostęp: 23.03.2001]

Alex Drozhzhin, "Jak rozpoznać filmy zwane deepfake’ami", blog firmy Kaspersky, [dostęp: 23.03.2001]

Melvin Bankhead III, "How to spot deepfakes? Look at light reflection in the eyes", materiały prasowe Uniwersytetu w Buffalo, [dostęp: 23.03.2001]

Joseph Foley, "12 deepfake examples that terrified and amused the internet", [dostęp: 23.03.2001]



Zobacz również