Wulgaryzmy albo kłamstwa w ustach prezydenta czy twarz przypadkowej kobiety podpięta do ciała aktorki filmów porno – to przykłady deep fakes – zmanipulowanych filmów wideo, w których podkłada się czyjś wizerunek pod zupełnie inną postać na nagraniu. O tym, jak to się robi i do czego może służyć, opowiada dr Helena Chmielewska-Szlajfer, socjolożka pracująca w Katedrze Zarządzania w Społeczeństwie Sieciowym Akademii Leona Koźmińskiego.
Nauka w Polsce: Czy dożyliśmy czasów, w których nie możemy wierzyć własnym oczom?
Helena Chmielewska-Szlajfer: Zdecydowanie tak, ale nie jest to nowa rzecz. Manipulacje nie narodziły się wczoraj, jednak obecne technologie jeszcze bardziej utrudniają wiarę w to, co widzimy. Deep fakes to najnowsza emanacja oszustw, które mają kłamać w żywe oczy. Rzeczywiście, w sposób najbardziej bezpośredni podważa ona wiarygodność nagrań wideo i audio.
Na czym to polega?
Deep fakes to manipulacja obrazem i dźwiękiem. Najczęściej widać je w krótkich filmach, gdzie podmienia się ciała i twarze, tak zwany „face swap”.
Skąd nazwa „deep fakes”?
Termin wziął się od pseudonimu użytkownika forum internetowego Reddit, który pod tym pseudonimem jako jeden z pierwszych udostępniał tak zmanipulowane obrazy i oprogramowanie pozwalające w prosty sposób tworzyć podobne materiały.
Do czego ludzie najczęściej to wykorzystują?
W przeważającej większości, bo aż w 96 proc., dotyczy to materiałów pornograficznych. W tym przypadku prawie wyłącznie manipulowane są ciała i twarze kobiet.
Ale zagrożeń jest zapewne więcej?
Oczywiście. W tej chwili główny lęk związany z deep fakes koncentruje się na manipulacjach związanych z polityką. Dotyczy to na przykład wyborów w USA, ale nie tylko. W 2018 roku w Belgii powstał film, na którym Donald Trump „mówił”, że wycofał się z paryskiego porozumienia klimatycznego, co miało skłonić Belgów, aby postąpili w podobny sposób. Strach przed deep fakes można też wykorzystać w drugą stronę. W Malezji minister ds. gospodarki został oskarżony o homoseksualizm – karany w tym państwie – na podstawie filmu pokazującego go w intymnej sytuacji. Jednak on sam argumentował, że kompromitujące dla niego nagranie to manipulacja.
Pomieszanie zatacza więc coraz szersze kręgi…
Podobnie rzecz się ma od dłuższego czasu z „fake news”, czyli fałszywymi informacjami prasowymi. Dziś często informacja, która się po prostu komuś nie podoba, jest określana przez taką osobę mianem „fake newsa”.
Wygląda to dosyć niebezpiecznie.
Deep fakes stają się coraz trudniejsze do zdemaskowania, stąd więc ogromny strach przed nimi. W tym momencie mamy do czynienia z wyścigiem między twórcami technologii do tworzenia deep fakes a tymi, którzy tworzą mechanizmy do ich demaskowania. Wszystko to podważa nasze zaufanie do tego, co widzimy, zwłaszcza do informacji, które otrzymujemy w internecie.
Czy do tworzenia dobrze zrobionych deep fakes trzeba mieć duże umiejętności i specjalistyczne programy?
Istnieją zaawansowane metody wymagające dużych kompetencji, ale prostsze manipulacje można zrobić, używając podstawowych smartfonowych aplikacji. Warto pamiętać o tym, że potencjalnie groźne manipulacje można tworzyć z pomocą prostych, starych technologii. Tak było w przypadku Nancy Pelosi. Na specjalnie spowolnionym nagraniu spikerka Izby Reprezentantów mówiła w sposób, który sprawiał wrażenie, jakby była pijana. Inny przykład dotyczy dziennikarza CNN Jima Acosty, którego nagranie zostało z kolei celowo przyspieszone. W efekcie wyglądało to tak, jakby dziennikarz wyrywał mikrofon pracownikowi Białego Domu w trakcie briefingu z prezydentem Trumpem.
Czy nie da się tego jakoś ograniczyć prawem?
To powoli już się dzieje. W Australii twarz młodej kobiety połączono z ciałem aktorki z filmów pornograficznych. Poszkodowana nie tylko wygrała sprawę w sądzie, ale dzięki niej wprowadzono nową kategorię przestępstw związanych z nadużyciem w oparciu o czyjś wizerunek. Kluczowa jest tutaj kwestia zgody oraz intencji. W opisanym przypadku nie ma wątpliwości, że były one złe, ale tworzący deep fakes często powołują się na prawo do tworzenia satyry.
Na pewno są też korzyści z takich technologii. To potężne narzędzie dla twórców filmowych, a także amatorów, którzy np. będą mogli wcielić się w superbohatera.
Jednocześnie deep fakes to skutek uboczny pracy specjalistów od efektów specjalnych. Filmy tego rodzaju nie muszą być szkodliwe, mogą być po prostu zabawne. Powstają specjalne kanały z humorystycznymi nagraniami tego typu.
Czy uda nam się w tym wszystkim połapać?
Coraz trudniej będzie nam wierzyć własnym oczom i uszom. Może jednak dzięki temu przestaniemy się tak strasznie lenić i zaczniemy uważniej weryfikować informacje.
Rozmawiał Marek Matacz, PAP – Nauka w Polsce