Wulgaryzmy albo kłamstwa w ustach prezydenta czy twarz przypadkowej kobiety podpięta do ciała aktorki filmów porno – to przykłady zmanipulowanych filmów wideo, w których podkłada się czyjś wizerunek pod zupełnie inną postać na nagraniu. O tym, jak to się robi i do czego może służyć, opowiada dr Helena Chmielewska-Szlajfer, socjolożka pracująca w Katedrze Zarządzania w Społeczeństwie Sieciowym Akademii Leona Koźmińskiego.
- Czy dożyliśmy czasów, w których nie możemy wierzyć własnym oczom?
– Zdecydowanie tak, ale nie jest to nowa rzecz. Manipulacje nie narodziły się wczoraj, jednak obecne technologie jeszcze bardziej utrudniają wiarę w to, co widzimy. Deep fakes (głębokie oszustwa) to najnowsza emanacja oszustw, które mają kłamać w żywe oczy. Rzeczywiście, w sposób najbardziej bezpośredni podważa ona wiarygodność nagrań wideo i audio.
- Na czym to polega?
– Deep fakes to manipulacja obrazem i dźwiękiem. Najczęściej widać je w krótkich filmach, gdzie podmienia się ciała i twarze, tak zwany „face swap”.
- Skąd nazwa „deep fakes”?
– Termin wziął się od pseudonimu użytkownika forum internetowego Reddit, który pod tym pseudonimem, jako jeden z pierwszych, udostępniał tak zmanipulowane obrazy i oprogramowanie, pozwalające w prosty sposób tworzyć podobne materiały.
- Do czego ludzie najczęściej to wykorzystują?
– W przeważającej większości, bo aż w 96 proc., dotyczy to materiałów pornograficznych. W tym przypadku prawie wyłącznie manipulowane są ciała i twarze kobiet.
- Ale zagrożeń jest zapewne więcej?
– Oczywiście. W tej chwili główny lęk związany z deep fakes koncentruje się na manipulacjach związanych z polityką. Dotyczy to na przykład wyborów w USA, ale nie tylko. W 2018 roku w Belgii powstał film, na którym Donald Trump „mówił”, że wycofał się z paryskiego porozumienia klimatycznego, co miało skłonić Belgów, aby postąpili w podobny sposób. Strach przed deep fakes można też wykorzystać w drugą stronę. W Malezji minister ds. gospodarki został oskarżony o homoseksualizm – karany w tym państwie – na podstawie filmu pokazującego go w intymnej sytuacji. Jednak on sam argumentował, że kompromitujące dla niego nagranie to manipulacja.
- Pomieszanie zatacza więc coraz szersze kręgi...
– Podobnie rzecz się ma od dłuższego czasu z „fake news”, czyli fałszywymi informacjami prasowymi. Dziś często informacja, która się po prostu komuś nie podoba, jest określana przez taką osobę mianem „fake newsa”.
- Wygląda to dosyć niebezpiecznie.
– Deep fakes stają się coraz trudniejsze do zdemaskowania, stąd więc ogromny strach przed nimi. W tym momencie mamy do czynienia z wyścigiem między twórcami technologii do tworzenia deep fakes a tymi, którzy tworzą mechanizmy do ich demaskowania. Wszystko to podważa nasze zaufanie do tego, co widzimy, zwłaszcza do informacji, które otrzymujemy w internecie.
- Czy do tworzenia dobrze zrobionych deep fakes trzeba mieć duże umiejętności i specjalistyczne programy?
– Istnieją zaawansowane metody wymagające dużych kompetencji, ale prostsze manipulacje można zrobić używając podstawowych aplikacji w telefonie. Warto pamiętać o tym, że potencjalnie groźne manipulacje można tworzyć z pomocą prostych, starych technologii. Tak było w przypadku Nancy Pelosi. Na specjalnie spowolnionym nagraniu spikerka Izby Reprezentantów mówiła w sposób, który sprawiał wrażenie, jakby była pijana. Inny przykład dotyczy dziennikarza CNN Jima Acosty, którego nagranie zostało z kolei celowo przyspieszone. W efekcie wyglądało to tak, jakby dziennikarz wyrywał mikrofon pracownikowi Białego Domu w trakcie briefingu z prezydentem Trumpem.
- Czy nie da się tego jakoś ograniczyć prawem?
– To powoli już się dzieje. W Australii twarz młodej kobiety połączono z ciałem aktorki z filmów pornograficznych. Poszkodowana nie tylko wygrała sprawę w sądzie, ale dzięki niej wprowadzono nową kategorię przestępstw związanych z nadużyciem w oparciu o czyjś wizerunek. Kluczowa jest tutaj kwestia zgody oraz intencji. W opisanym przypadku nie ma wątpliwości, że były one złe, ale tworzący deep fakes często powołują się na prawo do tworzenia satyry.
Na pewno są też korzyści z takich technologii. To potężne narzędzie dla twórców filmowych, a także amatorów, którzy np. będą mogli wcielić się w superbohatera. Jednocześnie deep fakes to skutek uboczny pracy specjalistów od efektów specjalnych. Filmy tego rodzaju, nie muszą być szkodliwe, mogą być po prostu zabawne. Powstają specjalne kanały z humorystycznymi nagraniami tego typu.
- Czy uda nam się w tym wszystkim połapać?
– Coraz trudniej będzie nam wierzyć własnym oczom i uszom. Może jednak dzięki temu przestaniemy się tak strasznie lenić i zaczniemy uważniej weryfikować informacje.