Nauka dla Społeczeństwa

20.04.2024
PL EN
28.01.2020 aktualizacja 28.01.2020

Ekspertka o coraz powszechniejszych głębokich oszustwach, tzw. deep fakes

Fot. Adobe Stock Fot. Adobe Stock

Wulgaryzmy albo kłamstwa w ustach prezydenta czy twarz przypadkowej kobiety podpięta do ciała aktorki filmów porno – to przykłady deep fakes – zmanipulowanych filmów wideo, w których podkłada się czyjś wizerunek pod zupełnie inną postać na nagraniu. O tym, jak to się robi i do czego może służyć, opowiada dr Helena Chmielewska-Szlajfer, socjolożka pracująca w Katedrze Zarządzania w Społeczeństwie Sieciowym Akademii Leona Koźmińskiego.

Nauka w Polsce: Czy dożyliśmy czasów, w których nie możemy wierzyć własnym oczom?

Helena Chmielewska-Szlajfer: Zdecydowanie tak, ale nie jest to nowa rzecz. Manipulacje nie narodziły się wczoraj, jednak obecne technologie jeszcze bardziej utrudniają wiarę w to, co widzimy. Deep fakes to najnowsza emanacja oszustw, które mają kłamać w żywe oczy. Rzeczywiście, w sposób najbardziej bezpośredni podważa ona wiarygodność nagrań wideo i audio.

NwP: Na czym to polega?

H. Ch.-Sz.: Deep fakes to manipulacja obrazem i dźwiękiem. Najczęściej widać je w krótkich filmach, gdzie podmienia się ciała i twarze, tak zwany „face swap”.

NwP: Skąd nazwa „deep fakes”?

H. Ch.-Sz.: Termin wziął się od pseudonimu użytkownika forum internetowego Reddit, który pod tym pseudonimem jako jeden z pierwszych udostępniał tak zmanipulowane obrazy i oprogramowanie pozwalające w prosty sposób tworzyć podobne materiały.

NwP: Do czego ludzie najczęściej to wykorzystują?

H. Ch.-Sz.: W przeważającej większości, bo aż w 96 proc., dotyczy to materiałów pornograficznych. W tym przypadku prawie wyłącznie manipulowane są ciała i twarze kobiet.

NwP: Ale zagrożeń jest zapewne więcej?

H. Ch.-Sz.: Oczywiście. W tej chwili główny lęk związany z deep fakes koncentruje się na manipulacjach związanych z polityką. Dotyczy to na przykład wyborów w USA, ale nie tylko. W 2018 roku w Belgii powstał film, na którym Donald Trump „mówił”, że wycofał się z paryskiego porozumienia klimatycznego, co miało skłonić Belgów, aby postąpili w podobny sposób. Strach przed deep fakes można też wykorzystać w drugą stronę. W Malezji minister ds. gospodarki został oskarżony o homoseksualizm – karany w tym państwie – na podstawie filmu pokazującego go w intymnej sytuacji. Jednak on sam argumentował, że kompromitujące dla niego nagranie to manipulacja.

NwP: Pomieszanie zatacza więc coraz szersze kręgi...

H. Ch.-Sz.: Podobnie rzecz się ma od dłuższego czasu z „fake news”, czyli fałszywymi informacjami prasowymi. Dziś często informacja, która się po prostu komuś nie podoba, jest określana przez taką osobę mianem „fake newsa”.

NwP: Wygląda to dosyć niebezpiecznie.

H. Ch.-Sz.: Deep fakes stają się coraz trudniejsze do zdemaskowania, stąd więc ogromny strach przed nimi. W tym momencie mamy do czynienia z wyścigiem między twórcami technologii do tworzenia deep fakes a tymi, którzy tworzą mechanizmy do ich demaskowania. Wszystko to podważa nasze zaufanie do tego, co widzimy, zwłaszcza do informacji, które otrzymujemy w internecie.

NwP: Czy do tworzenia dobrze zrobionych deep fakes trzeba mieć duże umiejętności i specjalistyczne programy?

H. Ch.-Sz.: Istnieją zaawansowane metody wymagające dużych kompetencji, ale prostsze manipulacje można zrobić, używając podstawowych smartfonowych aplikacji. Warto pamiętać o tym, że potencjalnie groźne manipulacje można tworzyć z pomocą prostych, starych technologii. Tak było w przypadku Nancy Pelosi. Na specjalnie spowolnionym nagraniu spikerka Izby Reprezentantów mówiła w sposób, który sprawiał wrażenie, jakby była pijana. Inny przykład dotyczy dziennikarza CNN Jima Acosty, którego nagranie zostało z kolei celowo przyspieszone. W efekcie wyglądało to tak, jakby dziennikarz wyrywał mikrofon pracownikowi Białego Domu w trakcie briefingu z prezydentem Trumpem.

NwP: Czy nie da się tego jakoś ograniczyć prawem?

H. Ch.-Sz.: To powoli już się dzieje. W Australii twarz młodej kobiety połączono z ciałem aktorki z filmów pornograficznych. Poszkodowana nie tylko wygrała sprawę w sądzie, ale dzięki niej wprowadzono nową kategorię przestępstw związanych z nadużyciem w oparciu o czyjś wizerunek. Kluczowa jest tutaj kwestia zgody oraz intencji. W opisanym przypadku nie ma wątpliwości, że były one złe, ale tworzący deep fakes często powołują się na prawo do tworzenia satyry.

Na pewno są też korzyści z takich technologii. To potężne narzędzie dla twórców filmowych, a także amatorów, którzy np. będą mogli wcielić się w superbohatera.

Jednocześnie deep fakes to skutek uboczny pracy specjalistów od efektów specjalnych. Filmy tego rodzaju, nie muszą być szkodliwe, mogą być po prostu zabawne. Powstają specjalne kanały z humorystycznymi nagraniami tego typu.

NwP: Czy uda nam się w tym wszystkim połapać?

H. Ch.-Sz.: Coraz trudniej będzie nam wierzyć własnym oczom i uszom. Może jednak dzięki temu przestaniemy się tak strasznie lenić i zaczniemy uważniej weryfikować informacje.

Rozmawiał Marek Matacz, PAP - Nauka w Polsce

mat/ agt/

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

Copyright © Fundacja PAP 2024