Nowy numer 21/2022 Archiwum

Na własne oczy

Jarosław Kaczyński śpiewa o narkotykach, Barack Obama używa wulgaryzmów, a papież Franciszek w czasie modlitwy ściąga obrus z ołtarza – dziś takie nagrania może stworzyć niemal każdy.

Nie warto umierać – mówi Wołodymyr Zełenski i informuje, że Ukraina poddaje się, oddając Rosji Donbas. Nagranie na pierwszy rzut oka może wyglądać na prawdziwe, ale wystarczy przez chwilę oglądać je z uwagą, żeby zauważyć, iż twarz prezydenta Ukrainy jest nieproporcjonalnie mała i oświetlona inaczej niż reszta ciała. Kilka dni przed rozpowszechnieniem filmu Ukraińcy ostrzegali, że Rosja może stworzyć fałszywkę z udziałem Zełenskiego, wykorzystując technologię zwaną deepfake.

Automatyczny postęp

– W ciągu ostatnich kilku lat w świecie sztucznej inteligencji wielkie triumfy święcą metody wykorzystujące głębokie sieci neuronowe, zwane deep learning – mówi Błażej Osiński, informatyk zajmujący się uczeniem maszynowym. – Te metody można też stosować do manipulowania obrazem wideo, stąd wykreowano nazwę deepfake. Chodzi zatem o zastosowanie deep learningu do generowania fejków, czyli rzeczy nieprawdziwych.

Technologia istnieje od 2017 r. Dzięki niej powstały już tysiące fałszywych filmów, na których ludzie wyglądają, jakby mówili lub robili rzeczy, które w rzeczywistości w ogóle nie miały miejsca. Za pomocą podobnych technik można też naśladować czyjś głos i sposób mówienia. Kilka lat temu można było najwyżej pod prawdziwe przemówienie podłożyć zmyślony tekst. Widać jednak było, że ruch ust nie zgadza się z tym, co słychać. Filmy w technologii deepfake pozwalają na dopasowanie ruchu ust do nieprawdziwych słów.

Z kilku metod tworzenia nagrań za najdoskonalszą uchodzi bazująca na sztucznej inteligencji technika GAN. Polega ona na konkurencji dwóch systemów. Jeden z nich tworzy nagranie, drugi wyszukuje w nim błędy. Ten pierwszy stara się je naprawić w taki sposób, żeby drugi system nie potrafił ich zauważyć. W ten sposób technika sama się udoskonala.

Technologiczna rewolucja

– Możliwości tworzenia fałszywek są tak stare jak sztuka audiowizualna – zauważa dr Maciej Gurtowski, socjolog zajmujący się bezpieczeństwem wewnętrznym. – Z tego punktu widzenia powstanie deepfake nie jest rewolucją. Rewolucją jest łatwość wytworzenia takiego nagrania. Tradycyjny montaż wymaga sprzętu, czasu i specjalistów, często artystów. Tymczasem teraz osoba o podstawowych zdolnościach technicznych może ściągnąć oprogramowanie, zdjęcie z bazy i w jeden wieczór zrobić montaż, który wygląda przekonująco.

Mateusz Piaszczak, ekspert ds. bezpieczeństwa informatycznego z firmy Test Army, dodaje, że po wynalezieniu różnych narzędzi do manipulacji statycznym obrazem spodziewano się powstania techniki przerabiania filmów. Z punktu widzenia technologii przejście od zdjęć do nagrań jest jednak wielką zmianą. – Zdjęcie to jedna klatka, więc jeden człowiek może je manualnie przerobić. Profesjonalne deepfakes, nakładane nawet na filmy emitowane na żywo, wymagają ogromnej mocy obliczeniowej i zaawansowanej technologii, jak sztuczna inteligencja i algorytmy uczenia maszynowego. Zmodyfikować trzeba np. 60 zdjęć na sekundę, w dodatku są to zdjęcia twarzy, która pokazuje wiele emocji i składa się z wielu mięśni. Wszystko trzeba dopasować tak, żeby nagranie wyglądało realistycznie – tłumaczy Mateusz Piaszczak.

Fejk ostrzega przed fejkami

W 2018 r. liczbę krążących po internecie filmów deepfake szacowano na niecałe 8 tysięcy. W grudniu 2019 r. firma Deeptrace podała, że takich nagrań jest 14,7 tys. W czerwcu kolejnego roku miało ich być już ponad 145 tys. Dziś trudno to ocenić, bo za pomocą tanich programów nieprawdziwe nagrania może tworzyć każdy. Popularne są aplikacje postarzające twarz, łączące dwa wizerunki w jeden albo ożywiające statyczne zdjęcie i dorabiające muzykę. Z punktu widzenia bezpieczeństwa ważniejsze są jednak nagrania robione przez fachowców.

Możliwość wklejenia do filmu czyjejś twarzy szybko zainteresowała branżę pornograficzną. Wizerunki polityków wykorzystywane są natomiast powszechnie w filmach, w których ludziom wkłada się w usta nieprawdziwe słowa. Belgijscy socjaliści rozpowszechnili filmik imitujący wystapienie Donalda Trumpa. Fałszywy były prezydent Stanów Zjednoczonych mówił o zmianach klimatycznych. Nagranie trudno odróżnić od rzeczywistości do momentu, w którym twarz Trumpa zaczyna się dziwnie wykrzywiać. Sprawnie zrobiony jest też film, w którym sfałszowany dyktator Korei Północnej Kim Dzong Un krytykuje demokrację. W rzeczywistości to spot organizacji pozarządowej. W Polsce pod koniec 2020 r. do sieci trafił przerobiony film pokazujący zakonnika stojącego w kaplicy Cudownego Obrazu na Jasnej Górze i wypowiadającego się na temat szczepionek na covid. Zakon paulinów szybko odciął się od tego nagrania. Karierę zrobiły też satyryczne produkcje, których bohaterowie śpiewali: „Tylko jedno w głowie mam, koksu 5 gram”. Film ma przynajmniej 8 wersji (m.in. z udziałem nieprawdziwego Jarosława Kaczyńskiego, Sławomira Nitrasa, Roberta Lewandowskiego i Władimira Putina). Jakość jest dość słaba. Charakter satyryczny ma też wideo – wyemitowane początkowo przez jedną z amerykańskich telewizji – na którym pokazano papieża Franciszka wykonującego cyrkową sztuczkę z obrusem. Sporą popularność zdobyło również nagranie z Barackiem Obamą. Sporządzono je po to, żeby ostrzec ludzi przed fałszywkami. Jest dobre technicznie, ale pojawia się w nim autor, a fikcyjny Obama używa wulgaryzmów i mówi, że można mu włożyć w usta nieprawdziwe słowa.

Na oko

W internecie nie brak porad, jak odróżnić deepfake od rzeczywistości. Nienaturalne ruchy ramion, dziwne mrugnięcia oczu albo brak płynności nagrania mogą zdradzać, że mamy do czynienia z fałszywką. Jednak nowsze deepfakes nieraz są wolne od takich błędów, czego przykładem dzieła mieszkającego w Bangkoku Chrisa Ume. Stworzył on w serwisie TikTok profil imitujący aktora Toma Cruise’a. Nagrania z udziałem nieprawdziwego gwiazdora Hollywood oszukiwały wielu jego fanów, dopóki nie ujawnił się ich autor. Jednak równolegle z rozwojem technik deepfake rozwijają się elektroniczne systemy ich wykrywania. Mamy zatem do czynienia ze swoistym wyścigiem zbrojeń. – Nie jest oczywiste, że jedna ze stron będzie wygrywać – prognozuje Błażej Osiński. Niektóre stany USA zabroniły rozpowszechniania nagrań deepfake. Facebook także stara się je blokować.

– To znowu wyścig zbrojeń. Jeśli algorytmy twórców deepfake’ów oszukają algorytmy Facebooka, to będzie można wrzucać nagrania, dopóki Facebook nie poprawi swoich narzędzi – podkreśla Mateusz Piaszczak.

Podwójny blef

– Kiedy pojawiła się ta technologia, mnożono czarne scenariusze. Były obawy, że o ile reżimom autorytarnym łatwiej będzie blokować ewentualne nagrania, to w krajach demokratycznych będzie szalała dezinformacja powodująca destabilizację społeczną. Nic takiego nie nastąpiło – mówi dr Maciej Gurtowski. Nagranie z Wołodymyrem Zełenskim nie wpłynęło na przebieg wojny rosyjsko-ukraińskiej. Zmontowany półtora roku temu filmik z Jarosławem Kaczyńskim, rzekomo popierającym strajki proaborcyjne, także nie zmienił nastrojów społecznych. Maciej Gurtowski podaje za to przykład Gabonu, gdzie w 2019 r. doszło do nieudanego przewrotu. Prezydent tego kraju Ali Bongo przez dłuższy czas nie pokazywał się publicznie i pojawiły się plotki, że nie żyje. Aby pokazać, że jest inaczej, Bongo nagrał orędzie. Zachowywał się nienaturalnie, co przekonało jego przeciwników, że film to deepfake, a prezydent zapewne nie żyje. Przeprowadzono próbę puczu, która się nie powiodła. Jak się okazało, Bongo naprawdę nagrał przemówienie. Jego dziwne zachowanie wynikało z tego, że wcześniej przeszedł udar. Trzeba zatem pamiętać, że dezinformacją może być nie tylko fałszywe nagranie, ale też zapewnianie, że prawdziwe nagranie to deepfake. – Możemy sobie wyobrazić sytuację, w której polityk dowie się, że istnieją kompromitujące go materiały. Broniąca polityka agencja PR wypuści dużo filmów deepfake imitujących to nagranie. Prawdziwy film zginie wtedy w morzu tych fałszywych – mówi dr Gurtowski.

– Dziś nagranie jest jakimś dowodem np. na to, że polityk powiedział coś oburzającego. Może za 10 lat nagranie nikogo nie będzie przekonywać – dodaje Błażej Osiński. •

« 1 »
oceń artykuł Pobieranie..

Wyraź swoją opinię

napisz do redakcji:

gosc@gosc.pl

podziel się

Zapisane na później

Pobieranie listy

Reklama