Eksperci z Światowego Forum Ekonomicznego alarmują: technologia deepfake rozprzestrzenia się w zawrotnym tempie. Szacowana liczba fałszywych filmów zwiększa się o ponad 900% rocznie*. Choć część z nich pełni funkcję rozrywkową, zdecydowanie częściej są one środkiem przemocy i wyrafinowanym narzędziem propagandy. Przekonaj się, jak deepfake zakłamuje rzeczywistość.
Co to jest deepfake?
Sztuczna inteligencja (AI) coraz skuteczniej symuluje ludzką wyobraźnię. Działa m. in. w oparciu o technologię GAN, która jest namiastką kreatywności. Umożliwia klasyfikowanie obiektów i tworzenie realistycznych obrazów.
Za jej skuteczność odpowiadają dwie przeciwstawne sieci neuronowe, które przypominają układ nerwowy człowieka. Za ichpomocą AI zbiera, analizuje i łączy dostarczone wcześniej informacje, a następnie generuje z nich nowe dane, np. unikalny wizerunek. Wykreowana w ten sposób postać do złudzenia przypomina prawdziwego człowieka. Umie naśladować mimikę, ruchy, głos, a nawet maniery pierwowzoru.
Czarny PR deepfake’ów
Dotychczas zdjęcia oraz materiały audiowizualne były jednymi z najbardziej wiarygodnych źródeł historii. Kształtowały jej postrzeganie i – choć ich autorzy od zawsze uciekali się do stosowania technik manipulacyjnych – stanowiły namacalny dowód minionych wydarzeń.
Problem z zaufaniem pojawił się wraz z rozwojem sztucznej inteligencji. Powstanie deepfake’ów ujawniło zagrożenie płynące z rozwoju sztucznej inteligencji. Technika ta nie została jeszcze na tyle rozwinięta, by fałszować zdarzenia czy konflikty na szeroką skalę, a mimo to już teraz igra z naszą percepcją wzrokową.
Coś, co widzisz, tak naprawdę nie istnieje.
Z reddita na Tiktoka
Sam termin “deepfakes” po raz pierwszy pojawił się w 2017 roku. Pewnego dnia użytkownik Reddit wpadł na pomysł udostępnienia na platformie filmów pornograficznych, w których zastąpił twarze aktorek wizerunkiem znanych celebrytek, m. in. Taylor Swift i Emmy Watson.
Od tamtego momentu Internet błyskawicznie zaczął zapełniać się fałszywym obrazem i dźwiękiem. Co więcej, na rynku pojawiają się aplikacje umożliwiające użytkownikom amatorskie tworzenie deepfake’ów. Obecnie nie tylko zaspokajają niespełnione fantazje erotyczne, ale także mają charakter rozrywkowy, edukacyjny i – niestety – dezinformacyjny.
Tym sposobem “wiecznie młody Tom Cruise” ma prawie 5 milionów obserwujących na TikToku, Salvador Dali robi sobie selfie z zwiedzającymi Muzeum na Florydzie, a Wołodymyr Zełenski wzywa ukraińskich żołnierzy do złożenia broni.
Zagrożenie poza granicami cyberprzestrzeni
Technologia deepfakes pociąga za sobą następstwa społeczne, moralne oraz polityczne. Buduje atmosferę wzajemnej nieufności i obojętności w stosunku do tego, co widzimy lub słyszymy. Analitycy mediów społecznościowych sugerują, że może to doprowadzić do “infokalipsy”. Część społeczeństwa już teraz kwestionuje wydarzenia, które niewątpliwe miały miejsce, jak np. lądowanie na Księżycu.
Deepfakes o charakterze poronograficznym są formą przemocy wobec kobiet. Przez bezpośredni wpływ na ich wizerunek, przestępcy wykorzystują je do szantażu lub publikują w sieci w ramach zemsty (tzw. revenge porn). W skrajnych przypadkach, sfabrykowane materiały seksualizują dzieci.
Idąc dalej, na reputację i opinie innych osób ma szkodliwy wpływ deepfakes używanych do nagłaśniania propagandy. Szerzona w ten sposób dezinformacja nie tylko manipuluje społeczeństwem, ale może zaważać na wyborach rządowych lub prowadzić do usunięcia kogoś ze sceny politycznej.
Jak wykryć deepfake?
Na ten moment sztuczna inteligencja wciąż nie jest idealna. Przede wszystkim brakuje jej konsekwencji w kreowaniu szczegółów elementów, takich jak zmarszczki, zarost, refleksy okularów czy ułożenie ciala. W większości przypadków wystarczy uważnie przyjrzeć się wygenerowanej postaci, by dostrzec jej niedoskonałości.
Inne metody wykrywania deepfake’ów to:
- ocena jakości obrazu,
- analiza metadanych w celu ustalenia ich autentyczności,
- analiza kryminalistyczna,
- badanie ścieżki dźwiękowej,
- porównanie obrazu z innymi źródłami,
- skorzystanie z platformy wykrywającej fałszywe obrazy.
Przy tym rozwoju technologii deapfake staje się coraz trudniejszy do rozróżnienia, aż strach co to będzie w przyszłości. Powinniśmy pomyśleć nad jakimś prawem, żeby oznaczać materiały typu deepfake w wyraźny sposób
Niedługo przy modulacji głosu, dźwięku i wsparciu AI naprawdę ciężko, a może i nawet niemożliwie będzie odróżnić takiego deepfake od prawdziwego filmu. Może mieć to straszne konsekwencje, upadać mogą rządy i całe państwa. Straszna wizja przyszłości
Do jakiego punktu to zmierza? Teraz jest to fajne, śmieszne, bo możemy sobie wkleić czyjąś twarz w ciało kogoś innego, zobaczyć siebie w jakiejś roli itp ale jestem ciekaw co przyniesie najbliższa przyszłość. Może będziemy mogli sobie wybierać aktorow, którzy mają grać dane role i ai nam ich podmieni?