Konferencja Mega Sekurak Hacking Party w Krakowie – 26-27 października!
10 deepfake’ów które zmieniły świat – zobacz nasze zestawienie
Deepfake przestał być eksperymentem badawczym i ciekawostką z laboratoriów AI. W ciągu ostatnich kilku lat stał się narzędziem realnego wpływu: politycznego, finansowego i informacyjnego. W tym zestawieniu zobaczysz dziesięć przypadków deepfake’ów, które miały mierzalny wpływ na rzeczywistość – od mediów społecznościowych, przez procesy wyborcze, po rynki finansowe. Ranking jest ułożony od najmniejszego do największego wpływu. Subiektywnie.
10. Tom Cruise, który nigdy nie był na TikToku

W 2021 roku użytkownicy TikToka zaczęli masowo udostępniać krótkie filmy z Tomem Cruise’em. Aktor grał w golfa, żartował, robił magiczne sztuczki i zachowywał się dokładnie tak, jak można by się po nim spodziewać. Problem polegał na tym, że Cruise nigdy tych nagrań nie stworzył. Był to jeden z pierwszych przypadków deepfake’a, który trafił do masowej publiczności i nie wyglądał sztucznie.. Mimika, ruchy twarzy i synchronizacja ust były na tyle dobre, że dla większości odbiorców wideo było po prostu “prawdziwe”. Ten przypadek nie wyrządził realnych szkód, ale odegrał ważną rolę: uświadomił, że rozpoznanie deepfake’a gołym okiem przestaje być możliwe. Autorem deepfake’a był Miles Fisher, który nadal prowadzi swój profil deeptomcruise. Montaż przed czasami rewolucji AI udał się głównie dlatego, że Miles z natury jest dosyć podobny do aktora.
Chcesz wiedzieć więcej o deepfake’ach? Chcesz zobaczyć ich szokujące przykłady z ostatnich miesięcy? Zapisz się na nasze nowe, darmowe szkolenie o deepfake’ach prowadzone przez Michała Sajdaka: https://sklep.securitum.pl/deepfake-przyklady-wykrywanie-ciekawostki
9. Aresztowanie Donalda Trumpa, które nigdy się nie wydarzyło
W marcu 2023 roku Internet obiegły obrazy przedstawiające Donalda Trumpa siłą zatrzymywanego przez policję. Zdjęcia wyglądały realistycznie, pasowały do napiętej sytuacji politycznej i szybko zaczęły funkcjonować w obiegu informacyjnym. Problem w tym, że były całkowicie fałszywe i wygenerowane przez AI. Jednak post Eliota Higginsa na platformie Twitter (aktualny X) został wyświetlony prawie 7 mln razy, a udostępniony ponad 6 tys razy.

Choć wiele osób szybko zorientowało się, że to fikcja, obrazy zdążyły już spełnić swoją rolę. Zostały masowo udostępnione, komentowane i wykorzystywane w politycznych narracjach. To klasyczny przykład dezinformacji wizualnej, w której szybkość rozprzestrzeniania się treści wygrywa z weryfikacją faktów.
8. Prezydent Zełenski wzywający do kapitulacji
W czasie wojny w Ukrainie pojawiło się wideo przedstawiające prezydenta Wołodymyra Zełenskiego nawołującego żołnierzy do złożenia broni. Materiał był technicznie niedoskonały, a twarz i głos zdradzały artefakty, jednak sam fakt jego publikacji miał znaczenie strategiczne. Podczas wojny, Internet nie jest najwyższej jakości, a zakończenie konfliktu jest czynnikiem psychologicznym, pożądanym po obu stronach konfliktu. Wiele żołnierzy widząc takie nagranie mogło doznać ulgi, a jednocześnie stracić życie oddając się w ręce wroga. Na szczęście social-media szybko powstrzymały dalszą propagację.

Był to jeden z pierwszych przypadków użycia deepfake’a w kontekście realnego konfliktu zbrojnego. Wideo było elementem wojny informacyjnej i próbą osłabienia morale. Ten przykład pokazał, że skuteczność deepfake’a nie zawsze zależy od jakości wykonania, lecz od momentu publikacji i kontekstu, w jakim się pojawia. Dzisiaj jest to jedna z najczęściej stosowanych technik deepfake. Mianowicie, wykorzystuje prawdziwy materiał, ale z syntetyzowanym głosem i poprawioną synchronizacją ust do nowego głosu. Najczęściej spotykana wersja w Polsce to atak na fałszywe inwestycje, np. tego z Aleksandrem Kwaśniewskim, który opisywaliśmy na łamach sekuraka.
7. Mark Zuckerberg i „szczerość” na temat reklam
Tego nikt by się nie spodziewał. Wideo przedstawiające Marka Zuckerberga mówiącego o kontroli danych i manipulacji odbiorcami poprzez spersonalizowane reklamy publikowane na Facebooku. Materiał został stworzony jako projekt artystyczny. Mimo to wielu odbiorców odebrało je jako autentyczne wystąpienie CEO platformy.

Materiał idealnie wpisywał się w nastroje nieufności wobec dużych platform technologicznych. Z drugiej strony każdy chciałby dowiedzieć się, jak algorytmy zasięgów w social media działają. Materiał zatem był niezwykle emocjonalnym, chwytliwym kąskiem. Ten przypadek pokazał, jak cienka jest granica między satyrą a dezinformacją. Deepfake nie wprowadzał nowych treści, lecz wykorzystywał istniejące obawy i narracje. Dla wielu odbiorców sama forma wideo była wystarczającym dowodem wiarygodności.
6. Koreańska telewizja i syntetyczni prezenterzy
Nie każdy deepfake jest oszustwem. W Korei Południowej technologia ta została wykorzystana do tworzenia wirtualnych prezenterów wiadomości. Syntetyczne postacie prowadzą programy informacyjne, bazując na wizerunkach prawdziwych dziennikarzy.

Ten przykład utworzony za pomocą narzędzia synthesia.io pokazuje, że deepfake zaczyna być elementem infrastruktury medialnej. Prezenter całodobowo dostępny, nigdy nie pójdzie na L4 i zawsze będzie przygotowany. Mówił jednym tonem, przekazując bezemocjonalnie wiadomości. Ta realizacja jednocześnie rodzi pytania o transparentność, oznaczanie treści syntetycznych i granice automatyzacji w mediach. To legalne i kontrolowane użycie technologii, ale z potencjalnie dalekosiężnymi skutkami. Podobną realizację próbowało zrobić Polskie Radio Kraków, zastępując kilkunastu redaktorów sztuczną inteligencją, jednak ten pomysł odbił się szeroką dezaprobatą społeczną i ostatecznie rozgłośnia z pomysłu wycofała się nazywając go ostatecznie “eksperymentem”.
Chcesz wiedzieć więcej o deepfake’ach? Chcesz zobaczyć ich szokujące przykłady z ostatnich miesięcy? Zapisz się na nasze nowe, darmowe szkolenie o deepfake’ach prowadzone przez Michała Sajdaka: https://sklep.securitum.pl/deepfake-przyklady-wykrywanie-ciekawostki
5. Robocall z głosem Joe Bidena
Na początku 2024 roku wyborcy w USA otrzymywali automatyczne połączenia telefoniczne, w których głos przypominający Joe Bidena zachęcał do nieuczestniczenia w prawyborach. Był to deepfake głosowy, pozbawiony obrazu, ale wystarczająco wiarygodny, by wywołać reakcję władz.

Sprawa zakończyła się śledztwem i sankcjami. Pokazała jednak coś znacznie ważniejszego: deepfake nie potrzebuje wideo, by być skuteczny. Głos, zwłaszcza znanej osoby, jest równie silnym nośnikiem zaufania.
4. Barrack Obama „roastujący” Donalda Trumpa
Deepfake z Barackiem Obamą wypowiadającym słowa, których nigdy nie powiedział, był projektem edukacyjnym. Jego celem było pokazanie, jak łatwo można zmanipulować wideo i jak niewiele potrzeba, by były prezydent USA „powiedział” dowolne zdanie.

Materiał ten do dziś jest wykorzystywany w szkoleniach i prezentacjach dotyczących dezinformacji. Choć nie wyrządził szkód, miał ogromny wpływ na świadomość społeczną i medialną. Jest ponownym przykładem wykorzystania prawdziwego wystąpienia lecz ze zmienionym głosem i synchronizacją poruszania ust za pomocą narzędzia vozo.ai.
3. Elon Musk i oszustwa kryptowalutowe
Wizerunek miliardera, Elona Muska stał się jednym z najczęściej wykorzystywanych w deepfake’owych oszustwach inwestycyjnych. Fałszywe nagrania promowały rzekome projekty kryptowalutowe, w tym powiązane z Ripple, obiecując szybkie i pewne zyski. Np. “tylko dzisiaj ofertuję podwojenie Twojej wartości portfela XRP. Wyślij do mnie, a ja w ciągu 3 godzin odeślę Ci x2”.

chemat był prosty, ale skuteczny. Znana twarz, autorytet technologiczny i masowa dystrybucja treści doprowadziły do realnych strat finansowych liczonych w milionach dolarów. Po dziś dzień deepfake’i z Elonem są codziennością Internetu, a sam główny bohater potrafi czasami zabawić się w spekulanta. Jeden wpis na jego platformie X może spowodować zmianę kierunku dystrybucji aktywów na giełdzie, zwłaszcza kryptowalutowej.
2. Jedna rozmowa, 25 milionów dolarów straty
W jednym z https://edition.cnn.com/2024/05/16/tech/arup-deepfake-scam-loss-hong-kong-intl-hnk głosowego pracownik firmy z Hong Kongu został przekonany, że rozmawia z członkami zarządu. Na podstawie tej rozmowy wykonał serię przelewów, tracąc łącznie 35 milionów dolarów. Nie było złośliwego oprogramowania, phishingowych maili ani włamania do systemów. Wystarczył przekonujący głos i odpowiedni kontekst. Ten przypadek stał się sygnałem ostrzegawczym dla sektora finansowego na całym świecie. Ten atak nie jest nowy. Już w 2019 roku opublikowano scam, w którym firma energetyczna z Wielkiej Brytanii padła ofiarą vishingu AI (czyli phishing przez telefon i jeszcze z wykorzystaniem AI) przelewając na lewe konto w Węgrzech $243 000. Ówcześni przestępcy sklonowali głos prezesa za pomocą narzędzia resemble.ai.

1. Eksplozja przy Pentagonie, która poruszyła giełdy tradycyjne
Na szczycie rankingu znajduje się przypadek, który najlepiej pokazuje tempo i skalę oddziaływania deepfake’ów. W sieci pojawiło się zdjęcie przedstawiające eksplozję w pobliżu Pentagonu. Obraz był fałszywy i wygenerowany przez AI, ale zanim został zweryfikowany, zdążył wpłynąć na rynki finansowe.

Algorytmy tradingowe zareagowały na informację, a na giełdzie odnotowano krótkotrwałe, lecz dosyć głębokie spadki. To przykład, w którym deepfake wywołał realne skutki gospodarcze szybciej, niż człowiek zdążył sprawdzić, czy wydarzenie w ogóle miało miejsce.
*. Rafał Brzoska i reakcja na deepfake na platformie Facebook
Poza rankingiem, ale z równie ważnym przesłaniem. Konsekwencje deepfake’ów mogą być bardzo różne. W artykule przedstawiono te finansowe, strategiczne dla obronności państwa, a także wizerunkowe. Jednak deepfake może uderzać też w nasze wartości. Naszą świętość. Na przykład rodzinę. Rafał Brzoska, prezes InPostu przekonał się o tym na platformie Facebook, gdzie wizerunek jego osoby, a także członków jego rodziny został wykorzystany w fałszywych kampaniach phishingowych.

Miało to jednak swoje konsekwencje dla platformy. Pan Brzoska złożył pozew przeciwko Meta i pomimo, że wszystkim się wydawało, że to szaleństwo, to jednak poszkodowany osiągnął swój zamierzony cel. To zdarzenie spowodowało także pojawienie się na platformie nowych detektorów deepfake oraz zapewnienie przez Meta, większą kontrolę nad zgłaszanymi treściami jako niepożądane. Niestety jak się później okazało, aż 10% przychodów platformy (około 16 mld dolarów) pochodziło z przestępstw. Meta tłumaczyła się, że przez ponad 3 lata nie była w stanie opanować skali problemu.
Wierzycie?
Jak wykrywać deepfake?
Na rynku istnieje obecnie mnóstwo narzędzi reklamujących się jako “złoty środek” wykrywania treści generowanych przez AI. Prawda jest jednak taka, że mnogość modeli LLM, różnice w stylach pisarskich, a także w generowaniu obrazu i wideo są na tyle duże, że formalnie takiego jednego złotego środka nie ma. Warto jednak dla tekstu sprawdzić stopień humanizacji i plagiatu w narzędziu copyleaks.com.
Dla obrazu jednym z darmowych narzędzi będzie isitai.com. Dla materiału wideo, niezmiennie od jakiegoś czasu króluje skaner deepware. Co do głosu, w bankowości często wykorzystane jest narzędzie arya.ai.

Pamiętajmy jednak, że zdrowy rozsądek poprzez ciągłe przypominanie sobie dziennikarskiej zasady Pięciu Pytań W (5W – Who? What? Where? Why? When?) w niedalekiej przyszłości może być naszą jedyną skuteczną bronią przeciwko deepfake’om.
Podsumowanie
Deepfake przestał być problemem przyszłości. Dziś wpływa na wybory, rynki finansowe, media i bezpieczeństwo informacyjne. Obraz i głos przestają być dowodem, a zaufanie do treści cyfrowych staje się coraz trudniejsze do utrzymania. Bez procedur weryfikacji, oznaczania treści syntetycznych i realnej edukacji użytkowników, skala tego problemu będzie tylko narastać.
Chcesz wiedzieć więcej o deepfake’ach? Chcesz zobaczyć ich szokujące przykłady z ostatnich miesięcy? Zapisz się na nasze nowe, darmowe szkolenie o deepfake’ach prowadzone przez Michała Sajdaka: https://sklep.securitum.pl/deepfake-przyklady-wykrywanie-ciekawostki
Jeżeli chciałbyś poznać techniki detekcji takich obrazów jak deepfake’i to zapraszamy Cię na szkolenie Narzędziownik OSINT prowadzone przez Tomka Turbę. Przy zapisach do 31.01 br. dostępne w specjalnej promocyjnej cenie -75%. Startujemy już 25 lutego 2026 r.
~Tomek Turba

Nie “w Ukrainie”, a NA Ukrainie.
Dzięki :-)
Ogólnie na Ukrainie, ale są wyjątki.
https://wolnemedia.net/mem-na-czy-w-ukrainie-rozstrzygniecie-sporu/
“Na” Ukrainie to niestety przykład tej nowej narzucanej namolnej poprawności politycznej..
Poza tym rzeczowy i ciekawy artykulik ! Sporo konkretnych linków do narzędzi Ej Aj.
Pozdr.