Narzędzia do tworzenia wideo oparte na sztucznej inteligencji, takie jak Sora od OpenAI, wywołują coraz poważniejszy kryzys dezinformacji w mediach społecznościowych. Od momentu premiery Sora stała się jednym z najpopularniejszych generatorów wideo na świecie, osiągając milion pobrań w pięć dni. Jej hiperrealistyczne produkcje sprawiają, że tworzenie fałszywych filmów jest dziś równie proste jak napisanie jednego zdania — a to otwiera drogę do manipulacji opinią publiczną na niespotykaną dotąd skalę.
Pierwsze przykłady nadużyć pojawiły się już jesienią. Jednym z najbardziej kontrowersyjnych był film na TikToku przedstawiający rzekomy wywiad telewizyjny, w którym kobieta mówi o sprzedaży bonów żywnościowych za gotówkę. Nagranie było wygenerowane w Sorze, lecz mimo widocznego — choć sprytnie ukrytego — znaku wodnego wielu użytkowników uznało je za prawdziwe. Film zebrał tysiące komentarzy, w tym wiele nacechowanych rasizmem.
Eksperci ostrzegają, że jesteśmy na progu nowej fali manipulacji.
„To niepokojące. Obawiam się o demokrację, gospodarkę i instytucje publiczne” — mówi prof. Hany Farid z Uniwersytetu Kalifornijskiego w Berkeley.
Platformy społecznościowe — Meta, TikTok, YouTube czy X — wymagają oznaczania treści generowanych przez AI, lecz te mechanizmy okazują się niewystarczające. Znak wodny Sora można usunąć w kilka sekund dzięki ogólnodostępnym narzędziom. W sieci funkcjonują wręcz specjalne strony oferujące usuwanie watermarków.
Moderacja treści zawodzi. Fałszywe nagrania przechodzą bez oznaczeń
Sam Gregory z organizacji WITNESS podkreśla, że problemem jest brak odpowiedzialności firm technologicznych.
„Platformy nie spełniają oczekiwań. Mogą znacząco poprawić zarówno moderację, jak i wykrywanie treści generowanych przez AI” — ocenia.
Facebook szczególnie często pada ofiarą manipulacji — krążą tam filmy przedstawiające fałszywych prezenterów telewizyjnych czy inscenizowane aresztowania, które użytkownicy uznają za autentyczne. Nawet Fox News opublikował artykuł z wideo stworzonymi w AI, prezentując je jako prawdziwe nagrania beneficjentów programu SNAP. Dopiero reakcja internautów wymusiła korektę materiału.
AI w służbie operacji wpływu. Fałszywe nagrania konfliktów zdobywają miliony wyświetleń
Zagraniczne grupy wykorzystują już generatory wideo do tworzenia materiałów propagandowych. Badacze z Clemson University wykryli sieci kont amplifikujących fałszywe nagrania dotyczące konfliktu Iran–Izrael, m.in. fikcyjne bombardowania więzień czy rzekome zestrzelenia samolotów. Wiele z nich osiągnęło miliony wyświetleń na X i TikToku, zanim zostały zdejmowane.
Problem pogłębia się wraz z rosnącą mocą narzędzi AI.
• Google Veo wygenerował ponad 40 mln filmów w kilka tygodni.
• Meta uruchomiła osobny kanał poświęcony treściom AI.
• Ponad połowa Amerykanów — według Pew Research — nie potrafi odróżnić treści prawdziwych od wygenerowanych przez AI.
Nawet specjaliści mają z tym trudności.
„Rok temu mogłem rozpoznać fałszywe nagranie na pierwszy rzut oka. Teraz — już nie” — przyznaje Farid, współzałożyciel firmy GetReal Labs rozwijającej narzędzia do wykrywania treści AI.
Źródło obrazka: Open AI

