Takzvaných deepfake videí přibývá. Každý půlrok se jejich počet zdvojnásobí a jsou čím dál dokonalejší. Jde přitom o nebezpečný nástroj, který zneužívají podvodníci a autoritářské režimy. V Česku jsou doménou kanálů napojených na proruskou propagandu. Účinný nástroj, jak videa vytvořená pomocí umělé inteligence identifikovat, však zatím nemáme. Tématu se pro pořad Reportéři ČT věnovaly Zuzana Černá a Jevhenija Vachničenko.
Falešná videa zaplavují internet. Spolehlivé nástroje na rozeznání deepfakeů ale neexistují
„Umělá inteligence uzavírá obchody sama. Vše, co musíte udělat, je podat žádost, počkat na hovor manažera a poté investovat šest tisíc korun a zaručuji vám, že budete nadšeni,“ říká na videu obličej expremiéra Andreje Babiše (ANO). Video ale není pravé, jedná se o takzvaný deepfake – to je označení pro foto, video či zvukovou nahrávku, kde je umělým způsobem relativně věrohodně napodoben, respektive zmanipulován vzhled nebo hlas vybrané osoby.
Stejně jako další podobná falešná videa nabádající k údajným supervýhodným investicím, která stojí za řadou lidských tragédií už dnes.
Zatímco se deepfake videa masivně šíří a ještě rychleji zdokonalují, recept, jak je poznat a utlumit, teprve hledáme. „Úspěšnost algoritmů v odchycení videa, které je deepfakem, je pod padesáti procenty. Je to spíš kolem třiceti procent. Takže to je horší, než když si hodíte mincí,” popsal velitel Skupiny kybernetických a informačních sil Armády ČR Ivo Zelinka.
Boj s lživými a falešnými videi oslabuje také neznalost. Podle průzkumu společnosti CEDMO víc než polovina lidí o deepfakeu neví vůbec nic. „Odpadá ta životní jistota, že co vidíme, tomu můžeme věřit,“ řekl expert na dezinformace Oldřich Bruža. Podle ředitele Národního úřadu pro kybernetickou a informační bezpečnost Lukáše Kintra se navíc každého půl roku počet audiovizuálních deepfake vstupů zřejmě zdvojnásobí.
Na jedno takové na konci ledna klikl i 72letý muž z Olomoucka a přišel o víc než milion korun. Nebyl jediný. „V Olomouckém kraji evidujeme za poslední dva roky desítky případů spojených s podvodnými investicemi, kdy pachatelé využili videa s umělou inteligencí,“ uvedla mluvčí olomoucké krajské policie Ivana Skoupilová.
„Starší lidé, kteří jsou naučení, že všechno, co vidí, je typicky pravda, jsou možná tou nejzranitelnější skupinou,“ upozornil prezident společnosti Gen Ondřej Vlček.
Podvodná videa zneužívají známé tváře
V případu videa zobrazujícího Andreje Babiše byl zneužitý nejen důvěřivý senior, ale i bývalý premiér a lídr současné opozice. Videa, která jsou na první pohled k nerozeznání od opravdových, mu vkládají do úst něco, co nikdy neřekl.
Sami politici a veřejné osobnosti se proti svému zneužívání ohrazují. „Píšete, že jsou různé nabídky, že něco doporučuju, že se prodávají akcie Agrofertu. Prosím vás, to jsou všechno fejky, falešné videa, žádné doporučení nikomu nikdy nedávám. (...) Takže všude jsou tyhle podvody, měli byste to vědět, tak dávejte pozor,“ reagoval Babiš.
Podvodníci s umělou inteligencí zneužívají známé tváře nebo úspěšné podnikatele opakovaně. Svůj deepfake má i miliardář Pavel Baudiš. Aktuálně devátý nejbohatší Čech v devadesátých letech spoluzakládal úspěšnou IT společnost Avast, která je dnes součástí mezinárodní skupiny Gen. Zhruba před půl rokem se stal návnadou podvodníků.
„Nás to zase až tak nepřekvapilo. Bylo to spíš očekávané, že se něco takového přihodí. Možná to bylo dřív, než jsme čekali. Je to realita, ve které žijeme,” uvedl prezident společnosti Vlček. „Nemáte moc možnost se chránit, bránit. Můžete to nahlásit na policii, ale reálná efektivní ochrana před tím v dnešní době moc neexistuje,“ dodal.
Falešná videa lze vytvořit za odpoledne
Reportéři ČT oslovili experty z armády, aby jim vytvořili vlastní deepfake. Bylo jen na nich, co zjistí a použijí. Výsledkem byla tři videa.
V nejdokonalejším použili původní záběr na redaktorku, do úst jí však vložili jiná slova. „Je tam dokonalý synchron, zejména čím byste to viděla na menším displeji, tím je to samozřejmě dokonalejší, synchron je tam vyladěný. Není tam evidentní rozpor toho sdělení a obrazu,“ popsal Zelinka.
V druhém videu už bylo možné pozorovat technické nedokonalosti mezi obrazem a zvukem. Třetí působilo spíše jako parodie. Trojice videí vznikla za odpoledne.
V deepfake videích se objevili Petr Pavel či Karel Řehka
Vytvořit více či méně dokonalý deepfake a zneužít něčí hlas nebo obličej je na jaře roku 2024 možnost dostupná takřka každému – i bez velkých investic nebo odborných dovedností. Nejde jen o podvody cílící na důvěřivé lidi, jde i o politický boj.
„Za nejzávažnější považuji snahu přímo z Ruska narušit průběh prezidentských voleb, kdy Rusové použili falešné video kandidáta Petra Pavla,“ uvedl ředitel Bezpečnostní informační služby Michal Koudelka.
Tehdy to bylo pouze sestříhané reálné video, teď už ale i Petr Pavel koluje v deepfacích. Ovlivňování voleb pomocí deepfakeů už loni před parlamentními volbami zažilo Slovensko. Na podzim se šířila falešná nahrávka, na které kandidát na premiéra kritizující Rusko Michal Šimečka diskutuje s novinářkou o tom, jak zmanipuluje volby.
Metody používá i komunistická Čína vůči Tchaj-wanu, na který si dělá nárok a hrozí mu zničením. „Našli jsme technologii deepfakeu, která byla použita během posledních voleb na Tchaj-wanu v lednu 2024. Většina z nich jsou videa, která jsou kombinována s audio nahrávkami,“ uvedl Yu Chihhao z tchajwanské organizace IORG, která se zabývá dezinformacemi.
„Vytváří sexuální skandály nebo ukazují politickou korupci proti kandidátům strany nebo významným postavám strany. Existují také AI-generované audio nahrávky, které jsou prezentovány jako tajné záznamy dokumentující tajné dohody,“ nastínil.
„Reálný svět utekl právu“
Zatímco na finanční podvody zákon pamatuje, v případě takzvaných politických deepfakeů je v době, kdy Česko v nadcházejících sedmi letech čekají třináctery volby, relativně bezzubý.
„Reálný svět právu utekl. Stejně jako jsme nejdřív vynalezli auta a po letech jsme měli dopravní předpisy, protože to bylo nutné, tak tady budeme potřebovat také nějaké předpisy,“ řekl Zelinka.
Deepfake videa ale necílí jen na známé osobnosti a politiky, jejich terčem se stala i česká armáda. „Na přelomu roku Rusové zaútočili raketami na Oděsu a u toho začali šířit lež, že při útoku zahynulo sedm vojáků Armády České republiky. Armáda tuhle lež vyvrátila, načež tedy ruští propagandisté ze Sputniku vytvořili falešná videa, video náčelníka generálního štábu (Karla Řehky – pozn. redakce), že to přiznává, že tam zahynulo sedm důstojníků. Ale je to lež,“ upozornil analytik Roman Máca.
Za deepfakey podle odborníků často stojí mocnosti, které tajné služby označují za hrozbu – Čína a Rusko. „Spoustu politických deepfake videí najdeme na kanálech, které spravují ruští propagandisté, kteří třeba jsou následovníci Sputniku. Je tady spousta dalších kanálů, kdy stopy jdou do Ruska,“ tvrdí Máca.
Deepfakey se objevují i na sociálních sítích českých politiků
Videa proruských kanálů přitom na svých sítích sdílejí i čeští politici, třeba poslankyně SPD Karla Maříková, která se pro ČT vyjádřit nechtěla. Stejné zdroje používá i předsedkyně Trikolory Zuzana Majerová.
„Nemám jediné povědomí ani jedinou informaci o tom, že bych na svých sítích sdílela cokoli, co není pravda. (...) Osobně jsem v politice natolik dlouho, abych si vyhodnotila, co je manipulace a co je objektivní,“ reagovala Majerová.
Boj s dezinformacemi je součástí programu vlády už víc než dva roky. Přesto se na tom, co dělat, pětikoalice stále nedokázala shodnout.
„Společnosti, které mají nějakou větší informační gramotnost, na tom pravděpodobně budou lépe,“ uvedl expert na dezinformace Bruža. „Nám trošku dochází čas. Technologie, o kterých se mluvilo, že tady budou třeba za deset let, tady byly za dvanáct měsíců,“ dodal.