Nástroje na odhalování výtvorů AI nejsou bezchybné. Redakce ČT je otestovala

30 minut
De facto z 15. března 2025 (na obrázku videa je falešný snímek vytvořený umělou inteligencí)
Zdroj: ČT24

Nástroje na vytváření falešných videí, fotografií i textů jsou stále rozšířenější, snadněji dostupné a hlavně – jejich výstupy jsou stále realističtější. Odhalit, že jde o dílo umělé inteligence, je tedy pořád složitější. Cesty ale existují: vědecká redakce ČT24 otestovala některé nástroje, které to dokáží.

Redaktor České televize Jakub Pacner pravidelně moderuje ze studia, ale také vstupuje z terénu. Je tak věrohodnou a poměrně známou osobností tuzemského veřejnoprávního zpravodajství. Když se objevilo na portálu YouTube video, kde propagoval nelegální finanční služby společně s Andrejem Babišem (ANO), působilo to na první pohled velmi nedůvěryhodně. Pacner i Babiš ale současně vypadali velmi reálně, jejich hlasy i pohyby působily přirozeně. Video ale bylo vytvořené umělou inteligencí a bylo tak věrohodné díky tomu, jak často bývají redaktor ČT i opoziční lídr na obrazovce:

1 minuta
Deepfake video s redaktorem Jakubem Pacnerem — TOTO VIDEO OBSAHUJE NEPRAVDIVÉ INFORMACE
Zdroj: ČT24

Podobných klipů jsou tisíce. Zejména v posledních měsících, kdy řada velkých společností zveřejnila aplikace umožňující zdarma převedení textu na video, jich ale přibývá geometrickou řadou. U části je velmi snadné poznat manipulaci i během pár sekund, u jiných je to ale prakticky nemožné. Falšování reality může být neškodné a zábavné – například, když na záběrech létá okřídlený pes – ale může se stát i velmi snadno nebezpečným. Třeba když autoři klipu zneužijí respektovanou osobnost k propagaci nějakého podvodného produktu.

Jak podvrhy poznat? To už je složitější. Existují komerční analytické nástroje, které umí tyto „fake news“ odhalit, ale zpravidla jsou poměrně drahé a negarantují, že jejich výsledek bude zaručený. Seznam nástrojů, které jsou zdarma, poskytuje ale také bruselská organizace EU Disinfo Lab, která se věnuje boji proti dezinformacím dlouhodobě. Řada z nástrojů je nicméně zastaralá, mnoho z nich se stalo v mezičase placenými. Řada z nich se ale stále dá využít na ověření pravosti internetového obsahu. Česká televize otestovala jejich účinnost na textu, fotografiích i videu.

Běžné texty se poznají poměrně snadno

Vytvořit jakýkoliv text je dnes velmi snadné pro většinu velkých jazykových modelů – tedy nástrojů, kterým se laicky říká umělé inteligence alias AI. Nástroje jako ChatGPT, Grok, Claude a další umí pracovat s obecným zadáním, ale také s velmi přesně formulovanými prosbami o texty, jež připomínají výtvory někoho konkrétního.

Vědecká redakce ČT otestovala dvacet textů vytvořených různými modely AI, polovina byla v češtině, polovina v angličtině. Využila k tomu nástroj GPTZero. Ukázalo se, že zatímco u anglicky psaných textů je nástroj extrémně spolehlivý a dokáže dílo robota odhalit s pravděpodobností víc než 96 procent, u českých článků je mnohem méně úspěšný.

Výsledek se také značně liší podle zadání: pokud má AI napodobit nějaký konkrétní styl, pak může být pro internetové nástroje velmi těžké to odhalit. Záleží ale zřejmě na velikosti vzorku, který má AI k dispozici: například styl psaní Českého rozhlasu, jehož web je otevřený a dostupný každému, umí stroje napodobit tak dobře, že to nástroj neodhalí. Ale naopak styl České tiskové kanceláře, kde je většina obsahu zamčená a dostanou se k němu jen platící klienti (například i Česká televize), okopíruje AI natolik nepřesvědčivě, že to algoritmus odhalí snadno.

A jak to funguje opačně? Nemůže analytický nástroj považovat za „falešné“ texty vyrobené lidmi? Může, zejména pokud jde o angličtinu. Redakce předložila stejnému programu dvacet článků napsaných prokazatelně lidmi – a opět nechala program hádat, zda nešlo o práci AI. U češtiny si se zadáním poradil skvěle, ale zřejmě i proto, že ji nezná tak dobře a neodvažuje se tolik hádat. Poslední možností je, že texty na webu ČT, které byly k analýze využité, jsou natolik kvalitní, že program opravdu nenašel žádné známky AI.

U anglicky psaných textů ze stránek BBC, která deklaruje, že umělou inteligenci pro psaní článků nevyužívá, už u některých textů ale program váhal. Nejvíce u těch, které se nějak týkají vědy. Proč? Články na toto téma totiž mnohdy využívají citace ze studií nebo tiskových zpráv různých institucí, jež mohly AI využít – a novináři pak tato vyjádření převzali.

Člověk rozezná falešné video lépe než robot

U rozeznávání takzvaných deepfake videí, které pomocí strojové inteligence předstírají, že jsou reálná, použila redakce stejný přístup. Zdarma dostupný nástroj Deepware otestoval dvacet videí – deset reálných z tvorby ČT a desítku falešných.

Tento program využívá na analýzu čtyři modely, které různým způsobem hodnotí přesvědčivost deepfake videa. A výsledky všech čtyř byly v tomto testu velmi slabé. Nedokázaly rozpoznat nepravdivost jediného z předložených snímků. Zdá se, že už úroveň „podezření“ kolem dvaceti procent ale naznačuje, že klip není reálný. Modely se přitom řídí podle změn lidské tváře na obrázcích – jenže právě tato technologie udělala za poslední rok největší pokrok, takže nástroj vypadá jako neúčinný.

Přesto tato aplikace není neužitečná. Nejčastější videopodvody, které na tento web uživatelé nahrají, totiž zkoumají i lidští analytici, kteří následně umísťují svá hodnocení. A ti jsou naopak úspěšní stoprocentně, a to i u těch nejvěrohodnějších podvodů – v přiloženém seznamu jde například o klip s hercem Morganem Freemanem.

Proč jsou vlastně lidé při analýze obrazové informace pořád o tolik lepší než stroje? Více se dočtete níže – je to i tím, že přístupy k videu a fotografii jsou v principu velmi podobné a řídí se srovnatelnými pravidly.

Odhalit falešné fotografie už je téměř nemožné

Falešné obrázky vytvořené velkými jazykovými modely sice existují jen několik let, ale za tu dobu došlo k obrovskému pokroku. Také v tomto případě proběhla analýza fotografií vyfocených lidmi a těch, které vytvořila umělá inteligence, v tomto případě volně dostupný nástroj OpenArt. Na analýzu byl využitý opět nástroj z webu EU Disinfo Lab – Iluminarty.

A jeho úspěšnost není vysoká. Řada obrázků vytvořených AI je pro něj podobně „podezřelá“ jako lidmi pořízené fotografie, byť základní orientaci uživateli, který si chce vytvořit nějaký odhad, dát může. Obecně se i automatický analytický nástroj soustředí hlavně na několik oblastí. Prozkoumává například digitální stopu snímku, takzvaná metadata, kde se ale dá snadno ošálit.

Obrázky generované AI také často obsahují nepřirozené vzorce, například deformace v oblasti očí, zubů, prstů nebo šperků. Nástroje také analyzují symetrii obličeje, odlesky v očích nebo nepravidelnosti v barvách a texturách. Jenže když jsou tyto vzorce v pořádku, tak už takto natrénované programy považují snímek za přijatelný.

U přiložené sady snímků se to dá hezky ukázat u dvou záběrů papeže. Oba program považuje za podezřelé, ale rozdíl mezi jeho odhady není velký – fotografii hlavy katolické církve v automobilu považuje za falešnou s pravděpodobností 46,8 procenta, ale papeže na žirafě ze 62,9 procenta.

Nasvětlení, detaily tváře i ostatní podrobnosti totiž dokázal použitý pokročilý „AI malíř“ vyrobit velmi zdařile. Naopak reálný snímek zachycuje papeže ve velmi nepřirozené pozici s lesknoucím se obličejem. Algoritmus už není schopný vzít v úvahu nesmyslnost celé situace zachycené na falešném snímku, člověk ale snadno odhalí, že vysocí církevní hodnostáři na žirafách po Rudém náměstí v Moskvě opravdu nejezdí.

Pro každý typ ověřování, textu, videa i fotografií, existuje celá řada nástrojů, většina je komerční nebo částečně komerční, kdy má uživatel k dispozici jen omezené množství kreditů, které může utratit, než překročí hranici, za níž je už každý další krok placený.

Výběr redakce

Aktuálně z rubriky Věda

Mlhoviny, galaxie, hvězdy. To nejlepší z kosmického teleskopu Jamese Webba

Před čtyřmi roky, na Vánoce roku 2021, vypustila evropská raketa Ariane 5 do kosmu Vesmírný dalekohled Jamese Webba. Evropská vesmírná agentura k tomuto výročí zveřejnila video, které ukazuje ty nejkrásnější pohledy tohoto přístroje na vzdálené hvězdy, rozlehlé mlhoviny, podivné „porodnice hvězd“, ale také na ta nejvzdálenější místa, kam kdy lidské oko dohlédlo.
30. 12. 2025

Šíření spalniček v USA kvůli poklesu proočkovanosti pokračuje

Spojené státy ani na konci roku nedokázaly zastavit šíření nakažlivých spalniček. Naopak, počet nakažených překonal dva tisíce a stále se tvoří další ohniska, což naznačuje, že Světová zdravotnická organizace (WHO) příští rok odejme Spojeným státům status země bez spalniček.
30. 12. 2025

Můry srkají losům slzy přímo z očí. Láká je „minerálka“

Když američtí přírodovědci studovali, jak žijí ve vermontských lesích losi, narazili na videopastech na něco pozoruhodného – na můry, které se těmto sudokopytníkům pohybují kolem očí.
29. 12. 2025

Nadávkami k úspěchu. Klení podle vědců pomáhá lidem překračovat vlastní hranice

Když člověk při sportovním výkonu nadává, zvyšuje to jeho úspěšnost podobně, jako by si pomáhal zakázanými substancemi – podle nové studie tento psychologický trik umožňuje lidem prorazit vlastní zábrany.
29. 12. 2025
Načítání...