Nástroje na odhalování výtvorů AI nejsou bezchybné. Redakce ČT je otestovala

30 minut
De facto z 15. března 2025 (na obrázku videa je falešný snímek vytvořený umělou inteligencí)
Zdroj: ČT24

Nástroje na vytváření falešných videí, fotografií i textů jsou stále rozšířenější, snadněji dostupné a hlavně – jejich výstupy jsou stále realističtější. Odhalit, že jde o dílo umělé inteligence, je tedy pořád složitější. Cesty ale existují: vědecká redakce ČT24 otestovala některé nástroje, které to dokáží.

Redaktor České televize Jakub Pacner pravidelně moderuje ze studia, ale také vstupuje z terénu. Je tak věrohodnou a poměrně známou osobností tuzemského veřejnoprávního zpravodajství. Když se objevilo na portálu YouTube video, kde propagoval nelegální finanční služby společně s Andrejem Babišem (ANO), působilo to na první pohled velmi nedůvěryhodně. Pacner i Babiš ale současně vypadali velmi reálně, jejich hlasy i pohyby působily přirozeně. Video ale bylo vytvořené umělou inteligencí a bylo tak věrohodné díky tomu, jak často bývají redaktor ČT i opoziční lídr na obrazovce:

1 minuta
Deepfake video s redaktorem Jakubem Pacnerem — TOTO VIDEO OBSAHUJE NEPRAVDIVÉ INFORMACE
Zdroj: ČT24

Podobných klipů jsou tisíce. Zejména v posledních měsících, kdy řada velkých společností zveřejnila aplikace umožňující zdarma převedení textu na video, jich ale přibývá geometrickou řadou. U části je velmi snadné poznat manipulaci i během pár sekund, u jiných je to ale prakticky nemožné. Falšování reality může být neškodné a zábavné – například, když na záběrech létá okřídlený pes – ale může se stát i velmi snadno nebezpečným. Třeba když autoři klipu zneužijí respektovanou osobnost k propagaci nějakého podvodného produktu.

Jak podvrhy poznat? To už je složitější. Existují komerční analytické nástroje, které umí tyto „fake news“ odhalit, ale zpravidla jsou poměrně drahé a negarantují, že jejich výsledek bude zaručený. Seznam nástrojů, které jsou zdarma, poskytuje ale také bruselská organizace EU Disinfo Lab, která se věnuje boji proti dezinformacím dlouhodobě. Řada z nástrojů je nicméně zastaralá, mnoho z nich se stalo v mezičase placenými. Řada z nich se ale stále dá využít na ověření pravosti internetového obsahu. Česká televize otestovala jejich účinnost na textu, fotografiích i videu.

Běžné texty se poznají poměrně snadno

Vytvořit jakýkoliv text je dnes velmi snadné pro většinu velkých jazykových modelů – tedy nástrojů, kterým se laicky říká umělé inteligence alias AI. Nástroje jako ChatGPT, Grok, Claude a další umí pracovat s obecným zadáním, ale také s velmi přesně formulovanými prosbami o texty, jež připomínají výtvory někoho konkrétního.

Vědecká redakce ČT otestovala dvacet textů vytvořených různými modely AI, polovina byla v češtině, polovina v angličtině. Využila k tomu nástroj GPTZero. Ukázalo se, že zatímco u anglicky psaných textů je nástroj extrémně spolehlivý a dokáže dílo robota odhalit s pravděpodobností víc než 96 procent, u českých článků je mnohem méně úspěšný.

Výsledek se také značně liší podle zadání: pokud má AI napodobit nějaký konkrétní styl, pak může být pro internetové nástroje velmi těžké to odhalit. Záleží ale zřejmě na velikosti vzorku, který má AI k dispozici: například styl psaní Českého rozhlasu, jehož web je otevřený a dostupný každému, umí stroje napodobit tak dobře, že to nástroj neodhalí. Ale naopak styl České tiskové kanceláře, kde je většina obsahu zamčená a dostanou se k němu jen platící klienti (například i Česká televize), okopíruje AI natolik nepřesvědčivě, že to algoritmus odhalí snadno.

A jak to funguje opačně? Nemůže analytický nástroj považovat za „falešné“ texty vyrobené lidmi? Může, zejména pokud jde o angličtinu. Redakce předložila stejnému programu dvacet článků napsaných prokazatelně lidmi – a opět nechala program hádat, zda nešlo o práci AI. U češtiny si se zadáním poradil skvěle, ale zřejmě i proto, že ji nezná tak dobře a neodvažuje se tolik hádat. Poslední možností je, že texty na webu ČT, které byly k analýze využité, jsou natolik kvalitní, že program opravdu nenašel žádné známky AI.

U anglicky psaných textů ze stránek BBC, která deklaruje, že umělou inteligenci pro psaní článků nevyužívá, už u některých textů ale program váhal. Nejvíce u těch, které se nějak týkají vědy. Proč? Články na toto téma totiž mnohdy využívají citace ze studií nebo tiskových zpráv různých institucí, jež mohly AI využít – a novináři pak tato vyjádření převzali.

Člověk rozezná falešné video lépe než robot

U rozeznávání takzvaných deepfake videí, které pomocí strojové inteligence předstírají, že jsou reálná, použila redakce stejný přístup. Zdarma dostupný nástroj Deepware otestoval dvacet videí – deset reálných z tvorby ČT a desítku falešných.

Tento program využívá na analýzu čtyři modely, které různým způsobem hodnotí přesvědčivost deepfake videa. A výsledky všech čtyř byly v tomto testu velmi slabé. Nedokázaly rozpoznat nepravdivost jediného z předložených snímků. Zdá se, že už úroveň „podezření“ kolem dvaceti procent ale naznačuje, že klip není reálný. Modely se přitom řídí podle změn lidské tváře na obrázcích – jenže právě tato technologie udělala za poslední rok největší pokrok, takže nástroj vypadá jako neúčinný.

Přesto tato aplikace není neužitečná. Nejčastější videopodvody, které na tento web uživatelé nahrají, totiž zkoumají i lidští analytici, kteří následně umísťují svá hodnocení. A ti jsou naopak úspěšní stoprocentně, a to i u těch nejvěrohodnějších podvodů – v přiloženém seznamu jde například o klip s hercem Morganem Freemanem.

Proč jsou vlastně lidé při analýze obrazové informace pořád o tolik lepší než stroje? Více se dočtete níže – je to i tím, že přístupy k videu a fotografii jsou v principu velmi podobné a řídí se srovnatelnými pravidly.

Odhalit falešné fotografie už je téměř nemožné

Falešné obrázky vytvořené velkými jazykovými modely sice existují jen několik let, ale za tu dobu došlo k obrovskému pokroku. Také v tomto případě proběhla analýza fotografií vyfocených lidmi a těch, které vytvořila umělá inteligence, v tomto případě volně dostupný nástroj OpenArt. Na analýzu byl využitý opět nástroj z webu EU Disinfo Lab – Iluminarty.

A jeho úspěšnost není vysoká. Řada obrázků vytvořených AI je pro něj podobně „podezřelá“ jako lidmi pořízené fotografie, byť základní orientaci uživateli, který si chce vytvořit nějaký odhad, dát může. Obecně se i automatický analytický nástroj soustředí hlavně na několik oblastí. Prozkoumává například digitální stopu snímku, takzvaná metadata, kde se ale dá snadno ošálit.

Obrázky generované AI také často obsahují nepřirozené vzorce, například deformace v oblasti očí, zubů, prstů nebo šperků. Nástroje také analyzují symetrii obličeje, odlesky v očích nebo nepravidelnosti v barvách a texturách. Jenže když jsou tyto vzorce v pořádku, tak už takto natrénované programy považují snímek za přijatelný.

U přiložené sady snímků se to dá hezky ukázat u dvou záběrů papeže. Oba program považuje za podezřelé, ale rozdíl mezi jeho odhady není velký – fotografii hlavy katolické církve v automobilu považuje za falešnou s pravděpodobností 46,8 procenta, ale papeže na žirafě ze 62,9 procenta.

Nasvětlení, detaily tváře i ostatní podrobnosti totiž dokázal použitý pokročilý „AI malíř“ vyrobit velmi zdařile. Naopak reálný snímek zachycuje papeže ve velmi nepřirozené pozici s lesknoucím se obličejem. Algoritmus už není schopný vzít v úvahu nesmyslnost celé situace zachycené na falešném snímku, člověk ale snadno odhalí, že vysocí církevní hodnostáři na žirafách po Rudém náměstí v Moskvě opravdu nejezdí.

Pro každý typ ověřování, textu, videa i fotografií, existuje celá řada nástrojů, většina je komerční nebo částečně komerční, kdy má uživatel k dispozici jen omezené množství kreditů, které může utratit, než překročí hranici, za níž je už každý další krok placený.

Výběr redakce

Aktuálně z rubriky Věda

Španělské úřady prověřují, zda africký mor prasat neunikl z tamní laboratoře

Španělská policie od čtvrtka prověřuje laboratoř v Katalánsku. Cílem vyšetřování je objasnit, jestli za vznikem ohnisek afrického moru prasat, který v regionu zabil přinejmenším 26 divočáků, nestojí právě toto pracoviště nebo jiná z pěti laboratoří v této oblasti, které s virem pracují.
včera v 12:01

Lyžování na ledovci se stane vzpomínkou. V Alpách jich mohou zbýt tři procenta

Horské ledovce hrají mimořádně důležitou roli. Ovlivňují lokální i globální klimatické systémy, zásobují řeky vodou, formují krajinu a mají i kulturní a estetický význam pro místní komunity. V neposlední řadě je důležitý také jejich turistický potenciál. Nová vědecká studie však ukazuje, že jejich zánik se zrychluje a většina z nich zmizí už během tohoto století.
včera v 10:01

Bez pravdy, gulagů a naděje. Nový ruský slovník je nástrojem politické moci

Nový výkladový slovník státního jazyka, který letos vydalo Rusko, využívá jazyk jako politický nástroj moci. Zcela v něm například chybí pojmy jako pravda, gulag nebo stalinismus. Podle Jany Kockové ze Slovanského ústavu Akademie věd je dokument závazný pro státní orgány, úředníky i učitele a může mít konkrétní společenské i právní důsledky.
18. 12. 2025

Do Evropy se vrátila lepra, případy hlásí Rumunsko a Chorvatsko

V polovině prosince oznámil rumunský ministr zdravotnictví Alexandru Rogobete, že se v zemi dva lidé nakazili leprou. Jde o první potvrzené případy lepry v Rumunsku za více než čtyřicet let. Obě nakažené ženy pracovaly v lázních ve městě Kluž jako masérky. Další dva lidé čekají na výsledky testů. Úřady lázně, kde se nemoc objevila, uzavřely. Jeden případ zaznamenalo i Chorvatsko. Lepra není výrazně nakažlivá a valná většina lidí je proti ní imunní.
18. 12. 2025

Novým šéfem NASA se stal Jared Isaacman

Americký Senát ve středu potvrdil miliardáře a soukromého astronauta Jareda Isaacmana jako nového šéfa Národního úřadu pro letectví a vesmír (NASA), píše agentura Reuters. Isaacman se tak stal patnáctým šéfem úřadu. V republikány ovládaném Senátu pro něj hlasovalo 67 senátorů, proti jich bylo 30.
17. 12. 2025

Podvodníci okradli děti s rakovinou o desítky milionů, které na ně vybrali

Mezinárodní skupina podvodníků roky okrádala rodiny s dětmi, které trpí rakovinou. Pomocí emotivních videí na YouTube poptávala peníze, které si pak ale nechala. Zneužívání dětí a rodin odhalilo rozsáhlé dvouleté vyšetřování stanice BBC. Riziko, že člověk přispěje na podvodné sbírky, lze snížit následováním jednoduchých zásad.
17. 12. 2025

Glumův efekt poškozuje vědu a hlavně doktorandy, naznačila studie

Vědci si příliš hromadí znalosti i výzkumná témata pro sebe, tvrdí nový výzkum, který fenomén nazval Glumův efekt, podle postavy z knihy Pán prstenů J. R. R. Tolkiena. Glum si žárlivě střežil Prsten podobně, jako si dnes významná část vědců sobecky hlídá „svoje témata“. Poškozuje to zejména doktorandy, ale také celou vědu, protože tak v laboratořích a výzkumných ústavech vzniká toxická atmosféra, naznačuje studie, která ale má metodologické nedostatky.
17. 12. 2025

Británie se vrací k programu Erasmus

Británie a Evropská unie se ve středu dohodly, že britským studentům umožní opětovné zapojení do oblíbeného studentského výměnného programu Erasmus+. Jde o malý, ale symbolický signál zlepšení vztahů mezi Spojeným královstvím a EU po brexitu, napsala agentura Reuters.
17. 12. 2025
Načítání...