Nástroje na odhalování výtvorů AI nejsou bezchybné. Redakce ČT je otestovala

Nahrávám video
De facto z 15. března 2025 (na obrázku videa je falešný snímek vytvořený umělou inteligencí)
Zdroj: ČT24

Nástroje na vytváření falešných videí, fotografií i textů jsou stále rozšířenější, snadněji dostupné a hlavně – jejich výstupy jsou stále realističtější. Odhalit, že jde o dílo umělé inteligence, je tedy pořád složitější. Cesty ale existují: vědecká redakce ČT24 otestovala některé nástroje, které to dokáží.

Redaktor České televize Jakub Pacner pravidelně moderuje ze studia, ale také vstupuje z terénu. Je tak věrohodnou a poměrně známou osobností tuzemského veřejnoprávního zpravodajství. Když se objevilo na portálu YouTube video, kde propagoval nelegální finanční služby společně s Andrejem Babišem (ANO), působilo to na první pohled velmi nedůvěryhodně. Pacner i Babiš ale současně vypadali velmi reálně, jejich hlasy i pohyby působily přirozeně. Video ale bylo vytvořené umělou inteligencí a bylo tak věrohodné díky tomu, jak často bývají redaktor ČT i opoziční lídr na obrazovce:

Nahrávám video
Deepfake video s redaktorem Jakubem Pacnerem — TOTO VIDEO OBSAHUJE NEPRAVDIVÉ INFORMACE
Zdroj: ČT24

Podobných klipů jsou tisíce. Zejména v posledních měsících, kdy řada velkých společností zveřejnila aplikace umožňující zdarma převedení textu na video, jich ale přibývá geometrickou řadou. U části je velmi snadné poznat manipulaci i během pár sekund, u jiných je to ale prakticky nemožné. Falšování reality může být neškodné a zábavné – například, když na záběrech létá okřídlený pes – ale může se stát i velmi snadno nebezpečným. Třeba když autoři klipu zneužijí respektovanou osobnost k propagaci nějakého podvodného produktu.

Jak podvrhy poznat? To už je složitější. Existují komerční analytické nástroje, které umí tyto „fake news“ odhalit, ale zpravidla jsou poměrně drahé a negarantují, že jejich výsledek bude zaručený. Seznam nástrojů, které jsou zdarma, poskytuje ale také bruselská organizace EU Disinfo Lab, která se věnuje boji proti dezinformacím dlouhodobě. Řada z nástrojů je nicméně zastaralá, mnoho z nich se stalo v mezičase placenými. Řada z nich se ale stále dá využít na ověření pravosti internetového obsahu. Česká televize otestovala jejich účinnost na textu, fotografiích i videu.

Běžné texty se poznají poměrně snadno

Vytvořit jakýkoliv text je dnes velmi snadné pro většinu velkých jazykových modelů – tedy nástrojů, kterým se laicky říká umělé inteligence alias AI. Nástroje jako ChatGPT, Grok, Claude a další umí pracovat s obecným zadáním, ale také s velmi přesně formulovanými prosbami o texty, jež připomínají výtvory někoho konkrétního.

Vědecká redakce ČT otestovala dvacet textů vytvořených různými modely AI, polovina byla v češtině, polovina v angličtině. Využila k tomu nástroj GPTZero. Ukázalo se, že zatímco u anglicky psaných textů je nástroj extrémně spolehlivý a dokáže dílo robota odhalit s pravděpodobností víc než 96 procent, u českých článků je mnohem méně úspěšný.

Výsledek se také značně liší podle zadání: pokud má AI napodobit nějaký konkrétní styl, pak může být pro internetové nástroje velmi těžké to odhalit. Záleží ale zřejmě na velikosti vzorku, který má AI k dispozici: například styl psaní Českého rozhlasu, jehož web je otevřený a dostupný každému, umí stroje napodobit tak dobře, že to nástroj neodhalí. Ale naopak styl České tiskové kanceláře, kde je většina obsahu zamčená a dostanou se k němu jen platící klienti (například i Česká televize), okopíruje AI natolik nepřesvědčivě, že to algoritmus odhalí snadno.

A jak to funguje opačně? Nemůže analytický nástroj považovat za „falešné“ texty vyrobené lidmi? Může, zejména pokud jde o angličtinu. Redakce předložila stejnému programu dvacet článků napsaných prokazatelně lidmi – a opět nechala program hádat, zda nešlo o práci AI. U češtiny si se zadáním poradil skvěle, ale zřejmě i proto, že ji nezná tak dobře a neodvažuje se tolik hádat. Poslední možností je, že texty na webu ČT, které byly k analýze využité, jsou natolik kvalitní, že program opravdu nenašel žádné známky AI.

U anglicky psaných textů ze stránek BBC, která deklaruje, že umělou inteligenci pro psaní článků nevyužívá, už u některých textů ale program váhal. Nejvíce u těch, které se nějak týkají vědy. Proč? Články na toto téma totiž mnohdy využívají citace ze studií nebo tiskových zpráv různých institucí, jež mohly AI využít – a novináři pak tato vyjádření převzali.

Člověk rozezná falešné video lépe než robot

U rozeznávání takzvaných deepfake videí, které pomocí strojové inteligence předstírají, že jsou reálná, použila redakce stejný přístup. Zdarma dostupný nástroj Deepware otestoval dvacet videí – deset reálných z tvorby ČT a desítku falešných.

Tento program využívá na analýzu čtyři modely, které různým způsobem hodnotí přesvědčivost deepfake videa. A výsledky všech čtyř byly v tomto testu velmi slabé. Nedokázaly rozpoznat nepravdivost jediného z předložených snímků. Zdá se, že už úroveň „podezření“ kolem dvaceti procent ale naznačuje, že klip není reálný. Modely se přitom řídí podle změn lidské tváře na obrázcích – jenže právě tato technologie udělala za poslední rok největší pokrok, takže nástroj vypadá jako neúčinný.

Přesto tato aplikace není neužitečná. Nejčastější videopodvody, které na tento web uživatelé nahrají, totiž zkoumají i lidští analytici, kteří následně umísťují svá hodnocení. A ti jsou naopak úspěšní stoprocentně, a to i u těch nejvěrohodnějších podvodů – v přiloženém seznamu jde například o klip s hercem Morganem Freemanem.

Proč jsou vlastně lidé při analýze obrazové informace pořád o tolik lepší než stroje? Více se dočtete níže – je to i tím, že přístupy k videu a fotografii jsou v principu velmi podobné a řídí se srovnatelnými pravidly.

Odhalit falešné fotografie už je téměř nemožné

Falešné obrázky vytvořené velkými jazykovými modely sice existují jen několik let, ale za tu dobu došlo k obrovskému pokroku. Také v tomto případě proběhla analýza fotografií vyfocených lidmi a těch, které vytvořila umělá inteligence, v tomto případě volně dostupný nástroj OpenArt. Na analýzu byl využitý opět nástroj z webu EU Disinfo Lab – Iluminarty.

A jeho úspěšnost není vysoká. Řada obrázků vytvořených AI je pro něj podobně „podezřelá“ jako lidmi pořízené fotografie, byť základní orientaci uživateli, který si chce vytvořit nějaký odhad, dát může. Obecně se i automatický analytický nástroj soustředí hlavně na několik oblastí. Prozkoumává například digitální stopu snímku, takzvaná metadata, kde se ale dá snadno ošálit.

Obrázky generované AI také často obsahují nepřirozené vzorce, například deformace v oblasti očí, zubů, prstů nebo šperků. Nástroje také analyzují symetrii obličeje, odlesky v očích nebo nepravidelnosti v barvách a texturách. Jenže když jsou tyto vzorce v pořádku, tak už takto natrénované programy považují snímek za přijatelný.

U přiložené sady snímků se to dá hezky ukázat u dvou záběrů papeže. Oba program považuje za podezřelé, ale rozdíl mezi jeho odhady není velký – fotografii hlavy katolické církve v automobilu považuje za falešnou s pravděpodobností 46,8 procenta, ale papeže na žirafě ze 62,9 procenta.

Nasvětlení, detaily tváře i ostatní podrobnosti totiž dokázal použitý pokročilý „AI malíř“ vyrobit velmi zdařile. Naopak reálný snímek zachycuje papeže ve velmi nepřirozené pozici s lesknoucím se obličejem. Algoritmus už není schopný vzít v úvahu nesmyslnost celé situace zachycené na falešném snímku, člověk ale snadno odhalí, že vysocí církevní hodnostáři na žirafách po Rudém náměstí v Moskvě opravdu nejezdí.

Pro každý typ ověřování, textu, videa i fotografií, existuje celá řada nástrojů, většina je komerční nebo částečně komerční, kdy má uživatel k dispozici jen omezené množství kreditů, které může utratit, než překročí hranici, za níž je už každý další krok placený.

Výběr redakce

Aktuálně z rubriky Věda

Psychologové popsali nový druh deprese. Nastává po úspěšném konci videohry

Dokončit videohru může vypadat jako velmi příjemný zážitek a odměna za spoustu času, které člověk nad počítačem nebo konzolí stráví. Jenže podle polské studie se u hráčů dostavují i emoce opačné, které připomínají deprese.
před 14 hhodinami

Změny klimatu ohrožují antické památky. Snažíme se poučit z minulosti, říká řecká vědkyně

Místo, kde ve starověku probíhaly olympijské hry, je v současné době ohrožené rovnou několika způsoby, na něž má vliv klimatická změna. Podle řecké historičky Sophie Zoumbakiové se dá poučit z toho, co se tam dělo v průběhu uplynulých tří tisíc let. Klíčoví jsou podle ní přitom vždy lidé, řekla v rozhovoru pro Českou televizi.
včera v 10:06

Hradby Pompejí zřejmě poškodila palba z těžkého antického kulometu polybolu

Italští archeologové detailně prozkoumali díry v severní části pompejských hradeb. Zjistili, že je nezpůsobily katapulty ani ruční zbraně, ale mechanický samostříl schopný automaticky odpalovat více střel po sobě.
20. 3. 2026

USA zažívají vlnu veder. V Arizoně naměřili 43 stupňů

Západ Spojených států se potýká s vlnou veder, v Kalifornii a Arizoně padají teplotní rekordy. Arizonská obec Martinez Lake ve čtvrtek naměřila 43 stupňů Celsia, což je ve Spojených státech nový březnový rekord, uvedla podle stanice NBC News Národní meteorologická služba (NWS).
20. 3. 2026

Alpské ledovce se roztékají před očima. Ty v Německu zřejmě zmizí do třicátých let

Poslední čtyři německé ledovce za poslední dva roky ztratily více než čtvrtinu své plochy, odtávání je tak výrazně rychlejší, než se dosud předpokládalo. Uvádí to nová studie, která za hlavní příčinu považuje změnu klimatu. Geograf Wilfried Hagg z mnichovské univerzity a glaciolog Christoph Mayer z Bavorské akademie věd výsledky svého výzkumu zveřejnili v předvečer Světového dne ledovců, který je 21. března.
20. 3. 2026

Chytré hodinky sportujícího vojáka odhalily polohu francouzské letadlové lodě

Díky sportovní aplikaci Strava, kterou používal jeden z vojáků při běhání, se francouzskému deníku Le Monde podařilo ve Středozemním moři lokalizovat francouzskou letadlovou loď Charles de Gaulle. Le Monde o tom informoval na svém webu. Plavidlo se přibližuje k Íránu, proti němuž od 28. února provádějí Izrael a Spojené státy vzdušné údery.
20. 3. 2026

Do ugandského národního parku se po dekádách vrátili nosorožci

Tento týden byli v národním parku Kidepo Valley na severovýchodě Ugandy vypuštěni do volné přírody dva bílí nosorožci jižní. Jsou prvními ze skupiny osmi jedinců, kteří se mají usadit v parku, kde byl poslední nosorožec zabit v roce 1983. Na jejich navrácení do místní přírody nyní částečně dohlíží Ugandský úřad pro ochranu divoké zvěře (UWA).
19. 3. 2026

Vědci popsali, kdy se mezi indiány rozšířily luky a šípy

Nový archeologický výzkum zkoumal nejstarší zbraňové artefakty nalezené v Severní Americe. Vědcům se je podařilo velmi přesně datovat, takže poprvé dokázali popsat, kdy tam luky a šípy nahradily oštěpy a praky.
19. 3. 2026
Načítání...