Nástroje na odhalování výtvorů AI nejsou bezchybné. Redakce ČT je otestovala

Nahrávám video
De facto z 15. března 2025 (na obrázku videa je falešný snímek vytvořený umělou inteligencí)
Zdroj: ČT24

Nástroje na vytváření falešných videí, fotografií i textů jsou stále rozšířenější, snadněji dostupné a hlavně – jejich výstupy jsou stále realističtější. Odhalit, že jde o dílo umělé inteligence, je tedy pořád složitější. Cesty ale existují: vědecká redakce ČT24 otestovala některé nástroje, které to dokáží.

Redaktor České televize Jakub Pacner pravidelně moderuje ze studia, ale také vstupuje z terénu. Je tak věrohodnou a poměrně známou osobností tuzemského veřejnoprávního zpravodajství. Když se objevilo na portálu YouTube video, kde propagoval nelegální finanční služby společně s Andrejem Babišem (ANO), působilo to na první pohled velmi nedůvěryhodně. Pacner i Babiš ale současně vypadali velmi reálně, jejich hlasy i pohyby působily přirozeně. Video ale bylo vytvořené umělou inteligencí a bylo tak věrohodné díky tomu, jak často bývají redaktor ČT i opoziční lídr na obrazovce:

Nahrávám video
Deepfake video s redaktorem Jakubem Pacnerem — TOTO VIDEO OBSAHUJE NEPRAVDIVÉ INFORMACE
Zdroj: ČT24

Podobných klipů jsou tisíce. Zejména v posledních měsících, kdy řada velkých společností zveřejnila aplikace umožňující zdarma převedení textu na video, jich ale přibývá geometrickou řadou. U části je velmi snadné poznat manipulaci i během pár sekund, u jiných je to ale prakticky nemožné. Falšování reality může být neškodné a zábavné – například, když na záběrech létá okřídlený pes – ale může se stát i velmi snadno nebezpečným. Třeba když autoři klipu zneužijí respektovanou osobnost k propagaci nějakého podvodného produktu.

Jak podvrhy poznat? To už je složitější. Existují komerční analytické nástroje, které umí tyto „fake news“ odhalit, ale zpravidla jsou poměrně drahé a negarantují, že jejich výsledek bude zaručený. Seznam nástrojů, které jsou zdarma, poskytuje ale také bruselská organizace EU Disinfo Lab, která se věnuje boji proti dezinformacím dlouhodobě. Řada z nástrojů je nicméně zastaralá, mnoho z nich se stalo v mezičase placenými. Řada z nich se ale stále dá využít na ověření pravosti internetového obsahu. Česká televize otestovala jejich účinnost na textu, fotografiích i videu.

Běžné texty se poznají poměrně snadno

Vytvořit jakýkoliv text je dnes velmi snadné pro většinu velkých jazykových modelů – tedy nástrojů, kterým se laicky říká umělé inteligence alias AI. Nástroje jako ChatGPT, Grok, Claude a další umí pracovat s obecným zadáním, ale také s velmi přesně formulovanými prosbami o texty, jež připomínají výtvory někoho konkrétního.

Vědecká redakce ČT otestovala dvacet textů vytvořených různými modely AI, polovina byla v češtině, polovina v angličtině. Využila k tomu nástroj GPTZero. Ukázalo se, že zatímco u anglicky psaných textů je nástroj extrémně spolehlivý a dokáže dílo robota odhalit s pravděpodobností víc než 96 procent, u českých článků je mnohem méně úspěšný.

Výsledek se také značně liší podle zadání: pokud má AI napodobit nějaký konkrétní styl, pak může být pro internetové nástroje velmi těžké to odhalit. Záleží ale zřejmě na velikosti vzorku, který má AI k dispozici: například styl psaní Českého rozhlasu, jehož web je otevřený a dostupný každému, umí stroje napodobit tak dobře, že to nástroj neodhalí. Ale naopak styl České tiskové kanceláře, kde je většina obsahu zamčená a dostanou se k němu jen platící klienti (například i Česká televize), okopíruje AI natolik nepřesvědčivě, že to algoritmus odhalí snadno.

A jak to funguje opačně? Nemůže analytický nástroj považovat za „falešné“ texty vyrobené lidmi? Může, zejména pokud jde o angličtinu. Redakce předložila stejnému programu dvacet článků napsaných prokazatelně lidmi – a opět nechala program hádat, zda nešlo o práci AI. U češtiny si se zadáním poradil skvěle, ale zřejmě i proto, že ji nezná tak dobře a neodvažuje se tolik hádat. Poslední možností je, že texty na webu ČT, které byly k analýze využité, jsou natolik kvalitní, že program opravdu nenašel žádné známky AI.

U anglicky psaných textů ze stránek BBC, která deklaruje, že umělou inteligenci pro psaní článků nevyužívá, už u některých textů ale program váhal. Nejvíce u těch, které se nějak týkají vědy. Proč? Články na toto téma totiž mnohdy využívají citace ze studií nebo tiskových zpráv různých institucí, jež mohly AI využít – a novináři pak tato vyjádření převzali.

Člověk rozezná falešné video lépe než robot

U rozeznávání takzvaných deepfake videí, které pomocí strojové inteligence předstírají, že jsou reálná, použila redakce stejný přístup. Zdarma dostupný nástroj Deepware otestoval dvacet videí – deset reálných z tvorby ČT a desítku falešných.

Tento program využívá na analýzu čtyři modely, které různým způsobem hodnotí přesvědčivost deepfake videa. A výsledky všech čtyř byly v tomto testu velmi slabé. Nedokázaly rozpoznat nepravdivost jediného z předložených snímků. Zdá se, že už úroveň „podezření“ kolem dvaceti procent ale naznačuje, že klip není reálný. Modely se přitom řídí podle změn lidské tváře na obrázcích – jenže právě tato technologie udělala za poslední rok největší pokrok, takže nástroj vypadá jako neúčinný.

Přesto tato aplikace není neužitečná. Nejčastější videopodvody, které na tento web uživatelé nahrají, totiž zkoumají i lidští analytici, kteří následně umísťují svá hodnocení. A ti jsou naopak úspěšní stoprocentně, a to i u těch nejvěrohodnějších podvodů – v přiloženém seznamu jde například o klip s hercem Morganem Freemanem.

Proč jsou vlastně lidé při analýze obrazové informace pořád o tolik lepší než stroje? Více se dočtete níže – je to i tím, že přístupy k videu a fotografii jsou v principu velmi podobné a řídí se srovnatelnými pravidly.

Odhalit falešné fotografie už je téměř nemožné

Falešné obrázky vytvořené velkými jazykovými modely sice existují jen několik let, ale za tu dobu došlo k obrovskému pokroku. Také v tomto případě proběhla analýza fotografií vyfocených lidmi a těch, které vytvořila umělá inteligence, v tomto případě volně dostupný nástroj OpenArt. Na analýzu byl využitý opět nástroj z webu EU Disinfo Lab – Iluminarty.

A jeho úspěšnost není vysoká. Řada obrázků vytvořených AI je pro něj podobně „podezřelá“ jako lidmi pořízené fotografie, byť základní orientaci uživateli, který si chce vytvořit nějaký odhad, dát může. Obecně se i automatický analytický nástroj soustředí hlavně na několik oblastí. Prozkoumává například digitální stopu snímku, takzvaná metadata, kde se ale dá snadno ošálit.

Obrázky generované AI také často obsahují nepřirozené vzorce, například deformace v oblasti očí, zubů, prstů nebo šperků. Nástroje také analyzují symetrii obličeje, odlesky v očích nebo nepravidelnosti v barvách a texturách. Jenže když jsou tyto vzorce v pořádku, tak už takto natrénované programy považují snímek za přijatelný.

U přiložené sady snímků se to dá hezky ukázat u dvou záběrů papeže. Oba program považuje za podezřelé, ale rozdíl mezi jeho odhady není velký – fotografii hlavy katolické církve v automobilu považuje za falešnou s pravděpodobností 46,8 procenta, ale papeže na žirafě ze 62,9 procenta.

Nasvětlení, detaily tváře i ostatní podrobnosti totiž dokázal použitý pokročilý „AI malíř“ vyrobit velmi zdařile. Naopak reálný snímek zachycuje papeže ve velmi nepřirozené pozici s lesknoucím se obličejem. Algoritmus už není schopný vzít v úvahu nesmyslnost celé situace zachycené na falešném snímku, člověk ale snadno odhalí, že vysocí církevní hodnostáři na žirafách po Rudém náměstí v Moskvě opravdu nejezdí.

Pro každý typ ověřování, textu, videa i fotografií, existuje celá řada nástrojů, většina je komerční nebo částečně komerční, kdy má uživatel k dispozici jen omezené množství kreditů, které může utratit, než překročí hranici, za níž je už každý další krok placený.

Výběr redakce

Aktuálně z rubriky Věda

Nelétaví papoušci téměř vyhynuli, jejich počet se podařilo zčtyřnásobit

O jediném nelétavém druhu papouška na světě se dříve předpokládalo, že je odsouzen k vyhubení. Kakapo soví je totiž příliš těžký, pomalý a naneštěstí pro něj i příliš chutný na to, aby přežil v blízkosti predátorů, které do jeho původního domova přinesli na svých lodích Evropané. K rozmnožování navíc přistupuje neobvykle lehkovážně, píše agentura AP. Novozélanďané ale vynakládají velké úsilí na jeho záchranu.
před 2 hhodinami

Úhyn ryb v Dyji se bez omezení fosforu bude opakovat, varuje studie

Úhyn ryb v řece Dyji se podle hlavního autora studie, kterou pro Povodí Moravy zpracovala Mendelova univerzita, může opakovat. Výzkumníci volají po větší regulaci fosforu. Látku v České republice vypouštějí především čistírny odpadních vod a navzdory existujícím technologiím ji některá menší zařízení nemusejí vůbec zadržovat.
včera v 07:00

Trump nařídil úřadům ukončit využívání AI od Anthropicu

Americký prezident Donald Trump nařídil federálním úřadům postupně ukončit využívání technologií umělé inteligence (AI) od firmy Anthropic. Učinil tak poté, co společnost odmítla ustoupit americkému ministerstvu obrany ve sporu o bezpečnost využívání AI pro vojenské účely. Americké ministerstvo obrany podotklo, že pokud firma nepřistoupí na jeho žádost, bude považována za „riziko pro dodavatelský řetězec“ a riskuje ztrátu státní zakázky v hodnotě 200 milionů dolarů (4,1 miliardy korun).
27. 2. 2026Aktualizováno28. 2. 2026

Čeští vědci jako první popsali na Marsu masivní výboj připomínající blesk

Čeští vědci ukázali, že v atmosféře Marsu dochází k elektrickým výbojům podobným bleskům. Čtyřčlennému výzkumnému týmu z Matematicko-fyzikální fakulty Univerzity Karlovy a Ústavu fyziky atmosféry Akademie věd ČR se to povedlo zjistit na základě měření americké sondy Maven.
27. 2. 2026

Mise Artemis III na Měsíci nepřistane, oznámil šéf NASA

Na páteční tiskové konferenci oznámil ředitel americké vesmírné agentury NASA Jared Isaacman, že se odkládá pokus o přistání lidské posádky na Měsíci. Původně ji měla mít za úkol mise Artemis III, podle Isaacmana to ale má teď provést až Artemis IV.
27. 2. 2026

Poznamenat to může i výstražné služby, říká k hrozbě propouštění v ČHMÚ ředitel Rieder

Český hydrometeorologický ústav (ČHMÚ) má v rámci plánovaných vládních úspor podle informací Českého rozhlasu propustit 37 zaměstnanců. V rozhovoru pro Českou televizi varoval jeho ředitel Mark Rieder před následky, které by se projevily i v tak důležitých oblastech, jako jsou výstrahy na jevy, které způsobují stomiliardové škody.
27. 2. 2026

Rudý příliv zabíjí v Jižní Africe korýše

Přemnožené mikroskopické mořské řasy zaplavily oceán u západního pobřeží Jihoafrické republiky. Jev známý jako rudý příliv způsobuje hromadný úhyn korýšů a dalších mořských živočichů, informovala agentura AP.
27. 2. 2026

Snímek rypouších mláďat vyhrál soutěž podvodních fotografií

Porota britské fotografické soutěže Underwater Photographer of the Year, která se koná od roku 1965, vyhlásila letošní vítěze. Je specializovaná na hledání nejlepších snímků, které vznikly pod vodní hladinou. Celkovým vítězem se stal snímek dvojice rypouších mláďat od Mattyho Smithe.
27. 2. 2026
Načítání...