Je tu Sora, umělá inteligence schopná vytvářet realistické video. Experti upozorňují na rizika

Nahrávám video
AI nově umí generovat realistická videa
Zdroj: ČT24

Společnost OpenAI představila v polovině února nový systém umělé inteligence (AI), který dokáže na základě textových pokynů od uživatelů vytvářet realistická videa. Jmenuje se Sora a experti – stejně jako opakovaně v minulosti – varují před tím, že vytvořené zdání reality může být snadno zneužito pro dezinformační kampaně.

Systém AI Sora dostal své jméno podle japonského výrazu pro oblohu nebo nebe. Dokáže rychle vytvářet až minutová videa, která představují „komplexní scény s více postavami, specifickými typy pohybu a přesnými detaily objektu a pozadí“, uvedla na svém blogu firma.

Nástroj rozumí přirozenému jazyku, takže mu stačí dát velmi obecné pokyny a on se jimi řídí, dál video dokončuje podle svých „zkušeností“, které nabral během tréninku. Podívejte se na ukázky:

Šéf OpenAI Sam Altman na sociální síti X napsal, že zpočátku bude nástroj k dispozici omezenému počtu tvůrců. Odborný tým nyní má za úkol posoudit Sořinu bezpečnost před jejím začleněním do dostupných produktů společnosti.

„Model má hluboké znalosti jazyka, což mu umožňuje přesně interpretovat podněty a vytvářet přesvědčivé postavy, které vyjadřují živé emoce. Sora také dokáže v rámci jednoho generovaného videa vytvořit více záběrů, které přesně přetrvávají charaktery a vizuální styl,“ popisuje schopnosti této umělé inteligence OpenAI.

Soutěž o generátor videa

Podobné automatizované nástroje pro převod textu na video, které jsou založené na principu generativní umělé inteligence, už dříve představily firmy Meta Platforms, Google či Runway AI. Tato technologie sice pro řadu profesí může urychlit tvůrčí proces, ale zároveň vyvolává obavy, že by mohla ohrozit živobytí umělců a přispět k šíření dezinformací, napsala agentura Bloomberg.

OpenAI sice počítá s tím, že po uvedení na trh bude možné snadno zjistit, jestli video vyrobila Sora. Detekce produktů vytvořených umělou inteligencí ale není ani zdaleka bez problémů. Nejlépe to dokazuje příklad této konkrétní společnosti: OpenAI totiž roku 2023 odložila vývoj nástroje, který měl odhalovat text vygenerovaný AI – zdůvodnila to tehdy nízkou mírou přesnosti.

Společnost si je potenciálních problémů a kontroverzí dobře vědomá, chce s nimi ale bojovat. „Budeme zapojovat tvůrce pravidel, pedagogy a umělce z celého světa, abychom pochopili jejich obavy a rozpoznali pozitivní případy využití této nové technologie. Přes rozsáhlý výzkum a testování nemůžeme předvídat všechny prospěšné způsoby, jak budou lidé naši technologii používat, ani všechny způsoby, jak ji budou zneužívat,“ uvedla OpenAI.

Hrozba pro svobodnou společnost

Sora má spoustu kritiků, kteří upozorňují zejména na to, jak problematické může být zaplavení digitálního světa obsahem, který bude nerozeznatelný od reálného videa. Už když před rokem spouštěla OpenAI své předchozí umělé inteligence, varoval v deníku New York Times Gordon Crovitz ze společnosti NewsGuard, která sleduje dezinformace na internetu, před nebezpečími spojenými s uměle vytvářenou realitou.

„Tento nástroj bude nejmocnějším nástrojem pro šíření dezinformací, jaký kdy na internetu byl.“ Po několika měsících experimentů dodal: „Vytváření nového falešného narativu lze nyní provádět v dramatickém měřítku a mnohem častěji – je to jako kdyby k dezinformacím přispívali agenti umělé inteligence.“

Problém je nejen to, co s těmito nástroji kdo provede, ale i to, na jakém obsahu byly trénované. Už roku 2020 výzkumníci z Centra pro terorismus, extremismus a boj proti terorismu na Middlebury Institute of International Studies zjistili, že GPT-3, základní technologie pro ChatGPT, má „působivě hluboké znalosti extremistických komunit“ a dá se díky tomu velmi snadno přimět k vytváření polemik ve stylu masových střelců, falešných vláken na fóru diskutujících o nacismu, nebo obhajoby dezinformačních konspiračních teorií.

Na serveru Gizmodo zase publicista Lucas Roper explicitně varuje přes Sorou následovně: „Je pravděpodobné, že část obsahu se bude využívat pro účely on-line politických dezinformací, část by hypoteticky mohla být použita k podpoře různých podvodů a podvrhů a část by mohla být použita k vytváření toxického obsahu.“

OpenAI sice slibuje ochranná opatření, podle Ropera ale uživatelé i vědci už ukázali, že lze systémy umělé inteligence prolomit. „Veškerý tento obsah od Sora zřejmě zaplaví kanály sociálních médií, což běžným lidem ztíží rozlišování mezi tím, co je skutečné a co falešné, a internet se tak stane mnohem otravnějším. Nemyslím si, že je potřeba celosvětový panel odborníků, aby na tohle někdo přišel.“

Výběr redakce

Aktuálně z rubriky Věda

VideoVirtuální výcvik vojáků i robotičtí hlídači. Experti z ČVUT představili novinky

Roboti jako hlídači míst důležitých pro fungování státu nebo virtuální realita jako cvičiště pro vojáky. Špičkové bezpečnostní technologie jsou klíčovou součástí moderní obrany. To nejnovější z tuzemské vědy představili experti z ČVUT. Roboty lze podle vedoucího laboratoře výpočetní robotiky Jana Faigla z ČVUT nasadit všude tam, kam nechceme vysílat lidi. Samotná fyzická schránka není to hlavní – vědci pracují na mozku, tedy softwaru, který stroje pohání. Podle Faigla je důležité, aby se robot dokázal venku pohybovat bez dostupnosti satelitní navigace. To mu může umožnit řada senzorů.
před 17 hhodinami

Tohle je první mapa čichu. Vytvořili ji na Harvardu

Lidský čich je nejméně prozkoumaný smysl. Má sice pro poznávání světa nejmenší význam, ale přesto jeho poruchy mohou přinášet řadu zdravotních problémů. Pomoci by mohla první čichová mapa, která propojila nos a mozek.
před 19 hhodinami

Velartovi museli o Černobylu mlčet, doporučovali alespoň sprchu a sušené mléko

Čtrnáct řádků, šedesát šest slov – tolik věnovala československá média oznámení o jaderné katastrofě v Černobylu. Rudé právo vydalo první zmínku o havárii v úterý 29. dubna 1986, až tři dny po incidentu. Už od pondělí se nicméně díky zprávám ze zahraničí mezi lidmi objevovaly informace o uniklé radiaci a nebezpečí. V komplikované situaci byli čeští odborníci – tušili nebezpečí, mluvit o něm ale nesměli.
před 20 hhodinami

Američtí vojáci se už nemusí očkovat proti chřipce. Vojenští lékaři vidí rizika

Každoroční očkování proti chřipce již pro americké vojáky není povinné, uvedl minulý týden americký ministr obrany Pete Hegseth ve videu zveřejněném na sociálních sítích. Tento krok poté kritizovala řada odborníků.
1. 5. 2026

Změny klimatu a extrémní počasí zdražují potraviny i pojištění, píše Bloomberg

Extrémní výkyvy počasí v důsledku změn klimatu, například v podobě vln veder a sucha, devastují produkci potravin, poškozují kritickou infrastrukturu a vedou k prudkému nárůstu cen pojistného, uvedla v analýze agentura Bloomberg. Ekonomové a centrální bankéři varují, že cenové šoky nemusejí být jen dočasné, ale že se stávají trvalou hrozbou pro stabilitu trhu.
30. 4. 2026

V Černobylu je nejhůř zamořený Červený les. Po invazi si tam ale Rusové udělali zákopy

O zkušenostech s Černobylem, kde před čtyřiceti lety došlo k jaderné havárii, vypráví muž, který má toto místo prochozené křížem krážem. Andrej Pastorek se dostal i do míst, která okupovali ruští vojáci při invazi na Ukrajinu.
30. 4. 2026

Česko zasáhlo sucho, situace se jen tak nezlepší. Na Slovensku je ještě hůř

Kvůli nedostatku srážek a stále vyšším teplotám se ve střední Evropě prohlubuje půdní sucho. Na některých místech už odborníci varují před závažnými dopady na zemědělství.
29. 4. 2026

Štíři mají klepeta vyztužená železem. Jako by je vyrobil špičkový kovář, říká studie

Organismy na Zemi umí využívat zdroje ze svého okolí, včetně prvků, jako je železo, mangan nebo zinek. Konkrétně štíři si z nich staví své zbraně. Vědci teď poprvé detailně popsali, jak to tito tvorové dělají.
29. 4. 2026
Načítání...