Je tu Sora, umělá inteligence schopná vytvářet realistické video. Experti upozorňují na rizika

9 minut
AI nově umí generovat realistická videa
Zdroj: ČT24

Společnost OpenAI představila v polovině února nový systém umělé inteligence (AI), který dokáže na základě textových pokynů od uživatelů vytvářet realistická videa. Jmenuje se Sora a experti – stejně jako opakovaně v minulosti – varují před tím, že vytvořené zdání reality může být snadno zneužito pro dezinformační kampaně.

Systém AI Sora dostal své jméno podle japonského výrazu pro oblohu nebo nebe. Dokáže rychle vytvářet až minutová videa, která představují „komplexní scény s více postavami, specifickými typy pohybu a přesnými detaily objektu a pozadí“, uvedla na svém blogu firma.

Nástroj rozumí přirozenému jazyku, takže mu stačí dát velmi obecné pokyny a on se jimi řídí, dál video dokončuje podle svých „zkušeností“, které nabral během tréninku. Podívejte se na ukázky:

Šéf OpenAI Sam Altman na sociální síti X napsal, že zpočátku bude nástroj k dispozici omezenému počtu tvůrců. Odborný tým nyní má za úkol posoudit Sořinu bezpečnost před jejím začleněním do dostupných produktů společnosti.

„Model má hluboké znalosti jazyka, což mu umožňuje přesně interpretovat podněty a vytvářet přesvědčivé postavy, které vyjadřují živé emoce. Sora také dokáže v rámci jednoho generovaného videa vytvořit více záběrů, které přesně přetrvávají charaktery a vizuální styl,“ popisuje schopnosti této umělé inteligence OpenAI.

Soutěž o generátor videa

Podobné automatizované nástroje pro převod textu na video, které jsou založené na principu generativní umělé inteligence, už dříve představily firmy Meta Platforms, Google či Runway AI. Tato technologie sice pro řadu profesí může urychlit tvůrčí proces, ale zároveň vyvolává obavy, že by mohla ohrozit živobytí umělců a přispět k šíření dezinformací, napsala agentura Bloomberg.

OpenAI sice počítá s tím, že po uvedení na trh bude možné snadno zjistit, jestli video vyrobila Sora. Detekce produktů vytvořených umělou inteligencí ale není ani zdaleka bez problémů. Nejlépe to dokazuje příklad této konkrétní společnosti: OpenAI totiž roku 2023 odložila vývoj nástroje, který měl odhalovat text vygenerovaný AI – zdůvodnila to tehdy nízkou mírou přesnosti.

Společnost si je potenciálních problémů a kontroverzí dobře vědomá, chce s nimi ale bojovat. „Budeme zapojovat tvůrce pravidel, pedagogy a umělce z celého světa, abychom pochopili jejich obavy a rozpoznali pozitivní případy využití této nové technologie. Přes rozsáhlý výzkum a testování nemůžeme předvídat všechny prospěšné způsoby, jak budou lidé naši technologii používat, ani všechny způsoby, jak ji budou zneužívat,“ uvedla OpenAI.

Hrozba pro svobodnou společnost

Sora má spoustu kritiků, kteří upozorňují zejména na to, jak problematické může být zaplavení digitálního světa obsahem, který bude nerozeznatelný od reálného videa. Už když před rokem spouštěla OpenAI své předchozí umělé inteligence, varoval v deníku New York Times Gordon Crovitz ze společnosti NewsGuard, která sleduje dezinformace na internetu, před nebezpečími spojenými s uměle vytvářenou realitou.

„Tento nástroj bude nejmocnějším nástrojem pro šíření dezinformací, jaký kdy na internetu byl.“ Po několika měsících experimentů dodal: „Vytváření nového falešného narativu lze nyní provádět v dramatickém měřítku a mnohem častěji – je to jako kdyby k dezinformacím přispívali agenti umělé inteligence.“

Problém je nejen to, co s těmito nástroji kdo provede, ale i to, na jakém obsahu byly trénované. Už roku 2020 výzkumníci z Centra pro terorismus, extremismus a boj proti terorismu na Middlebury Institute of International Studies zjistili, že GPT-3, základní technologie pro ChatGPT, má „působivě hluboké znalosti extremistických komunit“ a dá se díky tomu velmi snadno přimět k vytváření polemik ve stylu masových střelců, falešných vláken na fóru diskutujících o nacismu, nebo obhajoby dezinformačních konspiračních teorií.

Na serveru Gizmodo zase publicista Lucas Roper explicitně varuje přes Sorou následovně: „Je pravděpodobné, že část obsahu se bude využívat pro účely on-line politických dezinformací, část by hypoteticky mohla být použita k podpoře různých podvodů a podvrhů a část by mohla být použita k vytváření toxického obsahu.“

OpenAI sice slibuje ochranná opatření, podle Ropera ale uživatelé i vědci už ukázali, že lze systémy umělé inteligence prolomit. „Veškerý tento obsah od Sora zřejmě zaplaví kanály sociálních médií, což běžným lidem ztíží rozlišování mezi tím, co je skutečné a co falešné, a internet se tak stane mnohem otravnějším. Nemyslím si, že je potřeba celosvětový panel odborníků, aby na tohle někdo přišel.“

Výběr redakce

Aktuálně z rubriky Věda

Obavy z budoucnosti mladí Číňané rozptylují pomocí AI věštců

Mladí Číňané se zamilovali do věštění. Pohled do budoucna jim už ale nenabízí kartářky, prognostici nebo tvůrci horoskopů, ale stále častěji umělé inteligence, především domácího původu.
před 7 hhodinami

Studie: Nejsou důkazy o spojitosti paracetamolu v těhotenství s autismem u dětí

Nová rozsáhlá studie nenašla žádné důkazy o tom, že by užívání paracetamolu v těhotenství zvyšovalo riziko autismu, ADHD a vývojové poruchy intelektu. Studii zveřejnil odborný časopis The Lancet. Těhotné ženy od užívání paracetamolu v loňském roce zrazoval americký prezident Donald Trump, který lék proti horečce a bolesti spojil s rizikem autismu u dětí.
před 8 hhodinami

Írán odpojil internet v panice, Starlink rušit nedokáže

Teherán odpojil internet během protestů v panice a o přístup k síti přišlo dočasně i ministerstvo zahraničí. Píše to list Financial Times s odkazem na experty. Odříznutí Íránci se navzdory hrozbě represí pokoušejí komunikovat se světem přes Starlink. Íránské úřady se marně snaží rušit signál, a tak zabavují lidem antény.
včera v 16:00

Cítí se opuštěni elitami, sjednoceni hněvem. Co lidi spojuje v krizích, ukázal český výzkum

Co mají společného spory o roušky během covidu a hádky o pomoc Ukrajině v diskuzích na facebooku? Výzkum českých vědkyň ukazuje, že lidé v časech krize sdílejí opakující se příběhy na základě modelu „my dole“ proti „těm nahoře“. Může to na sociálních sítích posílit sounáležitost mezi lidmi, ale současně takové chování rozděluje společnost ještě víc a vytváří pocity nedůvěry vůči elitám, hlavně těm politickým a mediálním.
včera v 14:38

Jaký bude rok 2026? Velká předpověď naznačuje vysoké teploty

Letošní rok by se mohl zařadit k těm dosud nejteplejším. Naznačují to predikce na základě analýzy historických dat a sledování dlouhodobého vývoje. Důležitou roli mají mít jevy El Niňo a La Niňa. Dosud nejteplejší byl rok 2024, ten loňský se stal třetím nejteplejším od počátku pozorování.
včera v 11:30

Mikroplastů je tolik, že kontaminují výzkumy o množství mikroplastů

Mikroplastů je už na Zemi tolik, že se nedá pořádně říct, jak moc jich je – tak se dají shrnout výsledky několika studií, které vyšly v poslední době. Na základě důkladných analýz jejich autoři zpochybňují předchozí výzkumy, které popisovaly, kolik mikroplastů (a nanoplastů) se nachází v lidských tkáních.
včera v 10:02

Komunisté před 55 lety normalizovali poměry. Pomocí lží i vražd

Zpátky k normálu – to byl cíl komunistů po srpnové okupaci v roce 1968. Rozjitřená společnost, která doufala ve změnu, se měla vrátit do doby před obrodným procesem (pražským jarem), takzvaně se normalizovat. Komunisté ale potřebovali vysvětlit a před lidmi obhájit vojenskou invazi z 21. srpna 1968. Posloužit k tomu měl oficiální dokument, který vyšel před 55 lety, byl plný lží a invazi nazýval „bratrskou pomocí“. Vtloukat do hlavy si ho měly i děti ve školách.
včera v 07:00

Umělá inteligence zabíjí tu dětskou, varuje výzkum

V této fázi vývoje převažují rizika využívání generativní umělé inteligence (AI) ve vzdělávání nad výhodami, říkají američtí autoři studie Centra pro univerzální vzdělávání Brookings Institution. Takzvaní chatboti dětem pomáhají s referáty, úkoly a učením, současně jim toho ale podle průzkumu až příliš mnoho berou.
15. 1. 2026
Načítání...