„AI firmy jsou regulované míň než sendviče“. Na superinteligenci nejsou připravené

Analýza zaměřená na osm hlavních firem, které vytvářejí nejpokročilejší modely umělých inteligencí (AI), prokázala, že společnosti vůbec neřeší možnost ztráty kontroly nad takzvanými superinteligencemi, jež se snaží vytvářet. Jde o formu AI, která má ve všech ohledech překonat lidský intelekt.

Všechny velké společnosti, které vyvíjejí umělé inteligence, se snaží o co nejrychlejší vznik superinteligence. Žádná z nich ale není připravená na rizika, která jsou s tím spojená, tvrdí nová nezávislá analýza, která současně varuje, že žádná z těchto firem nemá reálně plány na prevenci katastrofických rizik umělé inteligence.

Zprávu vytvořila nezisková organizace Future of Life Institute (FLI). Zabývala se velkou osmičkou: americkými společnostmi Anthropic, OpenAI, Google DeepMind, xAI a Meta a čínskými subjekty DeepSeek, Alibaba Cloud a Z.ai. Jde o hlavní hráče na poli umělých inteligencí, kteří mají v tomto oboru největší potenciál, možnosti i vliv. Podle analýzy tyto společnosti nesplňují ani své vlastní závazky v oblasti bezpečnosti. „Plynou z toho katastrofální rizika,“ varují autoři práce.

Zpravodajský web Euronews upozorňuje, že tato zpráva přichází v době, kdy společnosti zabývající se AI čelí soudním sporům a obviněním, protože jejich chatboty údajně způsobují psychickou újmu – mimo jiné tím, že fungují jako „koučové sebevražd“. A nově také přibývá zpráv o masivních a velmi účinných kyberútocích, které pachatelé provedli právě s využitím AI.

Jako by žádná rizika neexistovala

Zpráva popsala u celé osmičky lídrů na poli AI zásadní nedostatek důvěryhodných strategií, které by předcházely katastrofálnímu zneužití nebo ztrátě kontroly nad nástroji umělé inteligence. Místo bezpečnosti totiž všechny firmy usilují o prvenství ve vytvoření všeobecné umělé inteligence (AGI), která by se měla změnit v už zmíněnou superinteligenci.

Žádná ze společností si podle analýzy nevytvořila testovatelný plán pro udržení lidské kontroly nad vysoce výkonnými systémy AI. Stuart Russell, profesor informatiky na Kalifornské univerzitě v Berkeley, uvedl, že společnosti zabývající se AI tvrdí, že mohou vyvinout nadlidskou AI – ale současně ani jedina z nich nemá promyšlené, jak by zabránila ztrátě lidské kontroly nad takovými potenciálně všemocnými systémy.

Podle Russella by toto omezení rizika mělo být podobné jako třeba u jaderných elektráren. Tam je hrozba významné nehody stanovovaná přibližně na jedna ku sto milionům. Jenže velcí vývojáři AI přiznávají, že hrozba ztráty kontroly nad superinteligencí je jedna ku deseti, jedna ku pěti – nebo dokonce jedna ku třem. Navíc jde jen o „výstřely od boku“, ve skutečnosti nejsou tyto odhady rizika opřené o žádné hlubší výpočty.

Špatní a ještě horší

Špatně dopadla v tomto výzkumu celá „velká osma“ – ale některé firmy z ní se ukázaly jako ještě horší než ty zbývající. Relativně nejlépe dopadly společnosti Anthropic, OpenAI a Google DeepMind, které jsou přinejlepším alespoň transparentní.

Zbývajících pět společností dopadlo víceméně podobně špatně. Všech osm nicméně prý udělalo znatelný pokrok správným směrem, tedy k větší opatrnosti.

Podle zástupce FLI, fyzika Maxe Tengmarka, se AI vyvíjí v posledních letech nečekaně rychle. Ještě nedávno se pokládal za horizont vzniku umělé superinteligence začátek dvaadvacátého století, v současné době se už mluví o příštích třech až pěti letech. „AI je přitom v USA stále méně regulovaná než sendviče a ve (americké) vládě pokračuje lobbing proti závazným bezpečnostním normám,“ řekl pro Euronews tento vědec, který se fenoménu AI věnuje řadu let.

Právě „jeho“ institut FLI se snaží odhalovat a vysvětlovat možná rizika, která by rychlý příchod neregulované a nekontrolované superinteligence přinesl. Ta se řadí do více typů scénářů – od masové nezaměstnanosti až po téměř okamžitý zánik celého lidského druhu. Naposledy přišel FLI s peticí proti výzkumu superinteligence, kterou podepsala spousta světových osobností s rozmanitými politickými názory, které se jinak nejsou schopné shodnout v podstatě na ničem – nechyběli signatáři z řad českých expertů.

Výběr redakce

Aktuálně z rubriky Věda

Česká technologie pomáhá na olympiádě rozhodčím v curlingu

Kromě tuzemských sportovců se na zimní olympiádě v Itálii představuje i technologie z Česka. Ta hlídá dodržování pravidel při curlingu – konkrétně senzory na kamenech odhalí chybu při odhození. Několik měsíců je vyvíjeli experti z Českého vysokého učení technického. V curlingu vyhrává tým, který dostane co nejvíc svých kamenů do cílových kruhů. Důležité je proto správně a přesně kámen na druhý konec ledové plochy poslat. Technologie zaznamená přesné místo odhozu. To dříve kontrolovali rozhodčí pouze očima.
před 6 hhodinami

Za obsah na sociálních sítích mají být trestně odpovědní jejich manažeři, plánuje Španělsko

Španělsko má v úmyslu zakázat sociální sítě pro své občany mladší 16 let. Bude také od těchto platforem vyžadovat, aby používaly přísné nástroje pro ověřování věku, které nebude možné snadno obelhat. Připojí se tak k Austrálii, Francii a Dánsku, které už oznámily vlastní pravidla, která mají snížit negativní dopady sociálních sítí na děti. Zároveň chce Madrid zavést zákony, podle nichž by trestní odpovědnost za obsah sítí měli nést i manažeři firem provozujících sociální sítě.
před 12 hhodinami

Více než třetina případů rakoviny je zbytečná, tvrdí WHO a radí, čemu se vyhnout

Zhruba každému třetímu případu rakoviny se dá zabránit, pokud se lidé budou vyhýbat rizikovým faktorům, jako je kouření, pití alkoholu, znečištění ovzduší a některé infekce, uvedla ve své analýze Světová zdravotnická organizace (WHO).
před 15 hhodinami

Španělský přípravek má léčit rakovinu, rozplývají se média. Experti krotí naděje

Nová studie španělských vědců popsala, že jejich nová terapie dokáže extrémně účinně ničit nádory slinivky břišní. Tedy nádory známé svou smrtelností a špatnou léčitelností. Tato informace se v posledních dnech rychle šíří nejen médii, ale zejména po sociálních sítích, kde se objevuje v extrémně zkrácené formě, která zamlčuje některé klíčové informace. Například to, že je zatím otestován pouze na myších a potenciální lék je až desítky let daleko.
3. 2. 2026

NASA odložila start mise Artemis k Měsíci

Americký Národní úřad pro letectví a vesmír (NASA) odkládá plánovaný únorový start rakety Space Launch System (SLS) se čtyřčlennou posádkou k průletu kolem Měsíce na březen, oznámil šéf NASA Jared Isaacman, který změnu termínu zdůvodnil únikem kapalného vodíku během tankování. Technici v pondělí uspořádali generální předstartovní zkoušku, aby ověřili připravenost rakety k letu. Test kvůli netěsnosti NASA předčasně ukončila.
3. 2. 2026

Před sto lety se stala státním jazykem českoslovenština. Měla dvě varianty

Oficiální řečí první republiky byl československý jazyk, o kterém se zmiňoval už jazykový zákon, přijatý koncem února 1920 spolu s ústavou masarykovského Československa. O šest let později, přesně před sto lety, tedy 3. února 1926, pak byl vydáním jazykového nařízení prohlášen „jazyk československý“ za jazyk státní.
3. 2. 2026

Vyšetřovatel Pannwitz lživě udělal z parašutistů opilce a z Čechů udavače

Opilci a nemravní kriminálníci – tak líčil parašutisty Jana Kubiše a Josefa Gabčíka německý vyšetřovatel Heinz Pannwitz. Právě jeho závěrečná zpráva o útoku na Reinharda Heydricha dlouho sloužila jako jediný zdroj informací o této události z 27. května 1942. Pannwitz, který se přesně před 70 lety vrátil do Německa jako svobodný občan, v ní přitom uvedl řadu lží. Cílem bylo také pošpinit Čechy a navzdory skutečnosti z nich udělat ochotné kolaboranty.
3. 2. 2026

Podpora české vědy funguje, zjistil NKÚ. Daří se získávat víc evropských grantů

Nejvyšší kontrolní úřad (NKÚ) zjistil, že speciální programy, které mají vědcům usnadnit získávání prestižních evropských grantů ERC, fungují. Když začali vědci tuto podporu využívat, jejich úspěšnost v soutěži o granty stoupla. NKÚ ale našel i nedostatky.
2. 2. 2026
Načítání...