„AI firmy jsou regulované míň než sendviče“. Na superinteligenci nejsou připravené

Analýza zaměřená na osm hlavních firem, které vytvářejí nejpokročilejší modely umělých inteligencí (AI), prokázala, že společnosti vůbec neřeší možnost ztráty kontroly nad takzvanými superinteligencemi, jež se snaží vytvářet. Jde o formu AI, která má ve všech ohledech překonat lidský intelekt.

Všechny velké společnosti, které vyvíjejí umělé inteligence, se snaží o co nejrychlejší vznik superinteligence. Žádná z nich ale není připravená na rizika, která jsou s tím spojená, tvrdí nová nezávislá analýza, která současně varuje, že žádná z těchto firem nemá reálně plány na prevenci katastrofických rizik umělé inteligence.

Zprávu vytvořila nezisková organizace Future of Life Institute (FLI). Zabývala se velkou osmičkou: americkými společnostmi Anthropic, OpenAI, Google DeepMind, xAI a Meta a čínskými subjekty DeepSeek, Alibaba Cloud a Z.ai. Jde o hlavní hráče na poli umělých inteligencí, kteří mají v tomto oboru největší potenciál, možnosti i vliv. Podle analýzy tyto společnosti nesplňují ani své vlastní závazky v oblasti bezpečnosti. „Plynou z toho katastrofální rizika,“ varují autoři práce.

Zpravodajský web Euronews upozorňuje, že tato zpráva přichází v době, kdy společnosti zabývající se AI čelí soudním sporům a obviněním, protože jejich chatboty údajně způsobují psychickou újmu – mimo jiné tím, že fungují jako „koučové sebevražd“. A nově také přibývá zpráv o masivních a velmi účinných kyberútocích, které pachatelé provedli právě s využitím AI.

Jako by žádná rizika neexistovala

Zpráva popsala u celé osmičky lídrů na poli AI zásadní nedostatek důvěryhodných strategií, které by předcházely katastrofálnímu zneužití nebo ztrátě kontroly nad nástroji umělé inteligence. Místo bezpečnosti totiž všechny firmy usilují o prvenství ve vytvoření všeobecné umělé inteligence (AGI), která by se měla změnit v už zmíněnou superinteligenci.

Žádná ze společností si podle analýzy nevytvořila testovatelný plán pro udržení lidské kontroly nad vysoce výkonnými systémy AI. Stuart Russell, profesor informatiky na Kalifornské univerzitě v Berkeley, uvedl, že společnosti zabývající se AI tvrdí, že mohou vyvinout nadlidskou AI – ale současně ani jedina z nich nemá promyšlené, jak by zabránila ztrátě lidské kontroly nad takovými potenciálně všemocnými systémy.

Podle Russella by toto omezení rizika mělo být podobné jako třeba u jaderných elektráren. Tam je hrozba významné nehody stanovovaná přibližně na jedna ku sto milionům. Jenže velcí vývojáři AI přiznávají, že hrozba ztráty kontroly nad superinteligencí je jedna ku deseti, jedna ku pěti – nebo dokonce jedna ku třem. Navíc jde jen o „výstřely od boku“, ve skutečnosti nejsou tyto odhady rizika opřené o žádné hlubší výpočty.

Špatní a ještě horší

Špatně dopadla v tomto výzkumu celá „velká osma“ – ale některé firmy z ní se ukázaly jako ještě horší než ty zbývající. Relativně nejlépe dopadly společnosti Anthropic, OpenAI a Google DeepMind, které jsou přinejlepším alespoň transparentní.

Zbývajících pět společností dopadlo víceméně podobně špatně. Všech osm nicméně prý udělalo znatelný pokrok správným směrem, tedy k větší opatrnosti.

Podle zástupce FLI, fyzika Maxe Tengmarka, se AI vyvíjí v posledních letech nečekaně rychle. Ještě nedávno se pokládal za horizont vzniku umělé superinteligence začátek dvaadvacátého století, v současné době se už mluví o příštích třech až pěti letech. „AI je přitom v USA stále méně regulovaná než sendviče a ve (americké) vládě pokračuje lobbing proti závazným bezpečnostním normám,“ řekl pro Euronews tento vědec, který se fenoménu AI věnuje řadu let.

Právě „jeho“ institut FLI se snaží odhalovat a vysvětlovat možná rizika, která by rychlý příchod neregulované a nekontrolované superinteligence přinesl. Ta se řadí do více typů scénářů – od masové nezaměstnanosti až po téměř okamžitý zánik celého lidského druhu. Naposledy přišel FLI s peticí proti výzkumu superinteligence, kterou podepsala spousta světových osobností s rozmanitými politickými názory, které se jinak nejsou schopné shodnout v podstatě na ničem – nechyběli signatáři z řad českých expertů.

Výběr redakce

Aktuálně z rubriky Věda

Pouštní národy lovily žraloky už v době kamenné, ukázal český výzkum

Pravěcí obyvatelé jihu Arábie se už před zhruba sedmi tisíci lety ve velké míře živili mořskými zdroji a troufli si i na tak velkou kořist, jako byli žraloci, vyplývá z výzkumu týmu Archeologického ústavu Akademie věd ČR (AV ČR). Ten v Ománu objevil nejstarší megalitický kolektivní hrob v jižní Arábii.
před 37 mminutami

ŽivěPosádka mise Crew-11 se vrátila z ISS kvůli zdraví jednoho z astronautů

V Tichém oceánu dopoledne středoevropského času přistála kosmická loď s čtyřčlennou posádkou NASA. Z Mezinárodní vesmírné stanice (ISS) se vrátila o čtyři měsíce dřív, než bylo v plánu, kvůli zdravotnímu stavu jednoho z astronautů.
08:18Aktualizovánopřed 1 hhodinou

Od ISS se na Zemi předčasně vrací loď Dragon kvůli zdravotnímu stavu astronauta

Od Mezinárodní vesmírné stanice (ISS) se ve středu odpoutala kosmická loď Dragon se čtyřmi astronauty, které americký Národní úřad pro letectví a vesmír (NASA) stahuje předčasně z mise kvůli zdravotnímu stavu jednoho z nich. Přistání lodě na Zemi se očekává ve čtvrtek okolo 9:40 SEČ. Podle zdravotního ředitele NASA Jamese Polka nejde o nouzovou evakuaci.
před 11 hhodinami

Rok 2025 byl po předchozích dvou letech nejteplejším v historii měření

Rok 2025 byl třetím nejteplejším rokem v historii měření. Průměrná globální teplota dosáhla 14,97 stupně Celsia. Byl tedy jen nepatrně (o 0,01 stupně Celsia) chladnějším než rok 2023 a o 0,13 stupně Celsia chladnějším než rok 2024, který byl vůbec nejteplejším rokem v historii měření. Uvedla to meteorologická služba Evropské unie Copernicus. Posledních jedenáct let bylo zároveň nejteplejších v historii měření.
včeraAktualizovánopřed 18 hhodinami
Načítání...