Šéf přední AI firmy varuje před enormními riziky AI

Apokalyptických úvah o riziku umělé inteligence (AI) je dvanáct do tuctu, ale jen málokdy s nimi přicházejí šéfové vlivných firem, které jsou za explozivně rychlý rozvoj této přelomové technologie zodpovědné. Teď Dario Amodei, zakladatel společnosti Anthropic, jež stojí za chatbotem Claudem, v rozsáhlé eseji upozornil na obrovský potenciál hrozeb, které AI přináší do současného světa.

Lidstvo se díky umělé inteligenci právě nyní připravuje na epochální změnu – vstup do nové éry, která zcela změní jeho možnosti a perspektivu. Současně takový přechod ale lidstvo podle Amodeie nemusí zvládnout, hlavně přechodné období, než se superinteligence stanou běžnou součástí společnosti, bude náročné. „Věřím, že vstupujeme do přechodného období, které bude bouřlivé a nevyhnutelné, a které prověří, kým jako druh jsme,“ napsal.

Současné nastavení civilizace bude pro tuto změnu komplikací, uvádí šéf Anthropicu. „Lidstvo se chystá získat téměř nepředstavitelnou moc, ale není vůbec jasné, jestli jsou naše sociální, politické a technologické systémy dostatečně vyspělé, aby ji dokázaly ovládat,“ tvrdí. Na dalším místě varuje i před lidskou povahou, jak se projevuje už stovky generací, když přiznává, že „autoritářství podporované umělou inteligencí mě děsí“.

Místo narušeného samotáře virolog s doktorátem

Amodei přináší i živé příklady toho, jak by se dala AI nesmírně snadno zneužívat pro konání velkého zla. Jako hlavní uvádí japonskou sektu Óm šinrikjó, která pod vedením Šóka Asahary podnikla roku 1995 teroristický útok na tokijské metro. Náboženští fanatici do něj tehdy vypustili toxický nervový jed sarin, kterému podlehlo čtrnáct lidí. Co to má společného s AI?

Podle Amodeie by AI podobný útok nesmírně ulehčila – když bude přístup k umělým inteligencím rovný, pak bude brzy každý nosit v kapse génia, který by mu mohl pomoci odstranit jakékoliv překážky, které něco tak zlovolného umožňují. Vývoj toxinu, jeho distribuce, dokonalá znalost tokijského metra a jeho bezpečnostních opatření – schopný AI asistent by si mohl s analýzou na toto téma poradit v budoucnu během pár minut.

„Narušený samotář, který chce zabíjet lidi, ale nemá k tomu disciplínu ani schopnosti, se teď dostane na úroveň virologa s doktorátem,“ píše Amodei. „Obávám se, že takových lidí je potenciálně velké množství, a že pokud budou mít snadný přístup k prostředkům, jak zabít miliony lidí, dřív nebo později to někdo z nich udělá,“ uvažuje.

Až přijde superinteligence

Už v současné době má jakýkoliv z velkých modelů AI rozsáhlejší zásobu znalostí než jakákoliv lidská bytost na Zemi, což bylo ještě donedávna nepředstavitelné. Podle Amodeie je ale vývoj této technologie natolik překotný, že se blíží doba, kdy se AI stanou ještě neporovnatelně chytřejšími a schopnějšími. Výsledek tohoto potenciálního skoku se označuje jako superinteligence.

„Pokud bude exponenciální růst pokračovat – což není jisté, ale nyní ho podporuje desetiletá historie – pak nemůže trvat déle než pár let, než AI překoná lidi prakticky ve všem,“ přemítá Amodei. A to by mělo zcela zásadní dopady. „Představte si, že by někde na světě kolem roku 2027 vznikla země géniů. Představte si například padesát milionů lidí, z nichž každý je mnohem schopnější než jakýkoli nositel Nobelovy ceny, státník nebo technolog,“ nastiňuje.

„Představte si, že jste poradcem pro národní bezpečnost významného státu a máte na starosti vyhodnocování situace a reagování na ni. Představte si dále, že protože systémy umělé inteligence mohou fungovat stokrát rychleji než lidé, tato země má oproti všem ostatním zemím časovou výhodu: na každou jednu akci, kterou můžeme provést my, jich může tato země provést deset,“ píše Amodei.

Superinteligence by zkrátka překonala jakoukoliv konkurenci, už jen díky masivní intelektuální kapacitě, kterou by mohla využívat.

Pokud by taková „země“ – tedy v této metafoře umělá superinteligence – měla vzniknout, představovala by rovnou z několika hledisek zásadní bezpečnostní hrozbu. Dokonce „nejzávažnější hrozbu národní bezpečnosti, jaké jsme čelili za poslední století, možná za celou historii“, uvádí ředitel Anthropicu.

Ve své eseji varuje také dalšími hrozbami spojenými s pokročilými AI – od „zbytečnosti lidí“ přes růst ekonomické nerovnosti až po vznik závislostí na umělých inteligencí. A také zmiňuje, že se vznikem těchto supermyslí je nutně spjato i mnoho rizik, která si ani neumíme představit.

Co dělá Anthropic

Společnost Anthropic patří mezi velkými vývojáři umělých inteligencí k těm, které se možnými riziky zabývají nejvíc. Prosazuje silnější kontrolu a ochranu spotřebitelů před možnými dopady rizik. Zároveň ale stále pracuje na neustálém vylepšování této technologie, které může vést ke scénářům, před nimiž její zakladatel varuje.

Na konci ledna také společnost vydala „Ústavu Claude“, která se pokouší definovat hodnoty, chování a základní charakter umělé inteligence Anthropicu. Je primárně psána pro samotnou AI Claude, aby formovala její étos, tedy jak by měla přemýšlet a rozhodovat se při interakcích s lidmi nebo v různých situacích. Má sloužit jako nejvyšší autorita, ke které se vztahují všechny ostatní pokyny a tréninkové materiály.

Anthropic chce, aby model nebyl jen slepým vykonavatelem pravidel, ale aby rozuměl tomu, proč jsou některé hodnoty — jako bezpečnost, etika a upřímnost — výjimečně důležité. To by mělo umožnit lepší aplikaci těchto hodnot i v nečekaných nebo složitých situacích.

Výběr redakce

Aktuálně z rubriky Věda

Rizika AI vůči lidstvu jsou jasná, ale rozhoduje tlak investorů, obává se expert

Umělé inteligence (AI) představují podle kalifornského experta Stuarta Russella zásadní bezpečnostní riziko v mnoha oblastech. Vědec před nimi varoval na konferenci v Indii, kde tato technologie může velmi rychle zlikvidovat miliony pracovních míst.
12:25Aktualizovánopřed 3 hhodinami

Nově popsaný pravěký krokodýl připomínal chrta. Jméno má po učiteli fyziky

Nově popsaný druh pravěkého krokodýlovitého tvora patřil zřejmě k nejrychlejším zástupcům svého druhu. Byl sice jen poměrně drobný, ale byl schopný dohnat jakoukoliv kořist, na kterou svými rozměry stačil.
včera v 15:16

Lajkuj v pokoji. Meta si patentovala AI, která na sítích zastoupí zesnulého

Společnost Meta získala patent na jazykový model, jenž by v nepřítomnosti uživatele pokračoval v jeho aktivitě na sociálních sítích, napsal server Business Insider. Nástroj vycvičený na datech konkrétního účtu by vytvořil „digitální klon“, který by dle firmy byl vhodný k zastoupení dotyčného třeba v případě dovolené – nebo smrti. Meta tvrdí, že eticky sporného robota nemá v plánu dál rozvíjet.
včera v 14:42

Klíčový úřad v USA končí s programy připravenosti na pandemie

Americké úřady plánují kompletní transformaci agentury, která se doposud starala o připravenost na možné budoucí pandemie a o ochranu Spojených států před AIDS. Kritici kroku varují, že to zemi oslabí v případě budoucích epidemií infekčních nemocí.
včera v 14:06

Slovensko-český tým objevil nejstarší kovový vrták z Egypta. Vznikl před faraony

Nový objev dvoučlenného vědeckého týmu naznačuje, že vyspělými technologiemi disponovali lidé v Egyptě už před 5300 lety, tedy v době, kdy této zemi ještě nevládli faraoni. Mladí vědci vzácný artefakt objevili, když znovu zkoumali dávno popsané předměty v muzeu.
včera v 10:32

Rozpoznávací nástroje dokáží odhalit deepfake videa. Většinou jsou ale placené

Umělou inteligenci využívají i „ochránci internetu“. Ty nejlepší rozpoznávací nástroje totiž dokáží ve většině případů odhalit i videa vytvořená nebo upravená pomocí AI, která už lidi přelstí. S nárůstem podvodů a deepfake videí jsou tyto technologie stále důležitější. Většina takových nástrojů je ale placená a ty ve verzích zdarma obvykle tak dobře nefungují. Podobné nástroje proto zatím mají jen ti největší hráči v oblasti kyberbezpečnosti. Podle odborníků ale jejich počet poroste. Důležitý stále zůstává i kontext. I tady nicméně dokáží nástroje pomoci. Třeba rozpoznat, kdo na videu mluví, nebo analyzovat informace ve videu a s pomocí AI je pak srovnat s realitou.
včera v 07:30

Analýza fosilií ukázala, že v Japonsku kdysi žili jeskynní lvi

Před desítkami tisíc let žili na rozsáhlém území japonského souostroví lvi. Odhalila to podle agentury Kjódó analýza fosilních vzorků, o kterých se doposud předpokládalo, že patří tygrům. Ve skutečnosti však patří vyhynulému druhu lvů.
16. 2. 2026

Mezi pitím slazených nápojů a úzkostí je silná souvislost, varuje studie

Nápoje plné cukrů mají prokazatelně negativní dopad na lidské tělesné zdraví. Nový výzkum se teď podíval na možné dopady na zdraví duševní – a podle něj také v této oblasti existují náznaky negativních dopadů.
16. 2. 2026
Načítání...