Pokud vývoj některých modelů umělé inteligence (AI) půjde dál, tak nelze vyloučit, že se stanou lepšími než lidé. V pořadu Události, komentáře to řekl výzkumný pracovník Jan Kulveit z Centra pro teoretická studia Univerzity Karlovy. Uvedl, že vývoj může časem představovat problém, pokud nedojde k jeho regulacím. Poslanec Robert Králíček (ANO) pronesl, že co se týče zneužití umělé inteligence v rámci dezinformací či bezpečnosti, jedná se o nový a modernější nástroj. Podle jeho kolegy Jiřího Havránka (ODS) kvůli AI může dojít k nárůstu kyberkriminality.
Vývoj umělé inteligence postupuje příliš rychle a bude potřeba ho regulovat, tvrdí vědec
Výzkumný pracovník Kulveit podotkl, že vývoj modelů umělé inteligence pokračuje příliš rychlým tempem. „Momentálně je snaha ty modely zabezpečit a zařídit, aby dělaly to, co chceme. Zatím je hodně pozadu,“ řekl s tím, že kromě rizik jsou ohromné i příležitosti, které AI může přinést. „Musíme to nějak zvládnout, abychom umělou inteligenci více využili a minimalizovali rizika,“ doplnil.
Kulveita znepokojuje především rostoucí trend vývoje AI. „Pokud půjde dál, tak skutečně nelze vyloučit, že se ty systémy stanou lepšími než lidé, a to i v řadě nějakých strategicky důležitých a nebezpečných schopností. Těmi nemusí být jen tvorba dezinformací, ale třeba výroba biologických zbraní nebo nějaká válečná strategie. Pokud si to představíte, pravděpodobně budeme mít problém,“ dodal.
Ve čtvrtek skončil dvoudenní globální summit o bezpečnosti umělé inteligence. Západní země se na něm dohodly s Japonskem, Koreou a dalšími státy, že nové modely umělé inteligence nechají testovat, než je zpřístupní veřejnosti. Před schopnostmi chytrých technologií varoval ředitel firmy Tesla Elon Musk, podle kterého budou schopny časem vykonávat jakoukoliv lidskou práci.
„Co se týče summitu, do nějaké míry se to nechalo na těch firmách. Když chcete v Praze prodávat zmrzlinu, tak je to více regulované než vyrobení nejsilnější umělé inteligence na světě. To se teď změní. Firmy, které tvoří ty největší modely, budou vývoj nějakým způsobem koordinovat se státními institucemi. Ty budou poté testovat bezpečnost modelů,“ řekl Kulveit.
Lidstvo ohrožuje samo sebe, pronesl Králíček
Poslanec Králíček v pořadu zmínil, že možnosti přínosu umělé inteligence jsou velké, a to nejen v oblasti bezpečnosti. AI lze podle něho využít i v mnoha odvětvích, která se týkají analytických témat. Co se týče rizik ohledně dezinformací, tak uvedl, že ta už tu byla před umělou inteligencí. AI představuje pouze nový a modernější nástroj.
„Když vezmete, jak lidé vyráběli dezinformace v minulosti nebo jak se upravovaly fotografie či videa, tak se v těch možnostech dostáváme dál. Lidstvo ohrožuje samo sebe. My máme v současnosti tu možnost dávat úkoly umělé inteligenci, ale také stanovovat mantinely. Pro mě to riziko bude, až ta umělá inteligence sama začne reagovat na poptávku a určovat trendy,“ prohlásil Králíček.
Rovněž vyzdvihl, že společně s vývojem umělých inteligencí probíhá také rozvoj technologií a programů, které budou schopny AI odhalovat. O řešení se podle něho jedná i na úrovni Evropské unie. „V Evropském parlamentu by měl být schválen Akt AI o umělé inteligenci, který by stanovil ty mantinely. Jsou tam čtyři úrovně rizik, kde se AI rozděluje v různých strategických oblastech. Vyjímá také tu armádní a bezpečnostní, která úplně zůstane pod kontrolou státu,“ dodal Králíček.
AI je důležitým hráčem budoucích let, míní Havránek
Také podle poslance Havránka může být AI nástrojem, který by mohl dezinformace kromě jejich tvorby také korigovat a rozpoznávat díky své možnosti analyzovat velké množství dat. „Samotná AI přiznává, že bude vždy potřebovat lidskou kontrolu, jelikož nerozpozná různé nuance. Bude to důležitý hráč budoucích let,“ podotkl Havránek, který je zároveň členem poslaneckého podvýboru pro e-Government.
Podle Havránka však může kvůli AI dojít k nárůstu kyberkriminality. „V roce 2019 kyberzločinů bylo nějakých osm a půl tisíce, ale loni osmnáct a půl tisíce. Samozřejmě, ta AI bude velkým gamechangerem, který může to číslo ještě navýšit,“ uvedl poslanec ODS s tím, že je potřeba AI regulovat, ale nezapomínat ani na její vývoj.
Podle Kulveita by mohlo v rámci regulací například pomoci, kdyby byly všechny výstupy, které AI vygenerovala, nějakým způsobem označeny, a to třeba pomocí kryptografického vodoznaku. „V případě zneužití by to pak stát mohl řešit stejně, jako jiné bezpečnostní hrozby, a to třeba trestní represí. Časem to bude zřejmě jediná možnost,“ dodal.