Umělé inteligence se zlepšují ve lhaní. Může to být nebezpečné, varují experti

V italské lidové pohádce se dřevěný, ale inteligentní panáček Pinocchio vyznačoval tím, že byl velmi špatný lhář. Pokaždé, když řekl nějakou nepravdu, o něco mu povyrostl nos. Dnešní umělé inteligence takový problém nemají. Za několik posledních let dosáhly obrovského pokroku ve všech oblastech. Včetně právě lhaní, upozornila nová studie.

Analýza vědců z Massachusettského technologického institutu (MIT) popsala případy, kdy systémy umělé inteligence podváděly své lidské oponenty, dokázaly blafovat a úspěšně předstírat, že jsou lidé. Jeden zkoumaný chatbot dokonce změnil své chování během bezpečnostních testů, což podle autorů zvyšuje riziko, že AI budou umět lidi přelstít poměrně snadno.

„S tím, jak budou schopnosti systémů AI lhát stále dokonalejší, bude nebezpečí, které představují pro společnost, stále vážnější,“ komentoval výsledky zkoumání autor studie Peter Park.

Lež jako cesta k vítězství

Park se rozhodl prověřit schopnosti AI lhát poté, co se dozvěděl o tom, jak je úspěšná ve stolní hře Diplomacy. Umělá inteligence Cicero od společnosti Meta se naučila, jak v ní porazit většinu lidských soupeřů – a protože je v této dobyvatelské strategii zapotřebí umět lhát a podvádět, musela si to osvojit.

AI to dokázala, přestože byla navržená tak, aby byla „převážně čestná“ a nikdy nepodrazila své lidské spoluhráče. Jenže k vítězství to nestačilo – a tak lhala. Park a jeho kolegové prošli veřejně dostupná data o hrách Cicera proti lidem a našli v nich několik případů, kdy umělá inteligence promyšleně lhala, pletichařila s hráči proti jiným, a dokonce maskovala svou AI povahu, když se jinému hráči omlouvala za zpoždění slovy, že „telefonovala se svou přítelkyní“. „Zjistili jsme, že umělá inteligence Meta se naučila mistrovsky podvádět,“ potvrzuje Park.

Jeho tým pak popsal podobné schopnosti i u jiných systémů AI, například u programu pro poker Texas Hold 'em, který dokázal blafovat proti profesionálním lidským hráčům. V jedné studii si umělé inteligence v digitálním simulátoru dokonce „hrály na mrtvé“, aby tak oklamaly test sestavený k eliminaci systémů umělé inteligence, které se vyvinuly k rychlému replikování. Po skončení testování obnovily svou původní činnost. To je podle autorů výjimečně znepokojivé, protože to ukazuje, jak složité mohou už brzy být snahy umělé inteligence kontrolovat.

Podle Parka to může mít zásadní důsledky. „To, že se systém umělé inteligence považuje za bezpečný v testovacím prostředí, ještě neznamená, že je bezpečný i potom v ostrém provozu. Může se stát, že v testovacím prostředí jenom předstírá, že je bezpečný,“ upozornil Park.

Vědci tyto nové informace zveřejnili v odborném žurnálu Patterns. Současně v článku vyzvali vlády, aby navrhly zákony o bezpečnosti umělé inteligence, které by se věnovaly právě problému podvodů ze stran AI. Varují mimo jiné před tím, že pokud tyto systémy dokáží svou schopnost lhát ještě více zdokonalit, mohli by nad nimi lidé snadno ztratit kontrolu.