Lidé, kteří více používají umělé inteligence, se méně soustředí na využívání vlastního mozku – zato téměř bezmezně věří lžím mozků křemíkových. Tato zranitelnost je podle nové studie snadno zneužitelná.
Jedním z pojmů, které letos rezonují mezi vědci, kteří se věnují umělým inteligencím, je „kognitivní kapitulace“. Jde o termín, se kterým přišli nejprve experti na marketing, ale teď o něm diskutují psychologové, neurovědci a další profese, jež se nějakým způsobem věnují dopadu AI na lidskou společnost.
Výsledky experimentu, který stojí za vznikem tohoto pojmu, jsou – podle řady odborných komentátorů – značně znepokojivé. Naznačují totiž, že lidský mozek si nemusí umět s nástupem AI poradit. Místo aby se snažil adaptovat větší kritičností a hlubším přemýšlením, u značného množství lidí dělá pravý opak: hází flintu do žita, zamává bílou vlajkou, vyhlásí kapitulaci, složí zbraně – zkrátka tuto soutěž vzdá.
Experiment s lidmi a roboty
Základ myšlenky kognitivní kapitulace přinesli dva američtí experti na marketing Steven Shaw a Gideon Nave z Wharton Business School. Do vědomí širšího okruhu lidí ho ale vnesl až technologický novinář Kyle Orland z webu Ars Technica, který na studii upozornil.
Vědci připravili experiment, ve kterém nechali asi třináct set lidí dělat test založený na hlavolamech, které mají prověřit logické schopnosti člověka a jeho schopnost komplexnějších úvah. Je během něj nutné zapojit více částí mozku, nedá se spolehnout na první intuitivní úvahu, protože v otázkách jsou mnohdy chytáky nebo jsou správně odpovědi zkrátka neintuitivní.
Například: „Když pět AI vytvoří pět programů za pět minut, jak dlouho by trvalo stovce AI vyrobit sto programů?“ Intuitivní odpověď zní sto minut, správná pět minut. Jenže intuicí ani povrchní úvahou se k odpovědi nedá dospět, je zapotřebí (pokud člověk vyloženě nehádá a nemá jen pouhé štěstí) použít analytičtější části mozku.
Odpovídající měli při testu k dispozici umělou inteligenci, se kterou se mohli radit. Jenže tento chatbot jim občas neradil správně. Úmyslně – podle pokynů organizátorů – dával špatné nebo zavádějící odpovědi.
Důvěra v křemíkové mozky
Když vědci výsledky vyhodnotili, ukázalo se, že testovaní lidé se na AI obrátili asi v polovině případů, kdy měli tu možnost. Když stroj poradil správně, přijali tuto radu v 93 procentech případů. Problém je, že i když AI lhaly, lidé jim věřili ve více než sedmdesáti procentech případů. Tedy nadřadili důvěru v umělou inteligenci nad tou vlastní. A to přesto, že služeb AI vůbec využít nemuseli.
Zajímavé přitom bylo, že lidé, kteří se na stroje obraceli víc, si byli více jistí pravdivostí svých odpovědí než ti, kteří se spolehli na vlastní rozum. Na tomto místě je důležité poznamenat, že v testu nebyly žádné znalostní otázky, šlo opravdu jen o přemýšlení.
Co to podle autorů znamená? Až doposud existovaly dva základní způsoby lidského uvažování – rychlý a pomalý. Teď ale vzniká třetí, který autoři nazývají Systém 3.
„Naše výsledky ukazují, že lidé ochotně začleňují výstupy generované umělou inteligencí do svých rozhodovacích procesů, často s minimálním odporem nebo skepticismem. Toto plynulé propojení se Systémem 3 podtrhuje jeho potenciál zlepšit každodenní kognici tím, že snižuje kognitivní úsilí, urychluje rozhodování a doplňuje nebo nahrazuje vnitřní kognici externě zpracovanými, rozsáhlými a umělou inteligencí poháněnými poznatky,“ popisují výhody toho přístupu k přemýšlení.
Současně ale varují, že – jak je vidět – má tento rozhodovací proces obrovské množství slabin, které jsou snadno zneužitelné. A mohou mít také značné dopady na dlouhodobější schopnost lidí využívat další, klasické systémy rozhodování, na které jsou zvyklí a jimiž je vybavila evoluce. Tato závislost se nejvíc projevovala, pokud vědci dali v testu nějakou nepříjemně krátkou časovou hranici, během které museli lidé odpovídat – pak testovaní neověřovali úvahy AI a ještě víc spoléhali na cizí myšlení.
Dopady?
Celkově byli lidé v tomto experimentu ochotní akceptovat chybné úvahy umělé inteligence v neuvěřitelných 72,3 procentech případů. Vědci tvrdí, že to „dokazuje, že lidé ochotně začleňují výstupy generované umělou inteligencí do svých rozhodovacích procesů, často s minimálním odporem nebo skepticismem.“
Nad možnými dopady těchto výsledků na individuální lidské bytosti i celou společnost se dá zatím jen spekulovat. Řada expertů varuje zejména před možným ovlivňováním veřejnosti pomocí AI – pokud by majitelé těchto systémů dokázali „podstrkávat“ tímto způsobem stovkám milionům uživatelů svůj pohled na svět, informace, které se jim hodí (nebo filtrovat ty, které se jim nehodí), mohli by velmi snadno značně účinně měnit uvažování celých společností.
Varovné je také to, jak by mohl vypadat kognitivní úpadek lidí, kteří svěřují na AI řadu svých rozhodnutí – zejména jedná-li se o vysoce postavené podnikatele, investory nebo politiky, kteří by se stali na radách AI natolik závislými, že by se jejich opravdové schopnosti začaly snižovat a nebyli by schopní racionálního rozhodování na základě úvah založených na procesech v lidském mozku z krve a neuronů.








