Vědci vytvořili tisíc AI avatarů skutečných lidí. Pomohou předvídat chování společnosti

Obyčejně se sociologické dotazníky a výzkumy veřejného mínění dělají tak, že se osloví velké skupiny lidí. Je to drahé a časově náročné – ale nic lepšího vědci nemají. Nebo až doposud neměli. Teď přišli na to, jak proces nahradit umělou inteligencí. Podařilo se jim získat tisícovku simulací skutečných osobností, což stačilo na vytvoření modelů chování. Když tento model AI avatarů reálných lidí otestovali, dával jen o něco horší výstupy než reálné lidské skupiny.

Za výzkumem stojí Joon Sung Park ze Stanfordovy univerzity v Kalifornii. Jeho tým pracoval s nejnovějším modelem umělé inteligence GPT-4o společnosti ChatGPT. Nechal ho vést rozhovory s 1052 lidmi z USA, kteří byli pečlivě vybraní tak, aby co nejlépe sociologicky reprezentovali americkou společnost.

Rozhovory probíhaly v normálním mluveném jazyce. Umělá inteligence dostala obecný scénář, kterým se při pohovoru měla řídit, ale také instrukce, aby poslouchala odpovědi v reálném čase a podle potřeby upravovala své otázky. Ptala se účastníků na příběh jejich života a na názory na nejrůznější společenské otázky. Rozhovor trval dvě hodiny.

Podle Parka se během rozhovorů podařilo správně kladenými otázkami zachytit vše, co vědci pro svůj projekt potřebovali. „Můžeme vytvořit agenta člověka, který zachytí mnoho z jeho složitostí a idiosynkratické povahy,“ popsal pro odborný časopis New Scientist.

Výzkumníci poté vložili přepis každého rozhovoru vytvořený umělou inteligencí do jiné instance nástroje GPT-4o a požádali model, aby každou osobu napodobil.

Každou z těchto virtuálních osobností pak vědci podrobili sérii testů osobnosti, zkoušeli s nimi různé ekonomické hry a sociální experimenty. Úplně stejné testy museli absolvovat i reálné lidské vzory těchto AI modelů, a to stejně jako stroje rovnou dvakrát; podruhé dva týdny po prvním testování.

O strojích a lidech

AI modely po dvou týdnech dávaly vždy stejné odpovědi, lidé ale ne – shoda mezi první a druhou odpovědí na stejnou otázku byla průměrně 81 procent. Stroje se se svými lidskými vzory shodovaly v přibližně 69 procentech odpovědí. To může vypadat jako relativně malé číslo, Park ale upozorňuje, že je nutné vycházet z toho, že pětina lidí změnila názory. AI zároveň byly asi o čtrnáct procent úspěšnější než starší automatizované modely.

Stanfordský vědec chce tento model využívat pro vědecké účely, tedy aby vědci pod jeho vedením mohli snadněji, rychleji a úspěšněji modelovat chování populací. Nic víc ani s AI agenty dělat nesmí, omezuje ho etický závazek, který musel podepsat.

Tento přístup ostatně vyvolává spoustu etických otázek, zejména ohledně komercionalizace podobných modelů, případně jejich využití například pro politické kampaně. Potenciál je obrovský, není zatím ale ani zdaleka jasné, zda bude model užitečný i dlouhodobě.