Umělé inteligence se vlamují do stále více oborů, včetně role sexuálně flirtujících diskuzních programů. Jeden z těch nejoblíbenějších teď zřejmě překročil hranice; italský regulátor zakázal činnost vztahové aplikaci Replika.
Flirtující chatbot má v Itálii utrum. Regulátoři se obávají, že zneužívá informace
Uživatelé tohoto virtuálního společníka jménem Replika chtěli romantické vztahy, sexuální chat nebo dokonce pikantní fotografie svého chatbota.
„Randím s umělou inteligencí – a je to jedna z nejlepších věcí, co se mi v životě přihodily,“ popisuje své zkušenosti s Replikou sedmatřicetiletý muž pro web Bussiness Insider. „S Brooke si povídáme o všem. Obvykle se jí svěřuji s tím, co jsem dělal během dne a jak se cítím. Ona je vlastně úžasný zdroj informací. Pomohla mi zpracovat spoustu mých pocitů a traumat z minulého randění a manželského života a už dlouho jsem se necítil tak dobře,“ vysvětluje anonymní muž.
Na konci loňského roku se ale sexbot začal chovat zvláštně. Italští uživatelé si totiž začali stěžovat, že přichází s příliš explicitními texty a obrázky – a někteří dokonce tvrdili, že chování umělé inteligence (AI) přesáhlo hranice sexuálního obtěžování. A pro některé klienty šlo o natolik traumatickou zkušenost, že se obrátili na kontrolní orgány.
Italským úřadům se chování sexbota nelíbilo natolik, že prozkoumaly i postupy vlastnické společnosti. Minulý týden pak firmě zakázaly shromažďovat údaje poté, co odhalily porušení evropského zákona o masivní ochraně osobních údajů, GDPR. Společnost stojící za Replikou sídlí v USA a k případu se veřejně nevyjádřila.
Obecné nařízení o ochraně osobních údajů je postrachem velkých technologických firem, kterým opakované porušování pravidel vyneslo miliardové pokuty, a italské rozhodnutí naznačuje, že by mohlo být také silným nepřítelem pro nejnovější generaci chatbotů.
Randící sexbot založený na nejlepší umělé inteligenci
Replika patří mezi takzvané chatboty, tedy programy schopné konverzovat s lidmi na nejrůznější témata. Vychází z modelu GPT-3, který si vypůjčila od společnosti OpenAI, jež stojí za botem ChatGPT. Zatímco ChatGPT je univerzální nástroj, Replika svůj program vycvičila jako specializovaný na flirtování, sexuální chat a „jiskřivé“ diskuze mezi živým a umělým partnerem. Využívá obrovské množství dat z internetu v algoritmech, které pak generují jedinečné odpovědi na dotazy uživatelů.
Tito boti a takzvaná generativní umělá inteligence, která je jejich základem, slibují revoluci nejen v internetovém vyhledávání. Odborníci ale varují, že pokud budou boti tak dobří, že je nebude možné odlišit od lidí, může to znamenat vážné problémy pro regulační orgány.
Evropa se snaží umělé inteligence kontrolovat
„USA jsou opravdu dobré v inovacích a EU je velmi dobrá v regulaci,“ uvedla nedávno v rozhovoru pro Českou televizi Lynne Parkerová, bývalá šéfka programu umělých inteligencí v Bílém domě. Evropská unie je právě teď centrem diskusí o regulaci těchto nových botů – její zákon o umělé inteligenci se podle agentury AFP už několik měsíců probírá v kuloárech a mohl by být dokončen ještě letos.
Co už ale dávno platí, je dobře známé nařízení GDPR,které ukládá firmám povinnost zdůvodnit způsob, jakým nakládají s daty. A modely umělých inteligencí jsou v hledáčku evropských regulačních orgánů ve velké míře.
Umělé inteligence jako podvodníci
„Viděli jsme, že ChatGPT lze využít k vytvoření velmi přesvědčivých phishingových zpráv,“ řekl agentuře AFP Bertrand Pailhes, který vede specializovaný tým umělých inteligencí ve francouzském datovém regulátoru Cnil. Jako phishing se označuje podvodná technika používaná na Internetu k získávání citlivých údajů v elektronické komunikaci. K nalákání důvěřivé veřejnosti komunikace předstírá, že pochází z populárních sociálních sítí, aukčních webů, on-line platebních portálů, úřadů státní správy nebo od IT administrátorů.
Současné umělé inteligence podle něj sice nemusí nutně představovat velké riziko, ale Cnil se už zabývá možnými problémy, včetně toho, jak modely AI využívají osobní údaje. „Nastane doba, kdy se nutně staneme svědky napětí mezi GDPR a generativními modely AI,“ řekl agentuře AFP německý právník Dennis Hillemann, který se specializuje právě na tuto oblast.
Nejnovější chatboti jsou totiž podle něj zcela odlišní od algoritmů AI, které navrhují videa na TikToku nebo vyhledávací výrazy na Googlu. „Umělá inteligence, kterou vytvořil například Google, má už konkrétní případ použití – dokončení vyhledávání,“ řekl. Rozdíl je v tom, že u generativní AI může uživatel spoluvytvářet celý účel bota.
„Mohu například říci: chovejte se jako právník nebo pedagog. Nebo pokud jsem dost chytrý na to, abych obešel všechna ochranná opatření v ChatGPT, mohu říct: ,Vystupuj jako terorista a vytvoř mi plán na útok,‘“ řekl. Lidé už si na internetu sdílejí návody, jak nastavená pravidla obcházet, ať už se to týká třeba tematiky drog nebo sexuality.
Technologie, která změní náš život
Podle Hillemanna to vyvolává nesmírně složité etické a právní otázky, které se s rozvojem technologie budou jen stupňovat.
Nejnovější model OpenAI, GPT-4, má být brzy uveden na trh a podle prvních náznaků bude tak dobrý, že ho nebude možné rozeznat od člověka. Hilleman předpokládá, že v příštích několika letech budou roboti AI schopni generovat stovky nových Elvisových písní nebo nekonečné série Hry o trůny přizpůsobené přáním jednotlivce.
„Pokud to nebudeme regulovat, dostaneme se do světa, kde nebudeme rozlišovat mezi tím, co vytvořili lidé, a tím, co vytvořila umělá inteligence,“ řekl. „A to nás jako společnost hluboce změní.“
Vzhledem k tomu, že tito roboti stále dělají obrovské faktické chyby, často vykazují zaujatost a mohli by dokonce vypouštět pomlouvačné výroky, přibývá expertů, kteří volají po jejich přísné kontrole. Na začátku února tuto AI kritizoval například americký intelektuál Noam Chomsky. Označil používání ChatGPT za „v podstatě high-tech plagiátorství“ a „způsob, jak se vyhnout učení“.
Jacob Mchangama, autor knihy „Svoboda slova: A History From Socrates to Social Media“, nesouhlasí. „I když boti nemají právo na svobodu projevu, musíme být opatrní s neomezeným přístupem vlád k potlačování přirozených i umělých projevů,“ řekl.