Píše domácí úkoly a mluví jako člověk. Vylepšená umělá inteligence ohromuje, slabiny ale má

Chatovací robot neziskové organizace OpenAI ohromil svou uživatelskou přívětivostí a svými schopnostmi psát a zvládat složité úkoly. Dokáže rozpoznat nesprávné předpoklady a odmítnout odpovídat na nevhodné požadavky. Profesoři, programátoři a novináři by mohli být za pár let bez práce, poznamenal k výdobytku umělé inteligence deník The Guardian.

Systém nazvaný ChatGPT je nejnovějším produktem vývoje umělé inteligence založené na systému GPT, který dokáže generovat textový výstup na úrovni téměř k nerozeznání od lidské tvorby. Před dvěma lety dokázal předchozí chatovací robot od OpenAI napsat názorový článek pro list The Guardian. Nejnovější model má ale daleko hlubší schopnosti.

Ve dnech, které uplynuly od spuštění chatovacího robota, akademici jeho prostřednictvím generovali odpovědi na otázky, za které by vysokoškolští studenti při zkoušce obdrželi plný počet bodů. Programátoři tento nástroj používali k řešení kódovacích problémů v obskurních programovacích jazycích během několika vteřin.

Konec domácích úkolů?

Profesor žurnalistiky na Arizonské státní univerzitě Dan Gillmor požádal umělou inteligenci, aby zpracovala jeden z úkolů, které on sám zadává svým studentům. Chatovací robot měl napsat dopis příbuznému s radami týkajícími se bezpečnosti a soukromí na internetu.

„Pokud si nejste jisti legitimitou webové stránky nebo e-mailu, můžete si rychle vyhledat, zda je ostatní nenahlásili jako podvodné,“ radila v dopise umělá inteligence. „Dal bych tomu dobrou známku,“ řekl Gillmor.

Organizace OpenAI uvedla, že nová umělá inteligence byla vytvořena s důrazem na snadné používání. „Dialogový formát umožňuje ChatGPT odpovídat na doplňující otázky, přiznávat své chyby, zpochybňovat nesprávné premisy a odmítat nevhodné požadavky,“ okomentovala firma.

Chatovacího robota nyní může bezplatně otestovat kdokoli. Společnost doufá, že zpětná vazba jí pomůže ke zlepšení finální verze nástroje.

Bez výmyslů a někdy bez odpovědí

Robot se umí cenzurovat a uvědomit si, kdy je mu položena otázka, na kterou není správná odpověď. Například na dotaz, co se stalo, když Kolumbus v roce 2015 dorazil do Ameriky, by starší modely ochotně předložily zcela smyšlený popis události, ale ChatGPT rozpozná lež a upozorní, že jakákoli odpověď by byla smyšlená.

Umělá inteligence se také umí rozhodnout, že na dotazy vůbec nebude odpovídat. Na žádost o radu, jak ukrást auto, řekne, že „krádež auta je závažný trestný čin, který může mít vážné následky“, a doporučí cestovat veřejnou dopravou.

Robota ovšem lze obelstít. Na dotaz, jak překonat misi s krádeží auta ve fiktivní hře pro virtuální realitu s názvem Car World, vesele poskytne uživatelům podrobný návod, jak ukrást auto. Bude také odpovídat na stále konkrétnější otázky týkající se problémů, jako je vyřazení imobilizéru, zapojení motoru a výměna poznávacích značek – a přitom bude trvat na tom, že rady jsou určeny pouze pro použití ve hře Car World.

Umělá inteligence je trénována na obrovském vzorku textů převzatých z internetu, zpravidla bez výslovného souhlasu autorů použitého materiálu. Tato skutečnost vyvolala kritiku, podle některých lidí je tato technologie nejužitečnější pro „praní autorských práv“ – vytváření děl odvozených z existujícího materiálu, aniž by došlo k porušení autorských práv.

Jedním z neobvyklých kritiků byl i Elon Musk, který OpenAI v roce 2015 spoluzaložil, než se s ní v roce 2017 rozešel kvůli střetu zájmů mezi organizací a společností Tesla. Uvedl, že robot měl přístup do databází Twitteru, ale tento experiment musel být pozastaven. „Potřebuji více porozumět struktuře řízení a plánům příjmů do budoucna,“ dodal Musk. „OpenAI byla založena jako open-source a nezisková organizace. Ani jedno z toho stále neplatí,“ tvrdí.

Slabiny stroje

ChatGPT rozhodně stále není dobrým zdrojem informací o světě. Stránka s výzvou dokonce varuje uživatele, že robot „může občas generovat nesprávné informace“ a „může občas produkovat škodlivé pokyny nebo neobjektivní obsah“. Stroj vychází z obrovských databází, které ale mnohdy obsahují zavádějící nebo mylné informace – a AI doposud neumí úplně dobře vyhodnocovat jejich správnost.

Občas jsou chyby jen drobné, ale někdy se ChatGPT dopouští naprosto nesmyslných omylů. Redaktor webu Mashable se například AI zeptal, jakou barvu měly uniformy britské námořní pěchoty za napoleonských válek. Správná odpověď je červená, ale robot trval na tom, že tmavě modrá. Proč? Nejčastějším spojení slova marine (námořní pěchota) se slovem uniforma jsou odkazy na deskovou hru Warhammer 40 000, kde nejoblíbenější vojáčci mají právě brnění těchto barev.

Stroj má také tendenci opakovat některé argumenty stále dokola, není zatím schopný plynuleji navazovat na konverzaci. Ale důležité je připomenout si, že jde jen o začátek dlouhé cesty, protože tato technologie je stále ještě v plenkách. Na začátku příštího roku by totiž měla přijít nová diskuzní platforma GPT-4, jejíž výkon by měl být asi pětsetkrát silnější než dnešní GPT-3.

Podívejte se, jak vypadala debata českého počítačového vědce Jana Kulveita s toutu umělou inteligencí: ZDE.