Když se budou umělé inteligence (AI) učit z dat, které vytvořily umělé inteligence, může to vést ke značně nespolehlivým výsledkům. A pokud bude takový proces učení trvat několik generací, bude výsledkem změť nesouvisejících nesmyslů. Podle nového článku, který vyšel v odborném žurnálu Nature, stačí asi deset generací ke kolapsu modelu.
Když se AI bude učit od AI, povede to ke smyčce a kolapsu, popsal výzkum
Nástroje umělé inteligence, jako jsou velké jazykové modely (LLM), jsou stále populárnější. Trénují se především pomocí vstupních dat, která vytvořili lidé. Jenže s tím, jak se tyto modely šíří po internetu, se může stále častěji stávat, že se začne pro trénink využívat i počítačem generovaný obsah. Výsledkem může být podle studie takzvaná rekurze neboli smyčka. V ní by se mohly opakovat a posilovat chyby, jež v každém vzorku dat téměř jistě jsou. A v každé další generaci budou tyto omyly růst.
Počítačoví vědci se pokusili v nových matematických modelech popsat, jestli se tyto smyčky nemohou úplně zacyklit. Výzkum vedl Ilia Shumailov z týmu DeepMind společnosti Google. Výsledky prokazují, že u AI modelů z těchto důvodů ke kolapsu dojít může.
Společně s kolegy v této studii doložil, že umělá inteligence může v trénovacích datech přehlédnout některé výstupy, například méně časté řádky textu, což způsobí, že se bude trénovat pouze na části souboru dat. Současně pak tedy zkoumali, jak modely AI reagují na tréninkovou sadu dat, která byla vytvořena převážně pomocí umělé inteligence. Zjistili, že podávání dat vytvořených umělou inteligencí modelu způsobuje, že se u následujících generací zhoršuje jejich schopnost učit se, což nakonec vede ke zhroucení modelu.
Téměř všechny rekurzivně natrénované jazykové modely, které testovali, měly tendenci zobrazovat opakující se fráze. Například, když byl test proveden s textem o středověké architektuře jako původním vstupem, v deváté generaci model skončil se seznamem zajíců. Vlastně je to docela podobné dětské hře na tichou poštu, kdy se zpráva zkresluje hráč od hráče.
Co s tím
Autoři konstatují, že kolaps modelu je nevyhnutelným důsledkem modelů umělé inteligence, které používají trénovací datové sady vytvořené předchozími generacemi AI. Podle vedoucího výzkumu je ale možné tyto nástrahy obejít – umělá inteligence by se dala dlouhodobě trénovat i na datech vytvořených AI, ale bylo by k tomu zapotřebí velmi vyspělé filtrování těchto dat.
Současně ale podle Shumailova technologické firmy, které se spoléhají na obsah generovaný lidmi, mohou být schopny trénovat modely umělé inteligence, které jsou oproti jejich konkurentům spoléhajícím se jen na data z umělých inteligencí efektivnější.