AI si o vědě vymýšlí jako bulvár, varuje studie

Většina chatbotů nedokáže shrnout vědecké studie, aniž by zkreslovala výsledky. Nejčastěji přehání a jen těžko se jí toto chování dá vymluvit. Problém je podle autorů nové studie složitější, než se zdá. Zejména proto, že čím novější verze AI, tím hůř si vedly. A navíc, když se vědci pokoušeli ovlivňovat chatboty k větší přesnosti, dosáhli tím pravého opaku.

Podle studie mezinárodního vědeckého týmu Uweho Peterse poskytují velké jazykové modely, jako je například ChatGPT a DeepSeek, při shrnutí vědeckých studií nepřesné závěry až v 73 procentech případů.

Studie hodnotila, jak přesně deset předních velkých jazykových modelů – včetně ChatGPT, DeepSeek, Claude a LLaMA – shrnuje abstrakty a plné texty článků z nejlepších vědeckých a lékařských časopisů, jako jsou například Nature, Science a The Lancet. Vědci testovali tyto AI po dobu jednoho roku a shromáždili celkem 4900 souhrnů vytvořených pomocí modelů, které se běžně označují za umělou inteligenci (AI).

Bulvární a neoblomné

Šest z deseti modelů systematicky zveličovalo tvrzení obsažená v původních textech. Podle autorů často nenápadným, ale o to působivějším způsobem: například měnilo opatrná tvrzení v minulém čase na rozsáhlejší verzi v přítomném čase. Kupříkladu poznámku „léčba byla v této studii účinná“ si AI vyložila jako „léčba je účinná“. Tyto změny mohou čtenáře uvést v omyl, že zjištění platí mnohem šířeji, než je tomu ve skutečnosti.

Podobné chování je často spojené s bulvárním tiskem, který výsledky výzkumů přehání, ale mnohdy se mu nevyhne ani seriózní komunikace vědy v mainstreamových médiích. Vědci mají se zjednodušujícími vyjádřeními dlouhodobě problém. Zveličování nemusí být u novinářů snahou šokovat nebo přehánět, někdy jde o vedlejší produkt snahy předat složitou informaci laické veřejnosti v co možná nejpochopitelnější formě.

Pozoruhodné podle autorů studie je, že vědci nebyli schopní přimět jazykové modely k tomu, aby své postoje korigovaly. Když chatboty výslovně vyzvali, aby se vyhnuly výše popsaným nepřesnostem, nastal pravý opak: modely vytvářely příliš zobecněné závěry dvakrát častěji, než když dostaly jednoduchou žádost o shrnutí.

„Tento efekt je znepokojivý,“ řekl Peters. „Studenti, vědci i politici se mohou domnívat, že pokud požádají ChatGPT, aby se vyhnul nepřesnostem, získají spolehlivější shrnutí. Naše výsledky ale dokazují opak,“ dodal autor výzkumu.

Čím novější, tím horší

Studie také přímo porovnala shrnutí stejných článků generované chatbotem a napsané člověkem. Chatboti téměř pětkrát častěji než jejich lidské protějšky vytvářeli rozsáhlá zobecnění. „Znepokojující také je,“ řekl Peters, „že novější modely umělé inteligence, jako ChatGPT-4o a DeepSeek, si vedly hůře než starší modely.“

Jedním z možných vysvětlení je, že se AI modely učí na nevhodných datech. Tedy právě například na přehánění bulvárního nebo nekvalitního popularizačního tisku, který má potenciál značného šíření na internetu a snadno se tak dostane i do tréninkových dat AI.

Nejpřesnější byl mezi testovanými modely Claude. Pro lepší výsledky autoři práce doporučují také nastavit chatbotům nižší „teplotu“, což je parametr určující kreativitu.

„Pokud chceme, aby umělá inteligence podporovala vědeckou gramotnost, a ne ji podkopávala,“ dodal Peters, „potřebujeme větší ostražitost a testování těchto systémů v kontextu vědecké komunikace.“

Výběr redakce

Aktuálně z rubriky Věda

Obavy z budoucnosti mladí Číňané rozptylují pomocí AI věštců

Mladí Číňané se zamilovali do věštění. Pohled do budoucna jim už ale nenabízí kartářky, prognostici nebo tvůrci horoskopů, ale stále častěji umělé inteligence, především domácího původu.
před 14 hhodinami

Studie: Nejsou důkazy o spojitosti paracetamolu v těhotenství s autismem u dětí

Nová rozsáhlá studie nenašla žádné důkazy o tom, že by užívání paracetamolu v těhotenství zvyšovalo riziko autismu, ADHD a vývojové poruchy intelektu. Studii zveřejnil odborný časopis The Lancet. Těhotné ženy od užívání paracetamolu v loňském roce zrazoval americký prezident Donald Trump, který lék proti horečce a bolesti spojil s rizikem autismu u dětí.
před 15 hhodinami

Írán odpojil internet v panice, Starlink rušit nedokáže

Teherán odpojil internet během protestů v panice a o přístup k síti přišlo dočasně i ministerstvo zahraničí. Píše to list Financial Times s odkazem na experty. Odříznutí Íránci se navzdory hrozbě represí pokoušejí komunikovat se světem přes Starlink. Íránské úřady se marně snaží rušit signál, a tak zabavují lidem antény.
včera v 16:00

Cítí se opuštěni elitami, sjednoceni hněvem. Co lidi spojuje v krizích, ukázal český výzkum

Co mají společného spory o roušky během covidu a hádky o pomoc Ukrajině v diskuzích na facebooku? Výzkum českých vědkyň ukazuje, že lidé v časech krize sdílejí opakující se příběhy na základě modelu „my dole“ proti „těm nahoře“. Může to na sociálních sítích posílit sounáležitost mezi lidmi, ale současně takové chování rozděluje společnost ještě víc a vytváří pocity nedůvěry vůči elitám, hlavně těm politickým a mediálním.
včera v 14:38

Jaký bude rok 2026? Velká předpověď naznačuje vysoké teploty

Letošní rok by se mohl zařadit k těm dosud nejteplejším. Naznačují to predikce na základě analýzy historických dat a sledování dlouhodobého vývoje. Důležitou roli mají mít jevy El Niňo a La Niňa. Dosud nejteplejší byl rok 2024, ten loňský se stal třetím nejteplejším od počátku pozorování.
včera v 11:30

Mikroplastů je tolik, že kontaminují výzkumy o množství mikroplastů

Mikroplastů je už na Zemi tolik, že se nedá pořádně říct, jak moc jich je – tak se dají shrnout výsledky několika studií, které vyšly v poslední době. Na základě důkladných analýz jejich autoři zpochybňují předchozí výzkumy, které popisovaly, kolik mikroplastů (a nanoplastů) se nachází v lidských tkáních.
včera v 10:02

Komunisté před 55 lety normalizovali poměry. Pomocí lží i vražd

Zpátky k normálu – to byl cíl komunistů po srpnové okupaci v roce 1968. Rozjitřená společnost, která doufala ve změnu, se měla vrátit do doby před obrodným procesem (pražským jarem), takzvaně se normalizovat. Komunisté ale potřebovali vysvětlit a před lidmi obhájit vojenskou invazi z 21. srpna 1968. Posloužit k tomu měl oficiální dokument, který vyšel před 55 lety, byl plný lží a invazi nazýval „bratrskou pomocí“. Vtloukat do hlavy si ho měly i děti ve školách.
včera v 07:00

Umělá inteligence zabíjí tu dětskou, varuje výzkum

V této fázi vývoje převažují rizika využívání generativní umělé inteligence (AI) ve vzdělávání nad výhodami, říkají američtí autoři studie Centra pro univerzální vzdělávání Brookings Institution. Takzvaní chatboti dětem pomáhají s referáty, úkoly a učením, současně jim toho ale podle průzkumu až příliš mnoho berou.
15. 1. 2026
Načítání...