Dezinformace a konspirační teorie se šíří na YouTube v diskuzích. Web tomu příliš nebrání

Konspiračním teoriím a dezinformacím se na YouTube daří i navzdory snaze této platformy zpřísnit pravidla. Ukázala to nová analýza vědců z Univerzity v Sydney, která studovala komentáře uživatelů k obsahu spojenému s pandemií koronaviru a Billem Gatesem.

Vědci zkoumali soubor dat 38 564 komentářů na YouTube, které pocházely ze tří videí souvisejících s covidem-19. Videa byla na profilech zpravodajských televizí Fox News, Vox a China Global Television Network. V každém videu vystupoval Bill Gates a v době získávání dat obsahovalo třináct tisíc až čtrnáct a půl tisíce komentářů zveřejněných v období od 5. dubna 2020 do 2. března 2021.

Prostřednictvím tematického modelování a kvalitativní obsahové analýzy studie zjistila, že v komentářích ke každému videu silně převažují konspirační výroky. Některé komentáře byly považovány za „hraniční obsah“, který YouTube definuje jako obsah, který se blíží k porušení pravidel, ale jen těsně jich nedosahuje.

Příkladem takového obsahu jsou komentáře, které vzbuzují pochybnosti o motivech Billa Gatese při vývoji a distribuci vakcín, a náznaky, že se snaží převzít kontrolu v rámci „nového světového řádu“. Tyto komentáře naznačovaly nebo souvisely s teoriemi o využití vakcín ke kontrole nebo sledování velkých populací lidí.

Komentáře uvažovaly i o škodlivosti sítě 5G, šířily teorie o Gatesově ovládání lidí prostřednictvím čipování a zmiňovaly jeho údajné napojení na satanisty.

Výsledky studie naznačují, že v době pandemie mohly hrát tyto komentáře významnou, ale podceňovanou roli v šíření konspiračních teorií. „Zjistili jsme, že proces vzniku konspirační teorie je do značné míry společenská záležitost,“ popsala jedna z autorek práce Joanne Grayová. „Lidé se scházejí a společně sdílejí nové informace nebo si vytvářejí spojení mezi nimi. To pak používají k vytváření konspiračních narativů.“ 

Omezený dopad inovací

Během pandemie covidu zavedl YouTube nové zásady a pokyny, jejichž cílem bylo omezit šíření lékařských dezinformací o tomto viru na této platformě. Studie ale zjistila, že funkce komentářů zůstává relativně nemoderovaná a vlastně v ní téměř neexistují bariéry, které by zabránily v šíření dezinformací, lží, pomluv a konspiračních teorií.

Mnoho diskuzních příspěvků tak porušuje běžná pravidla YouTube – například komentáře, které tvrdí, že se vakcíny používají k hromadné sterilizaci nebo k vkládání mikročipů do očkovaných. Zatímco přímo ve videu by tyto hoaxy neprošly, v komentářích si jich platforma nevšímá.

Autoři uvedli, že platforma YouTube by měla zvážit změny, které by reagovaly na konverzační strategie používané autory a šiřiteli konspiračních teorií. To by podle nich mohlo zabránit, aby se podobné hoaxy, dezinformace a konspirační teorie nešířily v budoucnu u jiných podobných událostí, které jsou důležité a lži mohou ovlivnit spousty lidí.

Moderované diskuse

Výzkumníci uvedli, že aby YouTube mohl tento problém adekvátně řešit, musí se věnovat jak konverzačním strategiím, které se vyhýbají automatickým detekčním systémům, tak i přepracovat design své služby tak, aby uživatelům poskytl nástroje, které potřebují k efektivní vlastní moderaci.

Studie vyzývá YouTube, aby pro vydavatele zpravodajství vznikly pokyny pro moderování obsahu podle postupů, které dokáží odhalit i strategie pro automatickou moderaci neviditelné. Kromě toho by vydavatelé zpravodajství mohli vypínat komentáře u videí s vysokou hodnotou veřejného zájmu, aby se zajistilo, že nebudou zhoršovat šíření konspiračních teorií.

„Hlavním důsledkem naší studie je, že YouTube musí přepracovat prostor pro poskytování infrastruktury pro sociální moderování,“ dodala Grayová. „V opačném případě budou strategie zastánců konspiračních teorií i nadále unikat detekčním systémům, představovat nepřekonatelné výzvy pro tvůrce obsahu a nahrávat producentům obsahu, kteří z takové činnosti těží a/nebo ji podporují.“ 

Výběr redakce

Aktuálně z rubriky Věda

Rizika AI vůči lidstvu jsou jasná, ale rozhoduje tlak investorů, obává se expert

Umělé inteligence (AI) představují podle kalifornského experta Stuarta Russella zásadní bezpečnostní riziko v mnoha oblastech. Vědec před nimi varoval na konferenci v Indii, kde tato technologie může velmi rychle zlikvidovat miliony pracovních míst.
12:25Aktualizovánopřed 1 hhodinou

Nově popsaný pravěký krokodýl připomínal chrta. Jméno má po učiteli fyziky

Nově popsaný druh pravěkého krokodýlovitého tvora patřil zřejmě k nejrychlejším zástupcům svého druhu. Byl sice jen poměrně drobný, ale byl schopný dohnat jakoukoliv kořist, na kterou svými rozměry stačil.
před 22 hhodinami

Lajkuj v pokoji. Meta si patentovala AI, která na sítích zastoupí zesnulého

Společnost Meta získala patent na jazykový model, jenž by v nepřítomnosti uživatele pokračoval v jeho aktivitě na sociálních sítích, napsal server Business Insider. Nástroj vycvičený na datech konkrétního účtu by vytvořil „digitální klon“, který by dle firmy byl vhodný k zastoupení dotyčného třeba v případě dovolené – nebo smrti. Meta tvrdí, že eticky sporného robota nemá v plánu dál rozvíjet.
před 23 hhodinami

Klíčový úřad v USA končí s programy připravenosti na pandemie

Americké úřady plánují kompletní transformaci agentury, která se doposud starala o připravenost na možné budoucí pandemie a o ochranu Spojených států před AIDS. Kritici kroku varují, že to zemi oslabí v případě budoucích epidemií infekčních nemocí.
před 23 hhodinami

Slovensko-český tým objevil nejstarší kovový vrták z Egypta. Vznikl před faraony

Nový objev dvoučlenného vědeckého týmu naznačuje, že vyspělými technologiemi disponovali lidé v Egyptě už před 5300 lety, tedy v době, kdy této zemi ještě nevládli faraoni. Mladí vědci vzácný artefakt objevili, když znovu zkoumali dávno popsané předměty v muzeu.
včera v 10:32

Rozpoznávací nástroje dokáží odhalit deepfake videa. Většinou jsou ale placené

Umělou inteligenci využívají i „ochránci internetu“. Ty nejlepší rozpoznávací nástroje totiž dokáží ve většině případů odhalit i videa vytvořená nebo upravená pomocí AI, která už lidi přelstí. S nárůstem podvodů a deepfake videí jsou tyto technologie stále důležitější. Většina takových nástrojů je ale placená a ty ve verzích zdarma obvykle tak dobře nefungují. Podobné nástroje proto zatím mají jen ti největší hráči v oblasti kyberbezpečnosti. Podle odborníků ale jejich počet poroste. Důležitý stále zůstává i kontext. I tady nicméně dokáží nástroje pomoci. Třeba rozpoznat, kdo na videu mluví, nebo analyzovat informace ve videu a s pomocí AI je pak srovnat s realitou.
včera v 07:30

Analýza fosilií ukázala, že v Japonsku kdysi žili jeskynní lvi

Před desítkami tisíc let žili na rozsáhlém území japonského souostroví lvi. Odhalila to podle agentury Kjódó analýza fosilních vzorků, o kterých se doposud předpokládalo, že patří tygrům. Ve skutečnosti však patří vyhynulému druhu lvů.
16. 2. 2026

Mezi pitím slazených nápojů a úzkostí je silná souvislost, varuje studie

Nápoje plné cukrů mají prokazatelně negativní dopad na lidské tělesné zdraví. Nový výzkum se teď podíval na možné dopady na zdraví duševní – a podle něj také v této oblasti existují náznaky negativních dopadů.
16. 2. 2026
Načítání...