Evropská komise chce, aby velké internetové platformy pomáhaly uživatelům rozeznat obsah vytvořený umělou inteligencí (AI) a označovaly jej. Google, Microsoft a další by tímto způsobem měly bránit šíření dezinformací, které AI produkuje na velmi vysoké úrovni. Oznámila to místopředsedkyně Komise Věra Jourová před jednáním se zástupci desítek internetových firem. Požadavek má být součástí dobrovolného kodexu, dle Jourové je ale možné, že se věc stane součástí závazného unijního aktu o AI.
Evropská komise chce, aby internetové platformy označovaly obsah vytvořený AI
Evropské země začaly v poslední době mluvit o regulaci umělé inteligence zejména v souvislosti s rychlým rozvojem generativních systémů jako ChatGPT, který vyvinula společnost OpenAI podporovaná Microsoftem, či projekt Bard od Google. Ty jsou schopny na základě jednoduchých pokynů generovat složité texty. Na webu se ale objevují i manipulativní fotky či videa vytvořená AI, která jsou mnohdy jen velmi složitě rozeznatelná od reálných záběrů.
„Signatáři, kteří provozují služby s potenciálem šířit dezinformace vytvářené AI, by měli zavést technologie umožňující rozpoznávat takový obsah a jasně ho pro uživatele označovat,“ prohlásila Jourová v narážce na zmíněný kodex. K tomu se v minulých letech připojily firmy jako Google, Microsoft, majitel Facebooku Meta, TikTok či český Seznam. Jourová spolu s komisařem pro jednotný trh Thierrym Bretonem jim v pondělí oznámí nový požadavek, jemuž by podle místopředsedkyně unijní exekutivy měly vyhovět ihned.
Evropská unie v současnosti dojednává podrobnosti pravidel, která by se mohla stát prvním komplexním systémem regulace AI na světě. Členské státy se však zatím s europoslanci nedohodly na konečném znění normy označované jako Akt o umělé inteligenci a její zavedení do praxe může trvat i několik let. Proto chce Komise podle Jourové v zájmu rychlosti sáhnout nejprve k rozšíření dobrovolného kodexu. Není však zároveň vyloučeno, že se požadavek na označování obsahu vytvořeného AI dostane i do zmíněného závazného předpisu.