Systém automatické detekce obličejů na pražském Letišti Václava Havla by měl znovu fungovat do konce roku. Policie ho dočasně vypnula kvůli nové evropské legislativě o umělé inteligenci. Podle odborníka na kyberbezpečnost Jakuba Alimova je na letišti bezpečno, protože tam funguje systémů víc. Spolumajitel technologického projektu Lexicon Labs Daniil Shakhovskiy ale mluví o zbytečných byrokratických omezeních.
Nová právní úprava vyžaduje pro další provoz výslovné předchozí povolení předsedy senátu vrchního soudu. Policie předpokládá, že povolení získá, aby mohla provoz letos obnovit.
„Jedná se o AI akt, který sjednocuje pravidla pro umělou inteligenci v celé Evropě. Zakazuje automatizované sledování lidí bez soudního příkazu, pokud je to plošně nasazeno, protože to považuje za vysoce rizikové,“ popsal důvody vypnutí systému Alimov. Nejedná se prý pouze o zpracování obrazu obličeje, ale o jakékoliv citlivé údaje, které zpracovává AI a dělá nad nimi rozhodnutí – například ovlivňuje přístup ke službám.
Fungování identifikace obličejů právě na letišti se už v minulosti setkalo s kritikou části veřejnosti, podle které jde o příliš velký zásah do soukromí lidí. Systém ale za šest let fungování pomohl zadržet 155 hledaných osob, mezi nimiž byli i pachatelé závažné trestné činnosti.
„Ten systém je napojený na kamerový systém, kde jsou, předpokládám, stovky kamer, a je vlastně jeho mozkem. AI v reálném čase vyhodnocuje obličeje hledaných osob, třeba cizinců, kteří mají zakázaný přístup do České republiky,“ říká expert.
Krok zpět?
Policie teď podle Alimova musí pracovat více „manuálně“. „Je to pouze jeden ze systémů ekosystému letiště. Když se vypne, neznamená to, že letiště je nebezpečné,“ ubezpečuje. Na letišti jsou podle experta systémy, které umí rozpoznávat chůzi, podezřelé chování, nebo odložené zavazadlo, jde i o různé rentgeny, skeny či čtečky biometrických pasů.
Rozhodnutí o vypnutí systému je podle Shakhovského krok zpět. „Systém, který již prokázal svou účinnost a pomohl dopadnout desítky nebezpečných pachatelů, byl nyní odstaven kvůli byrokratickým omezením,“ řekl ČTK.
V době, kdy technologie mohou bránit těžkým trestným činům, podle něj „oslabujeme ve jménu předběžného souhlasu schopnosti těch, kdo chrání naši bezpečnost“. „Celá tíha odpovědnosti tak znovu padá na bedra policistů, kteří už tak čelí nespočtu výzev. Jsou nuceni vracet se k metodám, které byly aktuální před desítkami let, zatímco rizika, jimž čelí, jsou ryze současná,“ dodal.
Akt o AI doplnil i kodex
Akt o AI byl přijat v srpnu loňského roku jako první ucelená regulace AI na světě. Nová pravidla, která nabyla účinnosti od soboty, se dotknou zejména velkých poskytovatelů AI modelů, jako jsou například ChatGPT, Gemini a Claude.
Pravidla se vztahují na obecné modely AI uvedené na trh po 2. srpnu. Pro modely uvedené před tímto datem platí dvouleté přechodné období do srpna 2027. Nové AI modely by měla doprovodit technická dokumentace podle vzoru Evropské komise, informace pro další subjekty v dodavatelském řetězci, které zamýšlí na základě AI modelů stavět další produkty, ale i shrnutí, jaká data se využívala ke trénování modelu.
„Je to první nařízení na světě, které omezuje AI. Evropská unie s tím přišla jako první a udává rámec na základě rizikovosti. Je tam spousta věcí ošetřených, které AI dělat nesmí, jsou tam věci, které jsou vysoce rizikové – je třeba zmíněné skenování obličejů. A jsou tam věci, které nejsou vůbec probádané nebo jsou neošetřené, to jsou třeba deepfake videa,“ dodává Alimov.
Akt o AI doplnil také dobrovolný kodex, jehož cílem je mimo jiné omezit generování obsahu porušujícího autorská práva a zavést mechanismy pro vyhodnocování rizik před uvedením modelu na trh i po něm. Podle Shakhovského však dobrovolné kodexy nestačí.
„Pomalé vyčkávání nás staví do závislosti na modelech velkých hráčů. Kdo dnes nemá nástroje na ověřování autenticity a původu obsahu, ztrácí. Potřebujeme povinné minimální standardy a infrastrukturu, která funguje i mimo dohled platforem. Vyhrává ten, kdo koná – ne ten, kdo čeká na pokyny,“ sdělil. Podle některých expertů také přichází pravidla pro modely umělé inteligence pozdě.



