Když senior uslyší v telefonu hlas svého vnuka, který ho zoufale prosí o pomoc, asi jen málokterý mu ji odmítne. Problém je, pokud tento hlas nepatří příbuznému – ale umělé inteligenci, která se za vnouče jen vydává.
Podvodníci zneužívají umělé inteligence. Napodobí hlas blízkého člověka a pak oběť okradou
Umělé inteligence jsou v současné době nejvíc spojené s malováním obrázků a psaním čím dál lepších textů. Ale obrovský pokrok, jen trošku skrytý, udělaly také v napodobování zvuků a hlasů. A už se našli podvodníci, kteří toho umí zneužívat.
Nový technologicky sofistikovaný přístup ke zločinu popsal deník The Washington Post. Podvodníkům stačí získat jen několik vět zvukového záznamu nějakého člověka, které si nahrají třeba při nevyžádaném telefonátu – anebo ho získají z nějaké sociální sítě. Ty nejvyspělejší algoritmy dokonce vyžadují jen tři sekundy hlasového záznamu. Z něj vytvoří celé věty, jež mohou působit zejména na seniory velmi důvěryhodně. Díky nim se podvodník může vydávat za blízkého příbuzného seniora. Předstírá pak, že se ocitl v problémech, a požaduje po seniorovi finanční pomoc.
Není vůbec obtížné tento podvod provést, senioři jsou tak vyděšení a zmatení, že posílají svým „příbuzným“ spousty peněz, píše list. Jeden pár podle něj poslal podvodníkovi 15 tisíc dolarů (asi 336 tisíc korun) prostřednictvím bitcoinového terminálu poté, co uvěřil, že mluvil se svým synem. Hlas generovaný umělou inteligencí jim řekl, že potřebuje zaplatit soudní poplatky poté, co se stal účastníkem dopravní nehody, při níž zahynul americký diplomat.
Telefonické podvody fungují
Spojené státy se s telefonickými podvody potýkají dlouhodobě, roku 2022 se jednalo o nejčastější typ a současně takový, kterým pachatelé obrali oběti o nejvíc peněz. Ze 36 tisíc hlášení bylo více než pět tisíc obětí telefonicky podvedeno celkem o 11 milionů dolarů (246 milionů korun).
Je velmi nesnadné je odhalit a vyřešit – už jen proto, že zloději mohou lákat peníze od lidí klidně z druhé strany světa. Pokud se podaří napodobit hlas konkrétního člověka, může to podle Washington Post tuto hrozbu ještě zvýšit.
Konec doby faktické
Velmi realisticky znějící hlasy lidí vytvářené pomocí umělých inteligencí kombinované s falešnými videi způsobují mnohem více problémů. Například na začátku letošního roku se objevily na serveru 4chan hlasy celebrit vytvořené pomocí této deepfake technologie, které pronášely rasistické, urážlivé nebo násilné výroky.
Podle webu Ars Technica zatím neexistují žádná řešení, která by se dala proti těmto technologiím využít. Vývoj umělých inteligencí je totiž momentálně tak rychlý, že se mu lidská společnost neumí včas přizpůsobovat.