Soudci a právníci zatím nepatřili mezi povolání, která by se bála o práci kvůli umělým inteligencím nebo robotům. Rychle se to ale mění – nové algoritmy už jsou lepší než lidští právníci.
Umělá inteligence jako soudce. Když algoritmy posílají lidi za mříže
Dokážete si představit, že vás do vězení pošle stroj? Inteligentní počítačový program, který se bude řídit čistě jen zákonem a právem, bude neovlivnitelný a neúplatný a zákon bude znát lépe než jakýkoli lidský právník? To není úplně sen nebo noční můra – jde o realitu.
Algoritmy založené na metodě strojového učení ovlivňují náš svět čím dál intenzivněji a objevují se i v oborech, kde by je většina lidí vůbec nečekala. Například v soudnictví. Americké soudy a nápravná zařízení již několik let využívají algoritmy, které posuzují riziko, zda osoba v budoucnu provede nějaký trestný čin anebo zda se dostaví k trestnému řízení. Tyto programy samozřejmě samy nesoudí, ale jejich výsledky mají pomáhat pro rychlejší a lepší lidské rozhodování. Tato myšlenka má ovšem celou řadu problémů.
Server Wired, který se otázce umělých inteligencí v soudnictví dlouhodobě věnuje, varuje především před tím, že tyto algoritmy nevznikají ve vládních agenturách – pocházejí od soukromých dodavatelů. To znamená, že soudci a další lidé, kteří mají výsledky těchto programů využívat, mnohdy netuší, jak vlastně fungují. Neexistuje doposud žádný federální zákon, který by nějak hlídal nebo vytvářel standardy.
Podivné rozhodnutí
Právě neprůhlednost a právní vakuum přinášejí nejvíc kontroverzí, což se ukázalo na případu Wisconsin v. Loomis roku 2013. Eric Loomis v něm byl shledán vinným za střelbu při jízdě. Počítačový algoritmus Compas (vyvinutý soukromou společností) vyhodnotil Loomise jako rizikového a na základě tohoto posudku dal soudce odsouzenému vysoký trest. Loomis se proti tomuto rozhodnutí odvolal, právě proto, že nikdo ze zodpovědných osob neví, jak tento algoritmus funguje.
Soud to odmítl, protože algoritmy fungující na principu neurálních sítí jsou ze své povahy „neprůhledné“ – neustále se vyvíjí, mění a vytvářejí si stále nová spojení. Tento proces je proměnlivý a tedy neprůhledný. Soudce tedy musí stroji buď bezvýhradně věřit, anebo s ním zcela nesouhlasit; nemá žádná nástroje, jak jeho věrohodnost posoudit.
Právní experti díky rychlosti vývoje takových programů nejsou schopní dostatečně aktivně reagovat; přesto už řada soudců podle doporučení programů soudí a rozhoduje o osudech lidí. Takové algoritmy využívá celá řada amerických států, zejména pro předvídání lidského chování. Hlavním důvodem je, že počítače jsou schopné projít obrovské množství dat mnohem rychleji a spolehlivěji než lidé, což výrazně urychluje práci soudů.
Předvídání rizik může být úspěšné
Stroje jsou v USA také využívány pro předvídání rizikového chování a tedy vzniku kriminálních činů. Takovými algoritmy jsou vybaveny policejní sbory na většině území USA. Tyto programy vyhodnocují rizikovost osob, míst a mnoho dalších faktorů. Také ony jsou až nečekaně úspěšné.
Ukázalo se to v květnu 2016, kdy během tří dní zemřelo v Chicagu na zastřelení 64 osob. Policie v Chicagu má program, který vyhodnocuje pravděpodobnost osob, které někoho zastřelí nebo naopak budou zastřeleny. Z 64 osob, jež ten víkend zemřely, jich na tomto seznamu bylo přesně 50.
Jak chytré jsou právnické programy?
Je otázkou, jak kvalitní taková doporučení mohou být. Podle výsledků nejnovějších studií to vypadá, že nejmodernější algoritmy jsou v řadě ohledů výrazně lepší než ti nejkvalitnější a nejdražší právníci. Už roku 2011 vznikl první projekt, v němž umělá inteligence analyzovala rozhodnutí osmi soudců Nejvyššího soudu Spojených států amerických a na jejich základě předvídala to, k jakému rozhodnutí dojde devátý soudce. Program byl úspěšný na 83 procent. Studie z roku 2004 zase na základě rozhodnutí od roku 1994 do roku 2001 nechala počítač předvídat, jak dopadla rozhodnutí z roku 2002 – úspěšnost byla 75 procent.
Nejnovější práce na toto téma vyšla v dubnu 2017. Její autoři shromáždili rozhodnutí Nejvyššího soudu USA z let 1816–2015. Každému program přisoudili 16 kategorií a na jejich základě nechali umělou inteligenci naučit se předvídat další rozhodnutí Nejvyššího soudu. Úspěšnost předpovědi 35 nejnovějších rozhodnutí byla 71,9 procenta, přitom ti nejlepší američtí právníci dokázali ve stejném úkolu uspět jen s 66procentní pravděpodobností.
Programy s předsudky
Na odvrácenou stranu takových předpovědí upozornila americká organizace Propublica. Její experti analyzovali doporučení jednoho z programů, které doporučují délku trestu podle toho, jaká je kriminální minulost odsouzeného. Dospěli k tomu, že v některých případech jsou doporučení algoritmu podivná – jako by počítač přihlížel i k dalším faktorům. Podrobná analýza ukázala, že vyšší riziko počítač automaticky přisuzuje lidem s tmavou barvou pleti, a to přesto, že jejich kriminální minulost byla nevýrazná.
Program se ukázal být velmi neúspěšný – kriminálního činu se dopustilo jen 20 procent osob, u nichž to předpověděl, přesto mu soudci důvěřovali.