Americký prezident Donald Trump nařídil federálním úřadům postupně ukončit využívání technologií umělé inteligence (AI) od firmy Anthropic. Učinil tak poté, co společnost odmítla ustoupit americkému ministerstvu obrany ve sporu o bezpečnost využívání AI pro vojenské účely. Americké ministerstvo obrany podotklo, že pokud firma nepřistoupí na jeho žádost, bude považována za „riziko pro dodavatelský řetězec“ a riskuje ztrátu státní zakázky v hodnotě 200 milionů dolarů (4,1 miliardy korun).
Spor mezi firmou vyvíjející chatbot Claude a Pentagonem se týkal zejména dvou otázek. Společnost nesouhlasila, aby její technologie byly využívány pro masové sledování domácností a plně autonomní zbraňové systémy. Podle šéfa firmy Daria Amodeie využití AI v těchto oblastech může podkopávat demokratické hodnoty. Ministr obrany Pete Hegseth dal firmě tento týden ultimátum, aby do pátku armádě umožnila používat své produkty bez omezení, která mají běžní uživatelé.
„Nepotřebujeme to, nechceme to a už s nimi nebudeme spolupracovat,“ napsal Trump. Většina úřadů podle něho má ukončit spolupráci s firmou ihned, Pentagon však má šestiměsíční přechodné období, aby se postupně zbavil jejích technologií.
Krok podle AP nahrává miliardáři Elonu Muskovi, jehož chatbot Grok plánuje ministerstvo obrany využít a udělit mu přístup k utajovaným informacím.
Hegseth v pátek večer SEČ označil firmu za bezpečnostní riziko pro dodavatelský řetězec, což ji diskvalifikuje ze spolupráce s dodavateli armády. „S okamžitou platností nesmí žádný kontraktor, dodavatel či smluvní partner spolupracující s armádou Spojených států vstupovat do jakékoli komerční aktivity s firmou Anthropic,“ uvedl šéf Pentagonu. Podle Amodeie bylo označení za bezpečnostní riziko dosud vyhrazené pro protivníky USA a nikdy předtím nebylo použito na americkou společnost.
Šéf firmy nesouhlasí s „hromadným sledováním obyvatelstva“
„Průkopnické systémy umělé inteligence prostě nejsou dostatečně spolehlivé,“ zdůraznil ve čtvrtečním prohlášení generální ředitel Anthropiku Amodei. Dodal, že společnost nesouhlasí s tím, aby Pentagon používal její modely umělé inteligence k hromadnému sledování obyvatelstva nebo k ovládání plně autonomních zbraní.
Člověk blízký společnosti upřesnil, že firma neobviňuje ministerstvo z toho, že chce využívat umělou inteligenci některým z těchto způsobů, ale pouze poskytuje bezpečnostní hodnocení svého produktu.
„Nemáme zájem využívat umělou inteligenci k hromadnému sledování Američanů (což je nelegální) ani nechceme umělou inteligenci využívat k vývoji autonomních zbraní, které fungují bez lidského zásahu. Tato informace je nepravdivá a šíří ji levicoví novináři v médiích,“ napsal mluvčí Pentagonu Sean Parnell na sociální síti X.
Loni v létě Anthropic získal smlouvu s ministerstvem obrany v hodnotě 200 milionů dolarů (asi 4,1 miliardy korun). Spor s Trumpovou administrativou trvá nejméně od podzimu. Klauzule, podle níž se technologie Anthropiku nesmí využívat ke sledování lidí, se mimo jiné dotýká Federálního úřadu pro vyšetřování (FBI), Tajné služby USA či imigračních úřadů, uvedl server Semafor.
Využití AI může vést ke „střelbě do vlastních řad“
Některé vládní agentury se dostaly do potíží, protože modely Claude od Anthropiku jsou v systému Amazon Web Services GovCloud využívaném americkými úřady jediné špičkové modely schválené pro použití v režimu přísně tajné. Americké ministerstvo obrany například chatbota Claude mimo jiné použilo při únosu venezuelského diktátora Nicoláse Madura.
Zdroj agentury Reuters nicméně zdůraznil, že umělá inteligence Anthropicu není dostatečně spolehlivá pro zaměřování lidí v otázkách života a smrti. Důvodem je, že se v takových scénářích chová nepředvídatelně, což by v případě zbraňových systémů mohlo vést k „střelbě do vlastních řad, selhání mise nebo neúmyslné eskalaci“.
Anthropic má přitom zvláštní službu zaměřenou na zákazníky z národní bezpečnosti. S americkou vládou uzavřel kontrakt, podle něhož poskytuje služby federálním úřadům za symbolický poplatek jeden dolar.
Použití umělé inteligence pro hromadné sledování je podle zdroje Reuters problematické. Současné americké zákony sice neomezují, jaké závěry umělá inteligence může vyvodit na základě agregace velkého množství dat, ale znamená to, že by AI například mohla vytvářet profily skupin obyvatelstva, které „žádný zákon výslovně nezakazuje, ale které jasně porušují ducha ústavních ochran“, dodal.
Více než 200 zaměstnanců společností Google a OpenAI podpořilo postoj společnosti Anthropic v otevřeném dopise. Pentagon v uplynulém roce podepsal smlouvy i se společnostmi Google a Open AI a rovněž na ně tlačí, aby odstranily své zásady pro používání jejich modelů umělé inteligence.
Generální ředitel Anthropicu Dario Amodei v roce 2020 odešel z OpenAI kvůli obavám o správu technologie AI, rovněž varoval, že vývoj AI je rychlejší než zavádění příslušné regulatorní legislativy.
Lakmusový papírek pro využití AI
Spor mezi Pentagonem a Anthropicem americká společnost vnímá i z pohledu toho, do jaké míry může být umělá inteligence využívaná armádou a jak jsou regulovaná rizika spojená s jejím používáním, napsala agentura Reuters.
„Je to varovný signál ohledně budoucnosti umělé inteligence a jejího použití na bojišti,“ řekl bývalý ministr obrany Chris Miller, který v úřadu působil během prvního funkčního období prezidenta Donalda Trumpa. Miller dodal, že současný spor poslouží jako „lakmusový papírek pro ty společnosti, které tvrdí, že chtějí AI využívat humánním způsobem“.





