Americké ministerstvo obrany naplnilo svou hrozbu a oficiálně označilo technologickou společnost Anthropic za riziko pro dodavatelský řetězec. Rozhodnutí má okamžitou platnost a zakazuje vládním dodavatelům používat technologie Anthropicu při plnění zakázek pro armádu USA, napsala v pátek agentura Reuters.
Ministerstvo ve čtvrtek uvedlo, že „oficiálně informovalo vedení společnosti Anthropic, že firma a její produkty jsou s okamžitou platností považovány za riziko pro dodavatelský řetězec“. Společnost krok potvrdila a avizovala, že se hodlá bránit soudní cestou.
Anthropic působí v oblasti umělé inteligence (AI). Jejím vlajkovým produktem je chatbot Claude, který byl uveden na trh v roce 2023 a od té doby se stal konkurentem modelů jako ChatGPT od OpenAI či Gemini od Googlu.
Spor s americkou administrativou
Firma Anthropic se dostala do sporu s americkou vládou poté, co odmítla umožnit používání svých technologií pro masové sledování domácností a plně autonomní zbraňové systémy. Prezident Donald Trump a ministr obrany Pete Hegseth minulý týden firmu obvinili z ohrožování národní bezpečnosti.
Označení Anthropicu za riziko pro dodavatelský řetězec dle agentury AP zřejmě uzavírá prostor pro další rozhovory mezi firmou a americkou vládou. „Domníváme se, že tento postup není z právního hlediska v pořádku, a nevidíme jinou možnost než se obrátit na soud,“ prohlásil šéf firmy Dario Amodei.
Anthropic v uplynulých dnech s americkou vládou jednal. Rozhovory však podle zdroje BBC zkrachovaly mimo jiné kvůli způsobu, jakým Trump a další členové jeho administrativy firmu veřejně kritizovali.




