TÉMA

Anthropic

Americká armáda údajně využila při útoku na Írán AI, od níž se přitom Trump distancoval

Americká média jako Wall Street Journal a Axios píší, že při bombardování Íránu využily americké jednotky umělou inteligenci společnosti Anthropic, která přitom vede s armádou spory.
včera v 15:08|

Pentagon označil Anthropic za bezpečnostní riziko, firma se obrátí na soud

Společnost Anthropic se obrátí na soud. Reaguje tím na rozhodnutí ministerstva obrany USA, které ji označilo za bezpečnostní riziko dodavatelského řetězce. Firma v pátek nevyhověla jeho požadavkům týkajícím se používání umělé inteligence (AI). Americký prezident Donald Trump krátce před tím uvedl, že nařídil federálním úřadům postupně ukončit využívání jejích AI technologií.
28. 2. 2026|

Trump nařídil úřadům ukončit využívání AI od Anthropicu

Americký prezident Donald Trump nařídil federálním úřadům postupně ukončit využívání technologií umělé inteligence (AI) od firmy Anthropic. Učinil tak poté, co společnost odmítla ustoupit americkému ministerstvu obrany ve sporu o bezpečnost využívání AI pro vojenské účely. Americké ministerstvo obrany podotklo, že pokud firma nepřistoupí na jeho žádost, bude považována za „riziko pro dodavatelský řetězec“ a riskuje ztrátu státní zakázky v hodnotě 200 milionů dolarů (4,1 miliardy korun).
27. 2. 2026Aktualizováno28. 2. 2026|

Čínské AI modely vykradly ty americké, zlobí se firma

Umělé inteligence (AI) vznikly mnohdy na základě toho, že jejich provozovatelé je trénovali na nelegálně získaných datech. Tato praktika funguje dál a cílí na samotné modely AI. Vývojáři společnosti Anthropic tento týden upozornili, že tři čínské společnosti zabývající se umělou inteligencí „nelegálně získaly“ schopnosti modelu Claude. Ten je považovaný za jednu z nejvyspělejších AI současnosti.
25. 2. 2026|

Rizika AI vůči lidstvu jsou jasná, ale rozhoduje tlak investorů, obává se expert

Umělé inteligence (AI) představují podle kalifornského experta Stuarta Russella zásadní bezpečnostní riziko v mnoha oblastech. Vědec před nimi varoval na konferenci v Indii, kde tato technologie může velmi rychle zlikvidovat miliony pracovních míst.
18. 2. 2026Aktualizováno18. 2. 2026|

Sociální síť Moltbook je jen pro AI. Narušují ji ale lidští „boti“

Přelom roku přinesl další pokrok v technologii umělých inteligencí. Nezávislý rakouský programátor vypustil do kyberprostoru poslušné umělé inteligence, které plní jako agenti jakékoliv úkoly. A vznikla pro ně i speciální sociální síť Moltbook, kde si tyto formy digitálního kódu povídají.
5. 2. 2026|

Šéf přední AI firmy varuje před enormními riziky AI

Apokalyptických úvah o riziku umělé inteligence (AI) je dvanáct do tuctu, ale jen málokdy s nimi přicházejí šéfové vlivných firem, které jsou za explozivně rychlý rozvoj této přelomové technologie zodpovědné. Teď Dario Amodei, zakladatel společnosti Anthropic, jež stojí za chatbotem Claudem, v rozsáhlé eseji upozornil na obrovský potenciál hrozeb, které AI přináší do současného světa.
28. 1. 2026|

Předškolákům AI králíček radí se sexem, další hlásá čínskou propagandu

Hračky, které jsou vybavené nějakou formou umělé inteligence, se stávají hitem letošních Vánoc. Horší dárek ale dát dětem nemůžete, varují vědci i spotřebitelské organizace. Příkladů, kdy se hračky vymkly kontrole a komunikovaly s dětmi zcela nevhodnými způsoby, je totiž podle expertů obrovské množství.
15. 12. 2025|

„AI firmy jsou regulované míň než sendviče“. Na superinteligenci nejsou připravené

Analýza zaměřená na osm hlavních firem, které vytvářejí nejpokročilejší modely umělých inteligencí (AI), prokázala, že společnosti vůbec neřeší možnost ztráty kontroly nad takzvanými superinteligencemi, jež se snaží vytvářet. Jde o formu AI, která má ve všech ohledech překonat lidský intelekt.
5. 12. 2025|
Doporučujeme

Lže i vydírá. Umělá inteligence se učí nové triky

Nejvyspělejší modely umělé inteligence na světě v poslední době začínají vykazovat nové chování. Aby dosáhly svých cílů, manipulují lidmi. Pozoruhodné je, že to dělá celá řada různých modelů od různých tvůrců.
30. 6. 2025|

Umělé inteligence v diplomatických simulacích často volí válku. Včetně té jaderné, ukázal výzkum

Výzkum pěti umělých inteligencí (AI) tří různých společností ukázal, že při simulovaných konfliktech rychle eskalují situaci, neumí ustupovat a vybírají si vojenská řešení jako ta nejjednodušší a nejúčinnější. Podle vědců je to znepokojivé a varují tak před využíváním AI v této oblasti.
10. 2. 2024|

Přední firmy z oblasti AI v USA slibují zkoumat rizika i testovat bezpečnost systémů

Skupina sedmi předních amerických podniků v oblasti umělé inteligence (AI) se zavázala dodržovat soubor pravidel k zajištění bezpečnosti této technologie, oznámil Bílý dům. Opatření zahrnují důkladné testování bezpečnosti systémů založených na umělé inteligenci nebo označování obsahu vytvořeného umělou inteligencí digitálním vodoznakem.
21. 7. 2023|
Načítání...