ULTIMELE ȘTIRI

Anthropic primește ultimatum de la Pentagon

Anthropic primește ultimatum de la Pentagon

Un secretar al Apărării care amenință o companie de inteligență artificială cu Defense Production Act, instrument de „stare de urgență” din anii ’50, nu trimite un simplu mesaj comercial.. Arată, de fapt, cine va seta regulile jocului pentru AI-ul folosit în război, în supraveghere și, inevitabil, în politica internă. Pete Hegseth i-a dat lui Dario Amodei un termen limită: vineri seara, Anthropic fie acceptă „toate utilizările legale”, fie riscă să fie scos din lanțul de aprovizionare al Pentagonului.

Secretary of War Pete Hegseth finishes the installation of a Department of War plaque at the River Entrance in front of the Pentagon, Washington, D.C., Nov. 13, 2025. (DoW photo by U.S. Air Force Staff Sgt. Madelyn Keech)
Secretary of War Pete Hegseth finishes the installation of a Department of War plaque at the River Entrance in front of the Pentagon, Washington, D.C., Nov. 13, 2025. (DoW photo by U.S. Air Force Staff Sgt. Madelyn Keech) SECWAR, Public domain, via Wikimedia Commons

Miza imediată: un contract de până la 200 de milioane de dolari. Miza reală: dacă industria AI mai are voie să spună „nu” statului, atunci când statul cere acces nelimitat.

În spatele disputei se află o diferență de filosofie care devine rapid geopolitică. Anthropic – compania din spatele chatbotului Claude, unul dintre puținele sisteme AI aprobate pentru medii clasificate – cere garanții că modelele sale nu vor fi folosite pentru arme autonome și nici pentru supraveghere în masă a americanilor. Amodei a numit aceste utilizări „ilegitime” și „pretabile la abuz”, iar potrivit unor surse care cunosc discuțiile, și-a reiterat poziția în întâlnirea de marți cu Hegseth.

De cealaltă parte, Pentagonul vrea o promisiune simplă: acces larg pentru „toate cazurile de utilizare legale”, fără limitări impuse de companie. Hegseth a încadrat refuzul Anthropic în retorica „woke AI” – o etichetă elastică, folosită de oficiali ai administrației Trump pentru a ataca protecțiile de siguranță și presupuse „bias-uri” liberale din modele.

Contractul de 200 de milioane și amenințarea cu „excomunicarea” industrială

În mod normal, un conflict comercial se tranșează prin clauze și avocați. Aici, instrumentele invocate sunt politice și coercitive.

Hegseth a transmis că va rezilia contractul de până la 200 de milioane de dolari până vineri dacă Anthropic nu „slăbește” standardele de siguranță. În plus, amenințarea cu eticheta de „supply chain risk” are un efect aproape nuclear: ar obliga furnizorii și contractorii Departamentului Apărării să certifice că nu folosesc modelele Anthropic. Este o categorie folosită, de regulă, împotriva adversarilor străini – iar tocmai de aceea mesajul e atât de dur: „ori intrați în linie, ori deveniți intangibili pentru ecosistemul apărării”.

A doua pârghie, Defense Production Act, permite președintelui să controleze industrii interne în numele securității naționale. Invocarea ei într-un conflict despre „politici de utilizare” ale unui model AI ar seta un precedent: siguranța AI ar putea fi tratată ca un moft corporatist, nu ca o condiție de operare.

„Toate utilizările legale”: formularea care înghite tot

Sintagma „lawful use cases” sună rezonabil până când te întrebi cine definește „legalul” într-o zonă în care tehnologia aleargă înaintea normelor. Supravegherea poate fi „legală” în anumite condiții. Integrarea AI în sisteme de armament poate fi „legală” în anumite doctrine. Iar între „asistență decizională” și „control autonom” există o zonă gri pe care o poți lărgi din pix.

Anthropic spune, practic, că nu vrea să fie furnizorul care pune motorul pe o mașină fără frâne. Pentagonul spune, la fel de practic, că nu acceptă ca un contractor să decidă ce misiuni sunt permise. Întrebarea pe care o evită ambele părți este cea incomodă: dacă un model e suficient de bun pentru rețele clasificate, cum îl împiedici – credibil – să fie folosit în scenarii pe care chiar tu le-ai numit „pretabile la abuz”?

Un purtător de cuvânt al Anthropic a declarat pentru CNBC: „Am continuat discuții de bună credință despre politica noastră de utilizare pentru a ne asigura că Anthropic poate continua să sprijine misiunea de securitate națională a guvernului, în linie cu ceea ce modelele noastre pot face în mod fiabil și responsabil.”

De ce presiunea crește acum: competiția internă și noua „normalitate” a AI-ului clasificat

Până de curând, Anthropic era singura companie AI aprobată să-și ruleze modelele pe rețelele clasificate ale agenției. Săptămâna aceasta, xAI a lui Elon Musk a devenit a doua, după ce a acceptat utilizarea în medii clasificate, potrivit unui oficial senior al Pentagonului. Între timp, OpenAI și Google ar fi acceptat, de asemenea, utilizarea în „orice scenarii legale”.

Asta schimbă raportul de forțe: dacă există alternative „mai flexibile”, guvernul poate transforma un conflict de principii într-o lecție pentru întreaga industrie. Mesajul implicit: „siguranța” e negociabilă, iar cine insistă pe linii roșii riscă să fie înlocuit.

Pe partea cealaltă, Anthropic nu e o companie vulnerabilă financiar în sens clasic: a închis luna aceasta o rundă de finanțare de 30 de miliarde de dolari, la o evaluare de 380 de miliarde, și a raportat peste 500 de clienți care plătesc mai mult de 1 milion de dolari anual. Cu alte cuvinte, își poate permite să piardă un contract – dar își poate permite să piardă accesul la „clubul” guvernamental, acolo unde se definesc standardele și se validează tehnologia?

Aici e nodul: contractele de apărare nu sunt doar bani. Sunt legitimare, acces la infrastructură, influență asupra viitoarelor reguli.

Ce urmează: o bătălie pentru cine scrie manualul de utilizare al AI-ului

Administrația Trump, prin vocea „țarului” AI și crypto David Sacks, a acuzat Anthropic că promovează „woke AI”. Termenul e suficient de vag încât să includă orice: de la filtre de siguranță până la refuzul de a construi funcții pentru supraveghere. Iar vagul, în politică, e util: nu trebuie să demonstrezi, doar să etichetezi.

Dacă Hegseth câștigă, precedentul e limpede: statul poate cere „acces total” și poate pedepsi companiile care încearcă să impună limite etice. Dacă Anthropic rezistă și supraviețuiește sancțiunii, precedentul e la fel de important: industria poate negocia linii roșii chiar și cu clientul suprem – armata.

Rămâne întrebarea care ar trebui să ne preocupe pe toți, dincolo de SUA: într-o lume în care AI-ul devine infrastructură de securitate, cine are ultimul cuvânt asupra modului în care e folosit – aleșii momentului sau inginerii care cunosc riscurile? Și, mai ales, ce se întâmplă când „legal” devine singurul standard, iar „responsabil” e tratat ca o opțiune?

Surse: NPR, CNBC

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

twelve − 8 =

📬 Nu rata știrile importante