Săptămâna aceasta, administrația Trump a ales să transforme disputa cu Anthropic într-un exemplu public: interdicție la nivel federal, etichetă de „risc în lanțul de aprovizionare” și un termen de șase luni pentru „dezintoxicare”.

Foto credit:
Gage Skidmore from Peoria, AZ, United States of America, CC BY-SA 2.0, via Wikimedia Commons
În paralel, rivalii de la OpenAI au anunțat că au ajuns la o înțelegere cu Pentagonul pentru a-și implementa modelele în rețeaua clasificată. Mesajul implicit e greu de ignorat: dacă nu accepți condițiile Washingtonului, există întotdeauna alt laborator dispus să semneze.
Un precedent periculos: „supply chain risk” folosit împotriva unei companii americane
Președintele Donald Trump a anunțat pe Truth Social că a cerut tuturor agențiilor federale să oprească imediat utilizarea tehnologiei Anthropic și a insistat că instrumentele companiei vor fi eliminate complet din activitatea guvernamentală în următoarele șase luni. Tonul a fost de confruntare, nu de negociere: „Nu avem nevoie de ei, nu îi vrem”, a transmis Trump, plus o amenințare că va folosi „întreaga putere a Președinției” pentru a forța cooperarea, cu „consecințe civile și penale”.
Secretarul Apărării, Pete Hegseth, a ridicat miza: a anunțat că Anthropic va fi desemnată „supply chain risk” — un instrument folosit, de regulă, pentru entități asociate adversarilor externi, nu pentru un jucător american din „frontier AI”. În versiunea maximalistă, Hegseth a susținut că, „efectiv imediat”, niciun contractor sau furnizor care lucrează cu armata SUA nu ar mai avea voie să desfășoare „orice activitate comercială” cu Anthropic.
Anthropic spune că va contesta în instanță desemnarea și susține că Hegseth nu are autoritatea legală să extindă interdicția dincolo de contractele Departamentului Apărării. Compania afirmă că nu a primit nici măcar o comunicare directă clară de la Casa Albă sau Pentagon despre „stadiul negocierilor” în momentul anunțurilor publice. Asta, în sine, spune ceva despre stilul politicii industriale în 2026: se guvernează prin postări și etichete.
Miza reală: supraveghere internă și arme autonome fără om în buclă
Dincolo de retorică, conflictul a pornit dintr-o cerință concretă: Pentagonul a cerut ca Anthropic să accepte utilizarea modelelor sale pentru „orice scop legal”, inclusiv pentru supraveghere în masă și pentru arme autonome letale fără supraveghere umană. Anthropic a refuzat, invocând riscul de „mass surveillance” și „fully autonomous weapons” și declarând că nu va ceda „nici în fața intimidării, nici a pedepsei”.
Hegseth a răspuns cu un limbaj ideologic rar întâlnit într-o dispută de achiziții: l-a acuzat pe CEO-ul Dario Amodei de „duplicitate”, a ironizat „retorica moralizatoare” de „altruism eficient” și a susținut că Anthropic ar încerca să obțină „drept de veto” asupra deciziilor operaționale ale armatei americane. Întrebarea pe care evită s-o rostească direct este însă aceasta: cine ar trebui să aibă veto asupra folosirii forței când forța e mediată de algoritmi?
OpenAI semnează cu Pentagonul: de-escaladare sau înlocuire rapidă?
La câteva ore după interdicția anunțată de Trump, CEO-ul OpenAI, Sam Altman, a comunicat că a ajuns la un acord cu Departamentul Apărării pentru a-și „deplasa modelele în rețeaua lor clasificată”. Altman a insistat că Pentagonul a arătat „respect profund pentru siguranță” și că în acord au intrat două principii: interdicția supravegherii interne în masă și „responsabilitatea umană” pentru folosirea forței, inclusiv în cazul sistemelor de armament autonome.
De ce ar accepta Pentagonul „linii roșii” de la OpenAI, dar ar lovi Anthropic cu o etichetă aproape nucleară? Rămâne neclar. Dar există o explicație posibilă: administrația are nevoie de un exemplu pentru a disciplina industria, nu neapărat de o soluție tehnică. În acest scenariu, Anthropic devine „cazul” care îi face pe ceilalți să vină la masă mai repede.
Cine pierde, cine câștigă: industria, contractorii, și ideea de „siguranță”
Pe termen scurt, lovitura se propagă în ecosistem: companii mari care folosesc Claude și lucrează cu Pentagonul (sunt menționate Palantir și AWS) trebuie să clarifice ce înseamnă renunțarea la relațiile comerciale cu Anthropic în șase luni și cât de departe se întinde interdicția — doar pe contractele DoD sau pe „orice activitate comercială”, cum a scris Hegseth.
Pe termen mediu, însă, miza e mult mai mare decât Anthropic vs. Trump. Dacă „supply chain risk” devine o armă politică internă, atunci orice companie americană care negociază clauze de utilizare (adică exact ceea ce publicul cere când se teme de abuzuri) riscă să fie pedepsită pentru că… negociază. Un fost oficial DoD, citat de BBC, a numit baza legală a amenințărilor „extrem de subțire” și a sugerat că Anthropic are „avantajul” inclusiv prin PR și prin faptul că „nu are nevoie de bani” — contractul cu Pentagonul fiind de 200 de milioane de dolari, în timp ce compania ar fi evaluată la 380 de miliarde de dolari.
În final, întrebarea care rămâne nu e dacă guvernul SUA va găsi un furnizor de AI. Va găsi. Întrebarea e dacă, în goana după „acces nerestricționat”, Washingtonul împinge industria către o lecție greșită: că siguranța și limitele etice sunt negociabile doar până când devin incomode politic. Iar când limitele dispar, nu dispar doar pentru „ceilalți”. Dispar pentru toți.
Surse: BBC, The Verge, CNBC