
Un judecător federal a împiedicat Pentagonul să eticheteze Anthropic drept risc pentru lanțul de aprovizionare, hotărând joi că campania guvernului împotriva companiei de inteligență artificială a încălcat drepturile acesteia privind Primul Amendament și procesul echitabil.
Judecătoarea federală Rita Lin a emis o decizie preliminară din Districtul de Nord al Californiei, la două zile după ce a ascultat argumentele orale ale ambelor părți, într-un caz despre care observatorii spun că a fost inevitabil din cauza propriei documentații guvernamentale.
"Nimic din statutul în vigoare nu susține noțiunea orwelliană conform căreia o companie americană poate fi etichetată drept potențial adversar și sabotor al SUA pentru că și-a exprimat dezacordul cu guvernul," a scris judecătoarea Lin.
Dosarul intern a fost fatal pentru cazul guvernului, potrivit lui Andrew Rossow, avocat în afaceri publice și CEO al AR Media Consulting, care a declarat pentru Decrypt că desemnarea a fost „declanșată de conduita presei, nu de o analiză de securitate”.
"Guvernul și-a consemnat practic propriul motiv, iar acesta a fost răzbunarea," a spus Rossow.
Disputa se axează pe un contract pe doi ani, în valoare de 200 de milioane de dolari, acordat Anthropic în iulie 2025 de către Oficiul Șef de Digitalizare și Inteligență Artificială al Departamentului de Război.
Negocierile pentru implementarea Claude pe platforma GenAI.Mil a departamentului au eșuat după ce cele două părți nu au reușit să ajungă la un acord privind restricțiile de utilizare.
Anthropic a insistat asupra a două condiții: ca modelul Claude să nu fie folosit pentru supraveghere în masă a americanilor sau pentru utilizare letală în războaie autonome, argumentând că modelul nu era încă sigur pentru niciunul dintre aceste scopuri.
La o întâlnire din 24 februarie, Secretarul de Război Pete Hegseth a declarat reprezentanților Anthropic că, dacă compania nu își va retrage restricțiile până pe 27 februarie, departamentul o va desemna imediat ca risc pentru lanțul de aprovizionare.
Anthropic a refuzat să se conformeze.
În aceeași zi, Președintele Trump a postat o directivă pe Truth Social, ordonând fiecărei agenții federale să „oprească imediat” utilizarea tehnologiei companiei, numind Anthropic o „companie de stânga radicală, woke”.
La puțin peste o oră mai târziu, Hegseth a descris poziția Anthropic drept o „lecție de aroganță și trădare”, ordonând ca niciun contractor care desfășoară afaceri cu armata să nu poată efectua activități comerciale cu firma. Desemnarea formală ca risc pentru lanțul de aprovizionare a fost urmată de o scrisoare pe 3 martie.
Anthropic a dat în judecată guvernul pe 9 martie, invocând încălcări ale Primului Amendament, ale procesului echitabil și ale Legii Procedurii Administrative.
„Pedepsirea Anthropic pentru aducerea în atenția publicului a poziției guvernamentale privind contractele reprezintă o retaliație clasică ilegală a Primului Amendament”, a scris judecătoarea Lin în ordinul de joi.
Ordinul, care a fost suspendat pentru șapte zile, blochează toate cele trei acțiuni guvernamentale, solicită un raport de conformitate până pe 6 aprilie și restabilește status quo-ul anterior evenimentelor din 27 februarie.
Desemnarea ca „risc pentru lanțul de aprovizionare” a fost istoric rezervată agențiilor de informații străine, teroriștilor și altor actori ostili.
Nu fusese niciodată aplicată unei companii naționale înainte de Anthropic. Contractorii din domeniul apărării au început să evalueze și, în multe cazuri, să-și înceteze dependența de Anthropic în săptămânile următoare, a remarcat ordinul judecătoarei Lin.
Iar poziția guvernului ar putea avea consecințe neprevăzute, susțin experții.
Într-adevăr, decizia de joi ar putea determina companiile de AI „să formalizeze măsuri de siguranță etice atunci când lucrează cu guvernele”, a declarat pentru Decrypt Pichapen Prateepavanich, strateg de politici și fondator al firmei de infrastructură Gather Beyond.
Într-o anumită măsură, decizia sugerează, de asemenea, că firmele „pot stabili limite clare de utilizare fără a declanșa automat acțiuni punitive de reglementare”, a spus ea.
Dar acest lucru „nu elimină tensiunea”, a adăugat ea. Ceea ce limitează decizia este „capacitatea de a escalada acest dezacord într-o excludere mai amplă sau o etichetare care pare a fi o retaliație”.
Totuși, aplicarea autorității statutare actuale pentru desemnarea unei companii ca risc pentru lanțul de aprovizionare „pentru că a refuzat să elimine măsurile de siguranță” nu este o extindere a legii privind riscul lanțului de aprovizionare, a explicat Rossow. În schimb, aceasta funcționează ca o „instrumentalizare” a legii.
„Aceasta face parte dintr-un tipar de comportament continuu al Casei Albe ori de câte ori este contestată, ducând la amenințări disproporționate, emoționale și părtinitoare, și la extorcare guvernamentală”, a adăugat el.
Dacă „teoria” guvernului este acceptată, ar crea un precedent „periculos” prin care firmele de AI pot fi trecute pe lista neagră pentru politici de siguranță pe care guvernul nu le agreează, „înainte de a se produce vreun prejudiciu”, fără proces echitabil, sub stindardul securității naționale, a spus Rossow.