Ruptura dintre Washington și Anthropic: O poveste despre AI și limitele utilizării tehnologiei
În februarie 2026, administrația Trump a interzis agențiilor federale să utilizeze tehnologia Anthropic, invocând îngrijorări legate de securitate. Decizia, catalogată inițial drept o măsură drastică, a scos la iveală tensiuni profunde între compania de inteligență artificială și Departamentul Apărării, legate de limitele impuse de Anthropic asupra utilizării modelelor sale AI. Conflictul evidențiază complexitatea integrării AI în operațiunile militare și dilemele etice asociate.
Controverse legate de securitate și utilizare
Disputa a pornit de la refuzul Anthropic de a elimina anumite restricții de siguranță din sistemele sale AI. Mai exact, compania nu a dorit să renunțe la garanțiile care ar fi împiedicat utilizarea modelului pentru țintirea autonomă a armelor și pentru supraveghere internă în SUA. Din perspectiva companiei, aceste limite erau menite să delimiteze utilizarea legitimă a AI de scenariile potențial periculoase. Administrația Trump și conducerea Pentagonului au interpretat aceste condiții drept o încercare a companiei de a dicta regulile operaționale ale armatei.
Ordinul de interzicere nu a însemnat o deconectare instantanee. O perioadă de tranziție de șase luni a fost prevăzută pentru instituțiile care utilizau deja produsele Anthropic. Această abordare graduală reflectă dificultățile practice implicate în înlocuirea tehnologiilor integrate în rețele complexe.
Utilizarea continuă a AI chiar și după interdicție
Contradicția a ieșit la iveală la scurt timp după anunțul interdicției. Instrumentele Anthropic au fost folosite de armata americană în contextul loviturilor asupra Iranului la doar câteva ore după anunțul politic al lui Trump. Modelul Claude a fost utilizat pentru sarcini precum analiză de informații, sprijin în selecția țintelor și simulări de scenarii operaționale. Această aparentă discrepanță subliniază dependența tot mai mare a aparatului de stat de instrumentele software, chiar și în contextul unor rezerve politice.
Pe de altă parte, până recent, Anthropic era singurul furnizor de modele lingvistice mari prezent pe anumite rețele clasificate ale Pentagonului. Înlocuirea rapidă a lui Claude nu era realistă. Experții au estimat că ar putea dura luni până când alte modele vor substitui complet serviciile Anthropic în agențiile federale.
Noi parteneriate și implicații viitoare
Retragerea Anthropic din ecosistemul federal nu înseamnă renunțarea la AI de către Pentagon, ci o reorientare a strategiilor. OpenAI a încheiat deja un acord pentru implementarea modelelor sale pe rețele clasificate ale Departamentului de Război, iar xAI a fost, de asemenea, adusă în discuție.
În același timp, OpenAI a detaliat „linii roșii” pentru contractul cu Pentagonul, inclusiv interdicții privind supravegherea internă în masă, țintirea autonomă a armelor și deciziile critice complet automatizate. Anthropic a anunțat că va contesta în instanță desemnarea sa drept risc pentru lanțul de aprovizionare, ceea ce ar putea transforma disputa dintr-un conflict politic într-un precedent juridic major pentru întreaga industrie AI.
Compania de inteligență artificială Anthropic a anunțat recent că va contesta în instanță decizia guvernului de a-i interzice utilizarea tehnologiei, deschizând calea unei posibile bătălii juridice cu implicații majore pentru viitorul AI în sectorul guvernamental.

Fii primul care comentează