Dario Amodei, amministratore delegato di origini italiane a capo di Anthropic, ha risposto all’ultimatum con una lettera che ha già fatto il giro del mondo: “In un insieme ristretto di casi, riteniamo che l’intelligenza artificiale possa minare, anziché difendere, i valori democratici”.

La tensione era iniziata in sordina a gennaio, quando Anthropic aveva posto domande sull’utilizzo di Claude durante l’operazione militare che aveva portato alla cattura del presidente venezuelano Nicolás Maduro. Il Pentagono aveva interpretato quella richiesta come un tentativo di esercitare un veto sulle operazioni belliche, una lettura contestata dall’azienda, che ha dichiarato di aver agito in buona fede. Da quel momento, il braccio di ferro si è intensificato settimana dopo settimana.
Hegseth aveva convocato Amodei al Pentagono minacciando tre mosse: cancellare il contratto, bollare Anthropic come rischio per la sicurezza nazionale, etichetta solitamente riservata a Russia e Cina, mai usata prima contro un’azienda americana, oppure invocare una legge d’emergenza della Guerra di Corea per requisire direttamente la tecnologia. Amodei non ha ceduto, ricordando che in passato l’azienda ha già rinunciato a centinaia di milioni di dollari pur di bloccare l’uso di Claude da parte di aziende legate al Partito Comunista Cinese. La linea etica non è nuova, e non è in vendita.
A sorpresa, è Sam Altman di OpenAI a inserirsi nella disputa: ha annunciato un accordo con il Pentagono che include le stesse esclusioni che Anthropic aveva difeso. “Vorremmo contribuire a ridurre la tensione”, ha scritto in una nota allo staff, preoccupato che lo scontro possa creare un precedente pericoloso per tutta l’industria.
Il paradosso, sottolineato da CNN e Lawfare, è che il Pentagono non vuole davvero perdere Anthropic, vuole usarla alle sue condizioni. Chi decide i limiti dell’intelligenza artificiale in guerra — le aziende o i governi — è la domanda che questa settimana non ha ancora trovato risposta.



