Il maker di Claude porta in tribunale l’amministrazione Trump dopo essere stato bollato come rischio per la sicurezza nazionale degli Stati Uniti. In gioco ci sono centinaia di milioni di dollari, il futuro dell’IA militare e un precedente che preoccupa tutto il settore tech.
Per la prima volta, un’azienda tech statunitense è stata trattata come un avversario straniero dal proprio governo. E ha deciso di rispondergli davanti a un giudice. “Queste azioni sono senza precedenti e illegali. La Costituzione non consente al governo di esercitare il suo enorme potere per punire un’azienda per la sua libertà di parola”, si legge in una nota dell’azienda.
Anthropic, la startup di San Francisco creatrice del modello di linguaggio Claude, ha depositato due ricorsi federali, uno in California, l’altro nel D.C. Circuit Court of Appeals, per bloccare la designazione che il segretario alla Difesa Pete Hegseth ha formalmente emesso lo scorso 4 marzo: supply chain risk, cioè rischio per la catena di approvvigionamento nazionale. Una misura storicamente riservata a colossi cinesi come Huawei, mai applicata a un’impresa americana.

Alla radice dello scontro ci sono due richieste che il Pentagono ha formulato con crescente insistenza nel corso di mesi di negoziati riservati: accesso illimitato a Claude per qualsiasi uso legale, incluse operazioni con armi completamente autonome e programmi di sorveglianza di massa dei cittadini americani. Anthropic ha risposto con un no netto su entrambi i fronti, sostenendo che i modelli linguistici attuali non siano abbastanza affidabili per gestire sistemi d’arma senza supervisione umana, e che la sorveglianza di massa violerebbe diritti fondamentali.
Claude è oggi l’unico modello di intelligenza artificiale operativo nei sistemi classificati dell’esercito americano: era stato impiegato, tramite una partnership con Palantir, nell’operazione per catturare il presidente venezuelano Nicolás Maduro. Questo non ha impedito al Pentagono di procedere con la designazione punitiva dopo che i colloqui sono naufragati.
A complicare il quadro, il Wall Street Journal aveva rivelato che Claude sarebbe stato utilizzato anche durante le operazioni militari in Iran, lanciate però subito dopo il divieto imposto dallo stesso Hegseth di usare gli strumenti Anthropic. Una contraddizione che il ceo Dario Amodei, in un memo interno trapelato alla stampa, ha attribuito anche al fatto che la sua azienda non ha elargito elogi da dittatore a Trump.
Anthropic ha chiarito che la designazione riguarda esclusivamente i contractor che usano Claude su commesse del Dipartimento della Difesa: chiunque utilizzi Claude.ai, l’API o qualsiasi prodotto commerciale dell’azienda non è interessato dal provvedimento. Ma l’impatto reputazionale e finanziario è tutt’altro che trascurabile: la causa parla di centinaia di milioni di dollari di ricavi a rischio.
L’esito del caso avrà conseguenze che vanno ben oltre Anthropic. La sentenza potrebbe definire per tutti i produttori di IA i margini entro cui è possibile negoziare con il governo americano senza perdere l’accesso al mercato federale. Intanto il ceo di OpenAI, Sam Altman, ha dichiarato che il trattamento riservato ad Anthropic costituisce uno spaventoso precedente, pur avendo concluso, quasi in contemporanea, un accordo con lo stesso Pentagono.



