Close Menu
  • Ambiente
    • Animali
  • Attualità
  • Cultura
    • Misteri
    • Storia
  • Lifestyle
    • Bellezza
    • Cibo
    • Moda
    • Sesso
    • Viaggi
  • Salute
    • Scienza
  • Spettacolo
  • Sport
  • Web
CultWeb.it
  • Ambiente
    • Animali
  • Attualità
  • Cultura
    • Misteri
    • Storia
  • Lifestyle
    • Bellezza
    • Cibo
    • Moda
    • Sesso
    • Viaggi
  • Salute
    • Scienza
  • Spettacolo
  • Sport
  • Web
CultWeb.it
Home » Attualità » Il Pentagono la considera un rischio per la sicurezza? Anthropic non ci sta e gli fa causa

Il Pentagono la considera un rischio per la sicurezza? Anthropic non ci sta e gli fa causa

Anthropic porta in tribunale il Pentagono: il maker di Claude rifiuta di rimuovere i limiti sull'IA militare e ora sfida l'amministrazione Trump in California.
RedazioneDi Redazione9 Marzo 2026
Facebook WhatsApp Twitter Telegram
persona che lavora al computer
persona che lavora al computer (fonte: Unsplash)

Il maker di Claude porta in tribunale l’amministrazione Trump dopo essere stato bollato come rischio per la sicurezza nazionale degli Stati Uniti. In gioco ci sono centinaia di milioni di dollari, il futuro dell’IA militare e un precedente che preoccupa tutto il settore tech.

Per la prima volta, un’azienda tech statunitense è stata trattata come un avversario straniero dal proprio governo. E ha deciso di rispondergli davanti a un giudice. “Queste azioni sono senza precedenti e illegali. La Costituzione non consente al governo di esercitare il suo enorme potere per punire un’azienda per la sua libertà di parola”, si legge in una nota dell’azienda.

Anthropic, la startup di San Francisco creatrice del modello di linguaggio Claude, ha depositato due ricorsi federali, uno in California, l’altro nel D.C. Circuit Court of Appeals, per bloccare la designazione che il segretario alla Difesa Pete Hegseth ha formalmente emesso lo scorso 4 marzo: supply chain risk, cioè rischio per la catena di approvvigionamento nazionale. Una misura storicamente riservata a colossi cinesi come Huawei, mai applicata a un’impresa americana.

rappresentazione grafica intelligenza artificiale
rappresentazione grafica intelligenza artificiale (FreePik)

Alla radice dello scontro ci sono due richieste che il Pentagono ha formulato con crescente insistenza nel corso di mesi di negoziati riservati: accesso illimitato a Claude per qualsiasi uso legale, incluse operazioni con armi completamente autonome e programmi di sorveglianza di massa dei cittadini americani. Anthropic ha risposto con un no netto su entrambi i fronti, sostenendo che i modelli linguistici attuali non siano abbastanza affidabili per gestire sistemi d’arma senza supervisione umana, e che la sorveglianza di massa violerebbe diritti fondamentali.

Claude è oggi l’unico modello di intelligenza artificiale operativo nei sistemi classificati dell’esercito americano: era stato impiegato, tramite una partnership con Palantir, nell’operazione per catturare il presidente venezuelano Nicolás Maduro. Questo non ha impedito al Pentagono di procedere con la designazione punitiva dopo che i colloqui sono naufragati.

A complicare il quadro, il Wall Street Journal aveva rivelato che Claude sarebbe stato utilizzato anche durante le operazioni militari in Iran, lanciate però subito dopo il divieto imposto dallo stesso Hegseth di usare gli strumenti Anthropic. Una contraddizione che il ceo Dario Amodei, in un memo interno trapelato alla stampa, ha attribuito anche al fatto che la sua azienda non ha elargito elogi da dittatore a Trump.

Anthropic ha chiarito che la designazione riguarda esclusivamente i contractor che usano Claude su commesse del Dipartimento della Difesa: chiunque utilizzi Claude.ai, l’API o qualsiasi prodotto commerciale dell’azienda non è interessato dal provvedimento. Ma l’impatto reputazionale e finanziario è tutt’altro che trascurabile: la causa parla di centinaia di milioni di dollari di ricavi a rischio.

L’esito del caso avrà conseguenze che vanno ben oltre Anthropic. La sentenza potrebbe definire per tutti i produttori di IA i margini entro cui è possibile negoziare con il governo americano senza perdere l’accesso al mercato federale. Intanto il ceo di OpenAI, Sam Altman, ha dichiarato che il trattamento riservato ad Anthropic costituisce uno spaventoso precedente, pur avendo concluso, quasi in contemporanea, un accordo con lo stesso Pentagono.

 

Condividi. Facebook WhatsApp Twitter Telegram Email

Potrebbero interessarti anche

Gli astronauti di Artemis II

Artemis II, la playlist degli astronauti: le canzoni per svegliarsi a 406.000 km dalla Terra

10 Aprile 2026
Fedez e Giulia Honegger all'ultimo Sanremo

Fedez presto papà per la terza volta: Giulia Honegger è incinta, l’annuncio su Instagram

10 Aprile 2026
La navicella Orion della missione Artemis 2

Artemis II torna sulla Terra: perché ci saranno 6 minuti di silenzio radio nel rientro

10 Aprile 2026
Facebook X (Twitter) Instagram
  • Home
  • Chi siamo
  • Staff e redazione
  • Contatti
  • Disclaimer
  • Cookie Policy
  • Privacy Policy
© 2026 CultWeb.it proprietà di Digital Dreams s.r.l. - Partita IVA: 11885930963 - Sede legale: Via Alberico Albricci 8, 20122 Milano Italy - [email protected] | Foto Credits: DepositPhotos

Questo blog non è una testata giornalistica, in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 07.03.2001

Digita qui sopra e premi Enter per cercare. Premi Esc per annullare.