Close Menu
  • Ambiente
    • Animali
  • Attualità
  • Cultura
    • Misteri
    • Storia
  • Lifestyle
    • Bellezza
    • Cibo
    • Moda
    • Sesso
    • Viaggi
  • Salute
    • Scienza
  • Spettacolo
  • Sport
  • Web
CultWeb.it
  • Ambiente
    • Animali
  • Attualità
  • Cultura
    • Misteri
    • Storia
  • Lifestyle
    • Bellezza
    • Cibo
    • Moda
    • Sesso
    • Viaggi
  • Salute
    • Scienza
  • Spettacolo
  • Sport
  • Web
CultWeb.it
Home » Attualità » Il Pentagono la considera un rischio per la sicurezza? Anthropic non ci sta e gli fa causa

Il Pentagono la considera un rischio per la sicurezza? Anthropic non ci sta e gli fa causa

Anthropic porta in tribunale il Pentagono: il maker di Claude rifiuta di rimuovere i limiti sull'IA militare e ora sfida l'amministrazione Trump in California.
RedazioneDi Redazione9 Marzo 2026
Facebook WhatsApp Twitter Telegram
persona che lavora al computer
persona che lavora al computer (fonte: Unsplash)

Il maker di Claude porta in tribunale l’amministrazione Trump dopo essere stato bollato come rischio per la sicurezza nazionale degli Stati Uniti. In gioco ci sono centinaia di milioni di dollari, il futuro dell’IA militare e un precedente che preoccupa tutto il settore tech.

Per la prima volta, un’azienda tech statunitense è stata trattata come un avversario straniero dal proprio governo. E ha deciso di rispondergli davanti a un giudice. “Queste azioni sono senza precedenti e illegali. La Costituzione non consente al governo di esercitare il suo enorme potere per punire un’azienda per la sua libertà di parola”, si legge in una nota dell’azienda.

Anthropic, la startup di San Francisco creatrice del modello di linguaggio Claude, ha depositato due ricorsi federali, uno in California, l’altro nel D.C. Circuit Court of Appeals, per bloccare la designazione che il segretario alla Difesa Pete Hegseth ha formalmente emesso lo scorso 4 marzo: supply chain risk, cioè rischio per la catena di approvvigionamento nazionale. Una misura storicamente riservata a colossi cinesi come Huawei, mai applicata a un’impresa americana.

rappresentazione grafica intelligenza artificiale
rappresentazione grafica intelligenza artificiale (FreePik)

Alla radice dello scontro ci sono due richieste che il Pentagono ha formulato con crescente insistenza nel corso di mesi di negoziati riservati: accesso illimitato a Claude per qualsiasi uso legale, incluse operazioni con armi completamente autonome e programmi di sorveglianza di massa dei cittadini americani. Anthropic ha risposto con un no netto su entrambi i fronti, sostenendo che i modelli linguistici attuali non siano abbastanza affidabili per gestire sistemi d’arma senza supervisione umana, e che la sorveglianza di massa violerebbe diritti fondamentali.

Claude è oggi l’unico modello di intelligenza artificiale operativo nei sistemi classificati dell’esercito americano: era stato impiegato, tramite una partnership con Palantir, nell’operazione per catturare il presidente venezuelano Nicolás Maduro. Questo non ha impedito al Pentagono di procedere con la designazione punitiva dopo che i colloqui sono naufragati.

A complicare il quadro, il Wall Street Journal aveva rivelato che Claude sarebbe stato utilizzato anche durante le operazioni militari in Iran, lanciate però subito dopo il divieto imposto dallo stesso Hegseth di usare gli strumenti Anthropic. Una contraddizione che il ceo Dario Amodei, in un memo interno trapelato alla stampa, ha attribuito anche al fatto che la sua azienda non ha elargito elogi da dittatore a Trump.

Anthropic ha chiarito che la designazione riguarda esclusivamente i contractor che usano Claude su commesse del Dipartimento della Difesa: chiunque utilizzi Claude.ai, l’API o qualsiasi prodotto commerciale dell’azienda non è interessato dal provvedimento. Ma l’impatto reputazionale e finanziario è tutt’altro che trascurabile: la causa parla di centinaia di milioni di dollari di ricavi a rischio.

L’esito del caso avrà conseguenze che vanno ben oltre Anthropic. La sentenza potrebbe definire per tutti i produttori di IA i margini entro cui è possibile negoziare con il governo americano senza perdere l’accesso al mercato federale. Intanto il ceo di OpenAI, Sam Altman, ha dichiarato che il trattamento riservato ad Anthropic costituisce uno spaventoso precedente, pur avendo concluso, quasi in contemporanea, un accordo con lo stesso Pentagono.

 

Condividi. Facebook WhatsApp Twitter Telegram Email

Potrebbero interessarti anche

Post Romina Power

“L’unico errore? Aver scelto l’Italia”: Romina Power difende la famiglia nel bosco, i giudici chiariscono

9 Marzo 2026
grafico di crisi economica

Cos’è la stagflazione e perché ora può essere un pericolo per tutti: l’Europa ha scorte d’energia per 90 giorni

9 Marzo 2026
Un mazzo di chiavi di casa

Guerra in Iran e mutui: ecco chi rischia di pagare rate più alte nei prossimi mesi

9 Marzo 2026
Facebook X (Twitter) Instagram
  • Home
  • Chi siamo
  • Staff e redazione
  • Contatti
  • Disclaimer
  • Cookie Policy
  • Privacy Policy
© 2026 CultWeb.it proprietà di Digital Dreams s.r.l. - Partita IVA: 11885930963 - Sede legale: Via Alberico Albricci 8, 20122 Milano Italy - [email protected] | Foto Credits: DepositPhotos

Questo blog non è una testata giornalistica, in quanto viene aggiornato senza alcuna periodicità. Non può pertanto considerarsi un prodotto editoriale ai sensi della legge n. 62 del 07.03.2001

Digita qui sopra e premi Enter per cercare. Premi Esc per annullare.