Lo scontro tra [Anthropic](/en/companies/anthropic) e il governo degli Stati Uniti ha raggiunto il punto di rottura. Il 27 febbraio 2026, il presidente Donald Trump ha ordinato a tutte le agenzie federali di cessare immediatamente l'utilizzo della tecnologia di Anthropic — l'azienda dietro Claude. Il motivo: Anthropic ha rifiutato di rimuovere le restrizioni di sicurezza sull'uso militare della sua IA.
Cronologia: Il Conflitto Anthropic vs Pentagono
Il Contratto Originale da 200 Milioni di Dollari
Nell'estate 2025, Anthropic ha firmato un contratto stimato a 200 milioni di dollari con il Dipartimento della Difesa degli Stati Uniti. Claude è stato implementato in diverse agenzie federali, incluso il Pentagono, per compiti di analisi, sintesi e supporto decisionale. Il contratto includeva restrizioni d'uso imposte da Anthropic nell'ambito della sua Responsible Scaling Policy — un quadro etico che regola le applicazioni sensibili della sua IA.
L'Ultimatum del Pentagono (26 febbraio 2026)
Il 26 febbraio 2026, il Pentagono ha consegnato un ultimatum ad Anthropic: rimuovere tutte le restrizioni sull'uso militare di Claude entro le 17:01 ET del giorno successivo, o perdere il contratto. In particolare, il Dipartimento della Difesa ha chiesto ad Anthropic di autorizzare l'uso di Claude per la sorveglianza di massa domestica dei cittadini americani e per sistemi d'arma completamente autonomi — ovvero armi capaci di selezionare e ingaggiare bersagli senza supervisione umana.
Un dettaglio notevole: il Pentagono ha affermato di non aver mai effettivamente considerato queste applicazioni specifiche, ma ha categoricamente rifiutato di proibirle nel contratto.
La Risposta di Anthropic: "Non Possiamo in Buona Coscienza"
Lo stesso giorno, Anthropic ha pubblicamente respinto l'ultimatum. Il CEO Dario Amodei ha rilasciato una dichiarazione inequivocabile:
“Le minacce non cambiano la nostra posizione: non possiamo in buona coscienza accedere alla loro richiesta.”
Anthropic ha chiarito che le sue linee rosse sono non negoziabili: nessuna sorveglianza di massa domestica, nessuna arma autonoma senza controllo umano. L'azienda ha dichiarato di restare disponibile a lavorare con il governo su applicazioni IA responsabili, ma non al prezzo di abbandonare i propri principi di sicurezza.
L'Ordine Esecutivo di Trump (27 febbraio 2026)
Il 27 febbraio 2026, Donald Trump ha ordinato a ogni agenzia federale di cessare immediatamente ogni utilizzo della tecnologia di Anthropic. Su Truth Social, il presidente ha scritto:
“Non ne abbiamo bisogno, non la vogliamo, e non faremo mai più affari con loro!”
Poco dopo, il Segretario alla Difesa Pete Hegseth ha ufficialmente designato Anthropic come "rischio per la catena di approvvigionamento" — una classificazione tipicamente riservata ad aziende sospettate di essere estensioni di avversari stranieri, come alcuni fornitori cinesi. È la prima volta che un'azienda IA americana riceve tale designazione.
Le agenzie governative hanno 6 mesi per completare la transizione dai prodotti Anthropic.
Anthropic Passa alle Vie Legali (28 febbraio 2026)
Il 28 febbraio, Anthropic ha annunciato che contesterà la decisione in tribunale. L'azienda considera la designazione di "rischio per la catena di approvvigionamento" abusiva e sproporzionata, sostenendo che la decisione del Pentagono costituisce una ritorsione contro il legittimo esercizio dei propri diritti contrattuali.
Perché Anthropic Ha Rifiutato: Le Linee Rosse dell'IA
Sorveglianza di Massa Domestica
Anthropic ha rifiutato di permettere l'uso di Claude per la sorveglianza di massa dei cittadini americani sul territorio nazionale. Questo tipo di applicazione solleva questioni fondamentali sulle libertà civili e sul Quarto Emendamento, che protegge contro perquisizioni e sequestri irragionevoli.
Armi Autonome Senza Supervisione Umana
La seconda linea rossa riguarda le armi letali autonome — sistemi capaci di selezionare e ingaggiare bersagli senza intervento umano. È un tema di dibattito globale: numerosi esperti di IA e organizzazioni internazionali sostengono il mantenimento del controllo umano nella catena decisionale letale (il principio human-in-the-loop).
La Responsible Scaling Policy di Anthropic
Sin dalla sua fondazione, Anthropic si è posizionata come un'azienda IA focalizzata sulla sicurezza. La sua Responsible Scaling Policy definisce livelli di rischio (ASL) per i suoi modelli e impone restrizioni d'uso proporzionate. Questa politica è centrale nell'identità di Anthropic e funge da differenziatore chiave rispetto ai concorrenti: Claude è commercializzato come l'IA più sicura e allineata sul mercato.
Conseguenze per l'Industria dell'IA
OpenAI Firma con il Pentagono
In quella che potrebbe essere una coincidenza o un atto di opportunismo, OpenAI — l'azienda dietro ChatGPT — ha annunciato un nuovo contratto con il Pentagono poche ore dopo il bando di Anthropic. La tempistica sottolinea la feroce competizione tra le aziende IA per i contratti governativi, e le divergenti scelte etiche che compiono.
"Rischio per la Catena di Approvvigionamento": Una Designazione Senza Precedenti
La designazione di Anthropic come "rischio per la catena di approvvigionamento" è senza precedenti per un'azienda tecnologica americana. Questa categoria, creata per contrastare le minacce di avversari stranieri (Cina, Russia), viene qui utilizzata contro un'azienda con sede a San Francisco. Esperti legali e analisti della difesa hanno immediatamente sollevato dubbi sulla legalità e proporzionalità di questa misura.
Un Periodo di Transizione di 6 Mesi per le Agenzie Federali
Le agenzie governative hanno tempo fino a fine agosto 2026 per migrare verso soluzioni alternative. Si tratta di una sfida logistica significativa: Claude era integrato in molti flussi di lavoro federali. Le alternative probabili includono i modelli di OpenAI (GPT-4), Gemini di Google e Grok di xAI (di proprietà di Elon Musk).
Cosa Significa per gli Utenti di Claude
Impatto sul Servizio Claude per i Consumatori
Per gli utenti individuali e le aziende private, non cambia nulla. Il bando si applica solo alle agenzie federali statunitensi e ai contractor governativi. Claude resta pienamente disponibile per individui, aziende e sviluppatori tramite claude.ai, l'API e Claude Code.
Claude vs ChatGPT: Una Divergenza Etica
Questa vicenda cristallizza la differenza di posizionamento tra Claude e ChatGPT. Anthropic ha scelto di mantenere i propri principi di sicurezza anche al costo di un contratto da 200 milioni di dollari e di un confronto diretto con il potere esecutivo. OpenAI, nel frattempo, ha colto l'opportunità commerciale. Per gli utenti che danno valore all'etica e alla sicurezza dei propri strumenti IA, questo posizionamento è un fattore significativo nella scelta tra le piattaforme.
Il Futuro di Anthropic Dopo il Bando
Nonostante la perdita del contratto governativo, Anthropic resta in una posizione forte. L'azienda ha raccolto oltre 7 miliardi di dollari, serve milioni di utenti nel mondo, e i suoi modelli Claude sono riconosciuti tra i più capaci sul mercato. La causa contro il Pentagono potrebbe stabilire un importante precedente legale riguardo ai diritti delle aziende IA di fronte alle richieste governative.
A lungo termine, questa vicenda potrebbe effettivamente rafforzare il marchio Anthropic tra gli utenti che danno priorità all'etica e alla sicurezza — in particolare in Europa, dove le normative sull'IA militare sono più rigide.
Domande Frequenti
Questo articolo verrà aggiornato man mano che la situazione si evolve. Ultimo aggiornamento: 28 febbraio 2026.
Fonti e riferimenti
Siti ufficiali e risorse :
- Claude — claude.ai
- anthropic — anthropic.com
- ChatGPT — chat.openai.com
- openai — openai.com
- google — google.com
- Claude Code — docs.anthropic.com
- AI Act — artificialintelligenceact.eu
Consulta le nostre schede dettagliate :
Resta aggiornato sulle novità dell'IA
Ricevi le ultime analisi e confronti direttamente nella tua casella di posta.
Niente spam. Cancellazione in 1 clic.





