L’IA va in guerra: OpenAI, Anthropic e il Pentagono si scontrano sui paletti di sicurezza
OpenAI e Anthropic vogliono entrambe un ruolo nella sicurezza nazionale. La spaccatura è arrivata quando la discussione si è spostata dalla vendita di modelli potenti alla decisione su chi controlla i paletti di sicurezza dell’IA militare, i limiti alla sorveglianza e le regole sulle armi autonome.
Per anni, i principali laboratori di IA si sono presentati come costruttori di strumenti per il lavoro, la ricerca e la vita quotidiana. Nel 2026, quell’immagine si è scontrata con una realtà più dura. Anthropic ha intentato causa dopo che il Pentagono l’ha etichettata come un “rischio per la catena di approvvigionamento” a causa dei limiti che l’azienda voleva mantenere sull’uso militare di Claude. Nello stesso periodo, OpenAI ha annunciato un accordo per distribuire i suoi modelli su reti classificate del Pentagono e ha affermato che l’intesa includeva rigide linee rosse. Ciò ha trasformato una questione di policy silenziosa in un conflitto pubblico su etica dell’IA militare, sorveglianza di massa interna e su chi ha l’ultima parola quando le promesse di sicurezza si scontrano con il potere dello Stato.
Entrambe le aziende sono già coinvolte in progetti del governo USA e di sicurezza nazionale, e continuano a descrivere la sicurezza come centrale per la loro identità. Quindi non è una semplice storia di un laboratorio prudente e uno aggressivo. È la storia di due aziende che vogliono entrambe affari con la difesa pur dissentendo su quanta parte del controllo una società privata dovrebbe mantenere una volta che la sua IA entra nei sistemi militari.
Cosa significano i guardrail nell’IA militare
In questo dibattito, “guardrail” include ciò che il modello rifiuta di fare, ciò che il contratto consente, dove può essere eseguito il sistema, se gli esseri umani devono approvare azioni sensibili, chi può verificare l’uso e se il fornitore può interrompere la distribuzione se le regole vengono infrante.
Un’azienda può dire che vieta usi dannosi, ma la vera domanda è come funziona quel divieto sotto pressione. Il limite è scritto nel contratto? È applicato dal modello stesso? Il governo interpreta la regola in tempo reale, oppure il fornitore mantiene comunque un potere di veto?
Una volta che l’IA viene usata per analisi d’intelligence, operazioni cyber, pianificazione operativa o sistemi collegati all’uso della forza, un linguaggio di sicurezza vago smette di sembrare astratto. Diventa un problema di controllo.
Come OpenAI si è avvicinata al Pentagono
La svolta di OpenAI verso la difesa divenne visibile all’inizio del 2024, quando l’azienda rimosse dal proprio linguaggio di policy il precedente divieto generale di uso per “military and warfare”. OpenAI disse che continuava a vietare gli usi che danneggiano le persone, sviluppano armi o abilitano la sorveglianza, ma il cambiamento creò chiaramente spazio per lavori di sicurezza nazionale approvati.
Entro giugno 2025, quel cambio divenne ufficiale. OpenAI lanciò “OpenAI for Government” e annunciò un progetto pilota con il Pentagono attraverso il Chief Digital and Artificial Intelligence Office, o CDAO. L’azienda descrisse i primi casi d’uso come funzioni di supporto quali sanità, dati per gli acquisti e difesa cyber.
OpenAI stava ora lavorando apertamente come appaltatore del Pentagono.
Anche Anthropic è entrata nell’IA per la difesa
Anthropic seguì un percorso simile, motivo per cui il conflitto successivo colse molti di sorpresa. Nel giugno 2025, l’azienda introdusse i modelli “Claude Gov” progettati per clienti della sicurezza nazionale statunitense. Anthropic disse che quei modelli operavano già in ambienti classificati ed erano stati adattati alle esigenze del governo.
Un mese dopo, Anthropic annunciò un proprio accordo di prototipazione da 200 milioni di dollari con il Pentagono. L’azienda disse che Claude stava aiutando organizzazioni della difesa e dell’intelligence a elaborare e analizzare dati complessi, anche in flussi di missione classificati. Nell’agosto 2025, Anthropic rafforzò ulteriormente quella posizione creando un National Security and Public Sector Advisory Council composto da alti esponenti della difesa e dell’intelligence.
Dunque, nel 2026 la domanda chiave non era mai se Anthropic dovesse lavorare con il Pentagono. La risposta era già sì. La domanda più difficile era quali usi esatti avrebbe continuato a rifiutare.
Perché la politica del Pentagono sull’IA è diventata più aggressiva
Alla fine del 2024, il CDAO e la Defense Innovation Unit lanciarono una nuova AI Rapid Capabilities Cell per accelerare l’adozione di modelli di frontiera nelle missioni di combattimento e aziendali. L’elenco dei possibili impieghi era ampio: comando e controllo, supporto alle decisioni, pianificazione operativa, sviluppo e test di armi, sistemi autonomi, intelligence, operazioni cyber e logistica.
Quella urgenza divenne ancora più chiara nel gennaio 2026, quando la strategia sull’IA del Pentagono invitò il dipartimento a diventare una forza combattente “AI-first”. Il memo spingeva per avere accesso ai modelli più recenti entro 30 giorni dalla loro uscita pubblica e promuoveva nei contratti un linguaggio di “qualsiasi uso lecito”.
Il Pentagono aveva regole etiche, ma la velocità ha cambiato l’equilibrio
Il Dipartimento della Difesa ha principi etici ufficiali sull’IA dal 2020: responsabile, equa, tracciabile, affidabile e governabile. Ha inoltre aggiornato nel 2023 la direttiva sulle armi autonome per affermare che tali sistemi devono consentire un appropriato giudizio umano sull’uso della forza.
Sulla carta, sono limiti seri. Ma la strategia del 2026 ha spinto verso una più rapida implementazione, meno ostacoli e una maggiore flessibilità operativa.
Questo aiuta a spiegare perché i contratti sono diventati così importanti. Quando il diritto pubblico resta ampio, il contratto diventa il vero terreno di scontro. Un’azienda può decidere se vuole limiti extra oltre a ciò che il governo considera già legale. Il Pentagono può decidere se quei limiti siano misure di sicurezza responsabili o restrizioni inaccettabili.
È in questo spazio che OpenAI e Anthropic si sono divise.
La rottura del 2026: Anthropic dice no
Anthropic chiarì molto la sua posizione nel febbraio 2026. L’amministratore delegato Dario Amodei disse che l’IA è importante per difendere gli Stati Uniti e i loro alleati, e sottolineò che Anthropic aveva già lavorato con il Pentagono e la comunità d’intelligence. Affermò che Claude veniva usato per analisi d’intelligence, modellazione e simulazione, pianificazione operativa e attività cyber.
Ma aggiunse anche che Anthropic non avrebbe rimosso due eccezioni circoscritte: sorveglianza di massa interna e armi completamente autonome.
Sulla sorveglianza, Anthropic sostenne che l’IA può trasformare dati commerciali e pubblici dispersi in profili a livello di popolazione su vasta scala. Sulle armi autonome, sostenne che gli attuali modelli di frontiera non sono abbastanza affidabili per un targeting di vita o di morte senza esseri umani nel circuito.
Reuters riportò che il Pentagono disse di non volere l’IA per la sorveglianza di massa degli americani né per armi completamente autonome, ma insistette comunque sul fatto che i militari dovrebbero poter usare questi modelli per tutti gli scopi leciti. Sembra un piccolo scarto di formulazione. In pratica, è uno scarto di governance.
Anthropic voleva linee rosse esplicite a livello di fornitore. Il Pentagono voleva il diritto di interpretare autonomamente l’uso lecito. Quando Anthropic rifiutò di abbandonare le sue restrizioni, il conflitto è sfociato nell’inserimento in una lista nera e poi in una causa.
OpenAI dice sì, ma a condizioni diverse
Nel suo annuncio di febbraio 2026, l’azienda disse che il suo accordo con il Pentagono includeva tre grandi linee rosse: niente sorveglianza di massa interna, niente direzione di sistemi d’arma autonomi e niente decisioni automatizzate ad alto impatto.
OpenAI disse anche che l’accordo era solo in cloud, il che significa che l’azienda avrebbe mantenuto il controllo dello stack di sicurezza invece di consegnare modelli senza restrizioni. Aggiunse che personale OpenAI con nulla osta di sicurezza sarebbe rimasto nel circuito e che l’intesa si basava sulla legge vigente e sulle policy del Pentagono.
La posizione di OpenAI era ambiziosa. Affermò che il suo patto aveva più guardrail rispetto ai precedenti accordi classificati sull’IA, incluso quello di Anthropic, e allo stesso tempo dichiarò che Anthropic non doveva essere etichettata come rischio per la catena di approvvigionamento.
Perché i critici dubitano ancora dei guardrail di OpenAI
I critici non sono pienamente convinti. Alcuni analisti legali sostengono che Anthropic volesse divieti contrattuali espliciti che l’azienda stessa potesse far rispettare, mentre l’accordo di OpenAI lega restrizioni chiave al diritto vigente e alle policy del Pentagono. In quel modello, il governo mantiene gran parte del potere interpretativo in tempo reale.
Anche i gruppi per le libertà civili sostengono che termini come “deliberato”, “intenzionale” o “non vincolato” possano essere interpretati in modo troppo ampio, soprattutto nei contesti di sorveglianza in cui i governi spesso affermano che la raccolta è legalmente autorizzata o solo incidentale.
Il loro punto più ampio è difficile da ignorare: i diritti fondamentali alla privacy non dovrebbero dipendere da negoziazioni private tra grandi aziende di IA e lo stato della sicurezza nazionale.
Perché questa disputa conta oltre la difesa
Primo, le stesse aziende che costruiscono versioni per la sicurezza nazionale dei loro modelli plasmano anche il mercato dell’IA per i consumatori. La fiducia del pubblico dipende in parte dal fatto che tali aziende mantengano confini significativi attorno a sorveglianza e uso della forza.
Secondo, la disputa rivela un problema più profondo: alcune delle decisioni più importanti sui guardrail dell’IA in guerra vengono prese tramite contratti e annunci aziendali, non tramite un diritto pubblico chiaro.
C’è anche una dimensione competitiva. Nel 2025, OpenAI ha ottenuto un proprio accordo di prototipazione da 200 milioni di dollari, e riconoscimenti simili sono andati ad Anthropic, Google Public Sector e AIQ Phase, un’entità collegata a xAI. Ciò significa che la questione è più grande di una singola azienda. L’esito legale e politico potrebbe plasmare il modo in cui diversi fornitori di IA di frontiera lavorano con i militari statunitensi e i governi alleati.
Cosa succede adesso
Nel breve termine, la battaglia legale metterà alla prova se il Pentagono possa usare i poteri sul rischio della catena di approvvigionamento contro un fornitore di IA a causa dei guardrail contrattuali. Questo sta già raccogliendo un sostegno più ampio nel settore tech, perché molti lo vedono come un test per capire se un’azienda possa negoziare limiti con il governo senza subire ritorsioni.
Nel lungo termine, la risposta migliore probabilmente non verrà dal solo contratto di OpenAI né dal solo rifiuto di Anthropic. Serviranno regole pubbliche più forti: limiti più chiari sulla sorveglianza, standard più chiari per il controllo umano nei sistemi d’arma, audit migliori e una rendicontazione migliore.
Il Pentagono afferma di volere un’IA responsabile, affidabile e governabile. OpenAI e Anthropic dicono entrambe di sostenere una diffusione sicura e responsabile in ambito di sicurezza nazionale. La parte difficile è trasformare quelle parole in limiti che reggano ancora quando velocità, segretezza e pressione militare sono al massimo.
Al momento, questa è la vera disputa.