L’IA va in guerra: OpenAI, Anthropic e il Pentagono si scontrano sui paletti di sicurezza L’IA va in guerra: OpenAI, Anthropic e il Pentagono si scontrano sui paletti di sicurezza

OpenAI e Anthropic vogliono entrambe un ruolo nella sicurezza nazionale. La spaccatura è arrivata quando la discussione si è spostata dalla vendita di modelli potenti alla decisione su chi controlla i paletti di sicurezza dell’IA militare, i limiti alla sorveglianza e le regole sulle armi autonome.

Per anni, i principali laboratori di IA si sono presentati come costruttori di strumenti per il lavoro, la ricerca e la vita quotidiana. Nel 2026, quell’immagine si è scontrata con una realtà più dura. Anthropic ha intentato causa dopo che il Pentagono l’ha etichettata come un “rischio per la catena di approvvigionamento” a causa dei limiti che l’azienda voleva mantenere sull’uso militare di Claude. Nello stesso periodo, OpenAI ha annunciato un accordo per distribuire i suoi modelli su reti classificate del Pentagono e ha affermato che l’intesa includeva rigide linee rosse. Ciò ha trasformato una questione di policy silenziosa in un conflitto pubblico su etica dell’IA militare, sorveglianza di massa interna e su chi ha l’ultima parola quando le promesse di sicurezza si scontrano con il potere dello Stato.

Entrambe le aziende sono già coinvolte in progetti del governo USA e di sicurezza nazionale, e continuano a descrivere la sicurezza come centrale per la loro identità. Quindi non è una semplice storia di un laboratorio prudente e uno aggressivo. È la storia di due aziende che vogliono entrambe affari con la difesa pur dissentendo su quanta parte del controllo una società privata dovrebbe mantenere una volta che la sua IA entra nei sistemi militari.

Cosa significano i guardrail nell’IA militare

In questo dibattito, “guardrail” include ciò che il modello rifiuta di fare, ciò che il contratto consente, dove può essere eseguito il sistema, se gli esseri umani devono approvare azioni sensibili, chi può verificare l’uso e se il fornitore può interrompere la distribuzione se le regole vengono infrante.

Un’azienda può dire che vieta usi dannosi, ma la vera domanda è come funziona quel divieto sotto pressione. Il limite è scritto nel contratto? È applicato dal modello stesso? Il governo interpreta la regola in tempo reale, oppure il fornitore mantiene comunque un potere di veto?

Una volta che l’IA viene usata per analisi d’intelligence, operazioni cyber, pianificazione operativa o sistemi collegati all’uso della forza, un linguaggio di sicurezza vago smette di sembrare astratto. Diventa un problema di controllo.

Come OpenAI si è avvicinata al Pentagono

La svolta di OpenAI verso la difesa divenne visibile all’inizio del 2024, quando l’azienda rimosse dal proprio linguaggio di policy il precedente divieto generale di uso per “military and warfare”. OpenAI disse che continuava a vietare gli usi che danneggiano le persone, sviluppano armi o abilitano la sorveglianza, ma il cambiamento creò chiaramente spazio per lavori di sicurezza nazionale approvati.

Entro giugno 2025, quel cambio divenne ufficiale. OpenAI lanciò “OpenAI for Government” e annunciò un progetto pilota con il Pentagono attraverso il Chief Digital and Artificial Intelligence Office, o CDAO. L’azienda descrisse i primi casi d’uso come funzioni di supporto quali sanità, dati per gli acquisti e difesa cyber.

OpenAI stava ora lavorando apertamente come appaltatore del Pentagono.

Anche Anthropic è entrata nell’IA per la difesa

Anthropic seguì un percorso simile, motivo per cui il conflitto successivo colse molti di sorpresa. Nel giugno 2025, l’azienda introdusse i modelli “Claude Gov” progettati per clienti della sicurezza nazionale statunitense. Anthropic disse che quei modelli operavano già in ambienti classificati ed erano stati adattati alle esigenze del governo.

Un mese dopo, Anthropic annunciò un proprio accordo di prototipazione da 200 milioni di dollari con il Pentagono. L’azienda disse che Claude stava aiutando organizzazioni della difesa e dell’intelligence a elaborare e analizzare dati complessi, anche in flussi di missione classificati. Nell’agosto 2025, Anthropic rafforzò ulteriormente quella posizione creando un National Security and Public Sector Advisory Council composto da alti esponenti della difesa e dell’intelligence.

Dunque, nel 2026 la domanda chiave non era mai se Anthropic dovesse lavorare con il Pentagono. La risposta era già sì. La domanda più difficile era quali usi esatti avrebbe continuato a rifiutare.

Perché la politica del Pentagono sull’IA è diventata più aggressiva

Alla fine del 2024, il CDAO e la Defense Innovation Unit lanciarono una nuova AI Rapid Capabilities Cell per accelerare l’adozione di modelli di frontiera nelle missioni di combattimento e aziendali. L’elenco dei possibili impieghi era ampio: comando e controllo, supporto alle decisioni, pianificazione operativa, sviluppo e test di armi, sistemi autonomi, intelligence, operazioni cyber e logistica.

Quella urgenza divenne ancora più chiara nel gennaio 2026, quando la strategia sull’IA del Pentagono invitò il dipartimento a diventare una forza combattente “AI-first”. Il memo spingeva per avere accesso ai modelli più recenti entro 30 giorni dalla loro uscita pubblica e promuoveva nei contratti un linguaggio di “qualsiasi uso lecito”.

Il Pentagono aveva regole etiche, ma la velocità ha cambiato l’equilibrio

Il Dipartimento della Difesa ha principi etici ufficiali sull’IA dal 2020: responsabile, equa, tracciabile, affidabile e governabile. Ha inoltre aggiornato nel 2023 la direttiva sulle armi autonome per affermare che tali sistemi devono consentire un appropriato giudizio umano sull’uso della forza.

Sulla carta, sono limiti seri. Ma la strategia del 2026 ha spinto verso una più rapida implementazione, meno ostacoli e una maggiore flessibilità operativa.

Questo aiuta a spiegare perché i contratti sono diventati così importanti. Quando il diritto pubblico resta ampio, il contratto diventa il vero terreno di scontro. Un’azienda può decidere se vuole limiti extra oltre a ciò che il governo considera già legale. Il Pentagono può decidere se quei limiti siano misure di sicurezza responsabili o restrizioni inaccettabili.
È in questo spazio che OpenAI e Anthropic si sono divise.

La rottura del 2026: Anthropic dice no

Anthropic chiarì molto la sua posizione nel febbraio 2026. L’amministratore delegato Dario Amodei disse che l’IA è importante per difendere gli Stati Uniti e i loro alleati, e sottolineò che Anthropic aveva già lavorato con il Pentagono e la comunità d’intelligence. Affermò che Claude veniva usato per analisi d’intelligence, modellazione e simulazione, pianificazione operativa e attività cyber.

Ma aggiunse anche che Anthropic non avrebbe rimosso due eccezioni circoscritte: sorveglianza di massa interna e armi completamente autonome.

Sulla sorveglianza, Anthropic sostenne che l’IA può trasformare dati commerciali e pubblici dispersi in profili a livello di popolazione su vasta scala. Sulle armi autonome, sostenne che gli attuali modelli di frontiera non sono abbastanza affidabili per un targeting di vita o di morte senza esseri umani nel circuito.

Reuters riportò che il Pentagono disse di non volere l’IA per la sorveglianza di massa degli americani né per armi completamente autonome, ma insistette comunque sul fatto che i militari dovrebbero poter usare questi modelli per tutti gli scopi leciti. Sembra un piccolo scarto di formulazione. In pratica, è uno scarto di governance.

Anthropic voleva linee rosse esplicite a livello di fornitore. Il Pentagono voleva il diritto di interpretare autonomamente l’uso lecito. Quando Anthropic rifiutò di abbandonare le sue restrizioni, il conflitto è sfociato nell’inserimento in una lista nera e poi in una causa.

OpenAI dice sì, ma a condizioni diverse

Nel suo annuncio di febbraio 2026, l’azienda disse che il suo accordo con il Pentagono includeva tre grandi linee rosse: niente sorveglianza di massa interna, niente direzione di sistemi d’arma autonomi e niente decisioni automatizzate ad alto impatto.

OpenAI disse anche che l’accordo era solo in cloud, il che significa che l’azienda avrebbe mantenuto il controllo dello stack di sicurezza invece di consegnare modelli senza restrizioni. Aggiunse che personale OpenAI con nulla osta di sicurezza sarebbe rimasto nel circuito e che l’intesa si basava sulla legge vigente e sulle policy del Pentagono.

La posizione di OpenAI era ambiziosa. Affermò che il suo patto aveva più guardrail rispetto ai precedenti accordi classificati sull’IA, incluso quello di Anthropic, e allo stesso tempo dichiarò che Anthropic non doveva essere etichettata come rischio per la catena di approvvigionamento.

Perché i critici dubitano ancora dei guardrail di OpenAI

I critici non sono pienamente convinti. Alcuni analisti legali sostengono che Anthropic volesse divieti contrattuali espliciti che l’azienda stessa potesse far rispettare, mentre l’accordo di OpenAI lega restrizioni chiave al diritto vigente e alle policy del Pentagono. In quel modello, il governo mantiene gran parte del potere interpretativo in tempo reale.

Anche i gruppi per le libertà civili sostengono che termini come “deliberato”, “intenzionale” o “non vincolato” possano essere interpretati in modo troppo ampio, soprattutto nei contesti di sorveglianza in cui i governi spesso affermano che la raccolta è legalmente autorizzata o solo incidentale.

Il loro punto più ampio è difficile da ignorare: i diritti fondamentali alla privacy non dovrebbero dipendere da negoziazioni private tra grandi aziende di IA e lo stato della sicurezza nazionale.

Perché questa disputa conta oltre la difesa

Primo, le stesse aziende che costruiscono versioni per la sicurezza nazionale dei loro modelli plasmano anche il mercato dell’IA per i consumatori. La fiducia del pubblico dipende in parte dal fatto che tali aziende mantengano confini significativi attorno a sorveglianza e uso della forza.

Secondo, la disputa rivela un problema più profondo: alcune delle decisioni più importanti sui guardrail dell’IA in guerra vengono prese tramite contratti e annunci aziendali, non tramite un diritto pubblico chiaro.

C’è anche una dimensione competitiva. Nel 2025, OpenAI ha ottenuto un proprio accordo di prototipazione da 200 milioni di dollari, e riconoscimenti simili sono andati ad Anthropic, Google Public Sector e AIQ Phase, un’entità collegata a xAI. Ciò significa che la questione è più grande di una singola azienda. L’esito legale e politico potrebbe plasmare il modo in cui diversi fornitori di IA di frontiera lavorano con i militari statunitensi e i governi alleati.

Cosa succede adesso

Nel breve termine, la battaglia legale metterà alla prova se il Pentagono possa usare i poteri sul rischio della catena di approvvigionamento contro un fornitore di IA a causa dei guardrail contrattuali. Questo sta già raccogliendo un sostegno più ampio nel settore tech, perché molti lo vedono come un test per capire se un’azienda possa negoziare limiti con il governo senza subire ritorsioni.

Nel lungo termine, la risposta migliore probabilmente non verrà dal solo contratto di OpenAI né dal solo rifiuto di Anthropic. Serviranno regole pubbliche più forti: limiti più chiari sulla sorveglianza, standard più chiari per il controllo umano nei sistemi d’arma, audit migliori e una rendicontazione migliore.

Il Pentagono afferma di volere un’IA responsabile, affidabile e governabile. OpenAI e Anthropic dicono entrambe di sostenere una diffusione sicura e responsabile in ambito di sicurezza nazionale. La parte difficile è trasformare quelle parole in limiti che reggano ancora quando velocità, segretezza e pressione militare sono al massimo.

Al momento, questa è la vera disputa.

Altri post dell’autore

Claude Mythos di Anthropic: il modello è troppo rischioso per un rilascio pubblico?
Articolo
Claude Mythos di Anthropic: il modello è troppo rischioso per un rilascio pubblico?
Claude Mythos Preview è il rilascio di IA più controverso di Anthropic finora. Scopri perché è limitato, cosa può fare e perché autorità di regolamentazione e banche gli stanno prestando attenzione.
Cosa 81,000 persone hanno detto ad Anthropic di voler ottenere dall’IA
Articolo
Cosa 81,000 persone hanno detto ad Anthropic di voler ottenere dall’IA
Anthropic ha analizzato 80.508 interviste con utenti di IA in 159 paesi per capire cosa le persone vogliono dall’IA, cosa le preoccupa e in quali aspetti gli strumenti odierni sono ancora carenti.
Nebius pianifica un data center di IA da 10 miliardi di dollari in Finlandia, nel mezzo della corsa all’IA in Europa
Articolo
Nebius pianifica un data center di IA da 10 miliardi di dollari in Finlandia, nel mezzo della corsa all’IA in Europa
Nebius prevede un data center di IA da 310 MW in Finlandia. Ecco perché il progetto di Lappeenranta è importante per la corsa europea all’IA, le infrastrutture e la sovranità.
Il browser diventa l’agente: perché la ricerca inizia ad agire
Articolo
Il browser diventa l’agente: perché la ricerca inizia ad agire
La ricerca con IA sta imparando ad agire all'interno del browser, non solo a rispondere. Ecco come gli agenti del browser stanno cambiando la SEO, il traffico, la privacy e il futuro del web aperto.