L’IA part en guerre : OpenAI, Anthropic et le Pentagone s’affrontent au sujet des garde-fous
OpenAI et Anthropic veulent toutes deux jouer un rôle dans la sécurité nationale. La rupture est survenue lorsque la discussion est passée de la vente de modèles puissants à la question de savoir qui contrôle les garde-fous de l’IA militaire, les limites de la surveillance et les règles encadrant les armes autonomes.
Pendant des années, les grands laboratoires d’IA se sont présentés comme des concepteurs d’outils pour le travail, la recherche et la vie quotidienne. En 2026, cette image s’est heurtée à une réalité plus dure. Anthropic a porté plainte après que le Pentagone l’a qualifiée de “risque pour la chaîne d’approvisionnement” en raison des limites que l’entreprise voulait conserver sur l’usage militaire de Claude. À peu près au même moment, OpenAI a annoncé un accord pour déployer ses modèles sur des réseaux classifiés du Pentagone et a indiqué que l’accord comportait des lignes rouges strictes. Cela a transformé une question de politique discrète en un conflit public sur l’éthique de l’IA militaire, la surveillance de masse intérieure et la question de savoir qui a le dernier mot lorsque les promesses de sécurité se heurtent au pouvoir de l’État.
Les deux entreprises sont déjà impliquées dans des projets du gouvernement américain et de sécurité nationale, et toutes deux présentent encore la sécurité comme centrale à leur identité. Ce n’est donc pas l’histoire simple d’un laboratoire prudent face à un laboratoire agressif. C’est l’histoire de deux entreprises qui veulent toutes deux des contrats de défense tout en divergeant sur le degré de contrôle qu’une entreprise privée devrait conserver une fois que son IA entre dans des systèmes militaires.
Ce que signifient les garde-fous pour l’IA militaire
Dans ce débat, “garde-fous” recouvre ce que le modèle refuse de faire, ce que le contrat autorise, où le système peut fonctionner, si des humains doivent approuver des actions sensibles, qui peut auditer l’usage et si le fournisseur peut arrêter le déploiement en cas de non-respect des règles.
Une entreprise peut dire qu’elle interdit des usages nuisibles, mais la vraie question est de savoir comment cette interdiction tient sous pression. La limite est‑elle inscrite dans le contrat ? Est‑elle appliquée par le modèle lui‑même ? Le gouvernement interprète‑t‑il la règle en temps réel, ou le fournisseur conserve‑t‑il un droit de veto ?
Dès que l’IA est utilisée pour l’analyse du renseignement, les opérations cyber, la planification opérationnelle ou des systèmes liés à la force, un langage de sécurité vague cesse d’être abstrait. Cela devient un problème de contrôle.
Comment OpenAI s’est rapprochée du Pentagone
L’inflexion d’OpenAI vers la défense est devenue visible début 2024, lorsque l’entreprise a supprimé de son langage de politique publique l’ancienne interdiction générale des usages “militaires et de guerre”. OpenAI a déclaré qu’elle interdisait toujours les usages qui nuisent aux personnes, développent des armes ou permettent la surveillance, mais ce changement a clairement ouvert la voie à des travaux de sécurité nationale approuvés.
En juin 2025, ce virage s’est officialisé. OpenAI a lancé “OpenAI for Government” et a annoncé un pilote avec le Pentagone via le Chief Digital and Artificial Intelligence Office, ou CDAO. L’entreprise a décrit les premiers cas d’usage comme des fonctions de soutien telles que les soins de santé, les données d’acquisition et la cyberdéfense.
OpenAI travaillait désormais ouvertement comme sous-traitant du Pentagone.
Anthropic est également entrée dans l’IA de défense
Anthropic a suivi une voie similaire, ce qui explique pourquoi le conflit ultérieur a pris beaucoup de monde par surprise. En juin 2025, l’entreprise a présenté des modèles “Claude Gov” conçus pour les clients de la sécurité nationale américaine. Anthropic a indiqué que ces modèles fonctionnaient déjà dans des environnements classifiés et avaient été adaptés aux besoins du gouvernement.
Un mois plus tard, Anthropic a annoncé son propre contrat de prototype de 200 millions de dollars avec le Pentagone. L’entreprise a déclaré que Claude aidait les organisations de défense et de renseignement à traiter et analyser des données complexes, y compris dans des flux de mission classifiés. En août 2025, Anthropic a renforcé cette position en créant un Conseil consultatif pour la sécurité nationale et le secteur public composé de hauts responsables de la défense et du renseignement.
La question clé en 2026 n’était donc jamais de savoir si Anthropic devait travailler avec le Pentagone. La réponse était déjà oui. La question plus difficile était de savoir quels usages exacts elle refuserait encore.
Pourquoi la politique d’IA du Pentagone est devenue plus agressive
Fin 2024, le CDAO et la Defense Innovation Unit ont lancé une nouvelle AI Rapid Capabilities Cell pour accélérer l’adoption de modèles de pointe à travers les missions de combat et de soutien. La liste des usages potentiels était large : commandement et contrôle, aide à la décision, planification opérationnelle, développement et test d’armes, systèmes autonomes, renseignement, opérations cyber et logistique.
Cette urgence est devenue encore plus claire en janvier 2026, lorsque la stratégie IA du Pentagone a appelé le département à devenir une force de combat “AI‑first”. La note préconisait l’accès aux modèles les plus récents dans les 30 jours suivant leur publication publique et promouvait un langage de contrat autorisant “tout usage légal”.
Le Pentagone avait des règles éthiques, mais la vitesse a changé l’équilibre
Le département de la Défense dispose de principes éthiques officiels pour l’IA depuis 2020 : responsable, équitable, traçable, fiable et gouvernable. Il a également mis à jour sa directive sur les armes autonomes en 2023 pour préciser que ces systèmes doivent permettre un jugement humain approprié sur l’usage de la force.
Sur le papier, ce sont des limites sérieuses. Mais la stratégie de 2026 a poussé vers des déploiements plus rapides, moins d’obstacles et une flexibilité opérationnelle plus large.
Cela aide à expliquer pourquoi les contrats sont devenus si importants. Lorsque le droit public reste large, le contrat devient le véritable champ de bataille. Une entreprise peut décider si elle veut des limites supplémentaires au‑delà de ce que le gouvernement considère déjà comme légal. Le Pentagone peut décider si ces limites sont des mesures de sécurité responsables ou des restrictions inacceptables.
C’est dans cet espace qu’OpenAI et Anthropic ont divergé.
La rupture de 2026 : Anthropic dit non
Anthropic a clarifié sa position en février 2026. Son PDG, Dario Amodei, a déclaré que l’IA était importante pour la défense des États‑Unis et de leurs alliés, et il a souligné qu’Anthropic avait déjà travaillé avec le Pentagone et la communauté du renseignement. Il a indiqué que Claude était utilisé pour l’analyse du renseignement, la modélisation et la simulation, la planification opérationnelle et les travaux cyber.
Mais il a aussi affirmé qu’Anthropic ne retirerait pas deux exceptions étroites : la surveillance de masse intérieure et les armes entièrement autonomes.
Sur la surveillance, Anthropic a soutenu que l’IA peut transformer des données commerciales et publiques éparses en profils détaillés à l’échelle de populations, et ce à très grande échelle. S’agissant des armes autonomes, l’entreprise a fait valoir que les modèles de pointe actuels ne sont pas suffisamment fiables pour des ciblages vitaux sans humains dans la boucle.
Reuters a rapporté que le Pentagone affirmait ne pas vouloir d’IA pour la surveillance de masse des Américains ni pour des armes entièrement autonomes, mais insistait néanmoins pour que l’armée puisse utiliser ces modèles à toutes fins légales. Cela ressemble à un petit écart de formulation. En pratique, c’est un écart de gouvernance.
Anthropic voulait des lignes rouges explicites au niveau du fournisseur. Le Pentagone voulait garder le droit d’interpréter lui‑même l’usage légal. Lorsque Anthropic a refusé d’abandonner ses restrictions, le conflit a dégénéré en mise sur liste noire puis en action en justice.
OpenAI dit oui, mais à des conditions différentes
Dans son annonce de février 2026, l’entreprise a indiqué que son accord avec le Pentagone incluait trois grandes lignes rouges : pas de surveillance de masse intérieure, pas de pilotage de systèmes d’armes autonomes et pas de décisions automatisées à forts enjeux.
OpenAI a également précisé que l’accord était “cloud‑only”, ce qui signifie que l’entreprise conserverait le contrôle de la pile de sécurité au lieu de remettre des modèles non restreints. Elle a ajouté que du personnel habilité d’OpenAI resterait dans la boucle et que l’accord s’appuyait sur le droit en vigueur et la politique du Pentagone.
La position d’OpenAI était ambitieuse. Elle a affirmé que son pacte comportait plus de garde‑fous que les accords d’IA classifiés antérieurs, y compris celui d’Anthropic, tout en estimant qu’Anthropic ne devrait pas être qualifiée de risque pour la chaîne d’approvisionnement.
Pourquoi les critiques doutent encore des garde‑fous d’OpenAI
Les critiques ne sont pas pleinement convaincus. Certains juristes soutiennent qu’Anthropic voulait des interdictions contractuelles explicites que l’entreprise pourrait elle‑même faire respecter, tandis que l’accord d’OpenAI rattache des restrictions clés au droit existant et à la politique du Pentagone. Dans ce modèle, le gouvernement conserve une grande partie du pouvoir d’interprétation en temps réel.
Les groupes de défense des libertés civiles avancent également que des termes comme “délibéré”, “intentionnel” ou “non contraint” peuvent être interprétés trop largement, en particulier dans des contextes de surveillance où les gouvernements affirment souvent que la collecte est légalement autorisée ou seulement accessoire.
Leur argument plus général est difficile à ignorer : les droits fondamentaux à la vie privée ne devraient pas dépendre de négociations privées entre de grandes entreprises d’IA et l’appareil de sécurité nationale.
Pourquoi cet affrontement compte au‑delà de la défense
Premièrement, les mêmes entreprises qui construisent des versions de leurs modèles pour la sécurité nationale façonnent aussi le marché grand public de l’IA. La confiance du public dépend en partie du fait que ces entreprises maintiennent des lignes significatives autour de la surveillance et de l’usage de la force.
Deuxièmement, cet affrontement révèle un problème plus profond : certaines des décisions les plus importantes sur les garde‑fous de l’IA en temps de guerre sont prises au moyen de contrats et d’annonces d’entreprises, et non par un droit public clair.
Il y a aussi un angle concurrentiel. Le Pentagone ne mise pas sur un seul laboratoire. En 2025, OpenAI a obtenu son propre contrat de prototype de 200 millions de dollars, et des attributions similaires sont allées à Anthropic, Google Public Sector et AIQ Phase, une entité liée à xAI. Cela signifie que la question dépasse une seule entreprise. L’issue juridique et politique pourrait façonner la manière dont plusieurs fournisseurs d’IA de pointe travailleront avec l’armée américaine et les gouvernements alliés.
La suite des événements
À court terme, la bataille juridique testera la capacité du Pentagone à utiliser les pouvoirs liés au risque pour la chaîne d’approvisionnement contre un fournisseur d’IA au sujet des garde‑fous contractuels. Cela suscite déjà un soutien plus large dans le secteur technologique, car beaucoup y voient un test visant à déterminer si une entreprise peut négocier des limites avec le gouvernement sans subir de représailles.
À plus long terme, la meilleure réponse ne viendra probablement ni du seul contrat d’OpenAI ni du seul refus d’Anthropic. Il faudra des règles publiques plus robustes : des limites plus claires sur la surveillance, des normes plus nettes pour le contrôle humain des systèmes d’armes, de meilleurs audits et de meilleurs rapports.
Le Pentagone dit vouloir une IA responsable, fiable et gouvernable. OpenAI et Anthropic affirment toutes deux soutenir un déploiement de sécurité nationale sûr et responsable. La partie difficile consiste à transformer ces mots en limites qui tiennent encore lorsque la vitesse, le secret et la pression militaire sont à leur comble.
Pour l’instant, c’est là que se situe le véritable affrontement.