AI trekt ten strijde: OpenAI, Anthropic en het Pentagon botsen over veiligheidskaders AI trekt ten strijde: OpenAI, Anthropic en het Pentagon botsen over veiligheidskaders

OpenAI en Anthropic willen allebei een rol spelen in de nationale veiligheid. De breuk ontstond toen het gesprek verschoof van het verkopen van krachtige modellen naar de vraag wie de regie heeft over militaire AI‑guardrails, surveillancelimieten en de regels rond autonome wapens.

Jarenlang presenteerden grote AI-labs zich als bouwers van hulpmiddelen voor werk, onderzoek en het dagelijks leven. In 2026 botste dat imago op een hardere realiteit. Anthropic spande een rechtszaak aan nadat het Pentagon het had bestempeld als een “toeleveringsketenrisico” vanwege de beperkingen die het bedrijf wilde handhaven op militair gebruik van Claude. Rond dezelfde tijd kondigde OpenAI een deal aan om zijn modellen op geclassificeerde Pentagonnetwerken te implementeren en zei het dat de overeenkomst strikte rode lijnen bevatte. Dat veranderde een stille beleidskwestie in een publiek conflict over militaire AI-ethiek, massale binnenlandse surveillance en wie het laatste woord heeft wanneer veiligheidsbeloften botsen met staatsmacht.

Beide bedrijven zijn al betrokken bij projecten van de Amerikaanse overheid en nationale veiligheid, en beide beschrijven veiligheid nog steeds als centraal voor hun identiteit. Dit is dus niet simpelweg een verhaal van één voorzichtig lab en één agressief lab. Het is een verhaal over twee bedrijven die allebei defensiezaken willen doen, maar van mening verschillen over hoeveel controle een privaat bedrijf moet behouden zodra zijn AI militaire systemen binnengaat.

Wat guardrails betekenen in militaire AI

In dit debat omvatten “guardrails” wat het model weigert te doen, wat het contract toestaat, waar het systeem mag draaien, of mensen gevoelige acties moeten goedkeuren, wie het gebruik kan auditen, en of de leverancier de uitrol kan stoppen als de regels worden geschonden.

Een bedrijf kan zeggen dat het schadelijke toepassingen verbiedt, maar de echte vraag is hoe dat verbod standhoudt onder druk. Staat de grens in het contract? Wordt zij afgedwongen door het model zelf? Interpreteert de overheid de regel in realtime, of behoudt de leverancier nog een vetorecht?

Zodra AI wordt ingezet voor inlichtingenanalyse, cyberoperaties, operationele planning of systemen die gekoppeld zijn aan geweldstoepassing, houdt vage veiligheidstaal op abstract te klinken. Het wordt een controleprobleem.

Hoe OpenAI richting het Pentagon bewoog

OpenAI’s wending richting defensie werd zichtbaar begin 2024, toen het bedrijf het oudere algehele verbod op gebruik voor “militaire en oorlogsvoering” uit zijn openbare beleidstekst verwijderde. OpenAI zei dat het nog steeds toepassingen verbiedt die mensen schaden, wapens ontwikkelen of surveillance mogelijk maken, maar de verschuiving schiep duidelijk ruimte voor goedgekeurd werk voor nationale veiligheid.

In juni 2025 werd die verschuiving officieel. OpenAI lanceerde “OpenAI for Government” en kondigde een Pentagon‑pilot aan via het Chief Digital and Artificial Intelligence Office (CDAO). Het bedrijf omschreef de eerste toepassingen als ondersteunende functies zoals gezondheidszorg, aanbestedingsgegevens en cyberverdediging.

OpenAI werkte nu openlijk als Pentagon‑aannemer.

Anthropic stapte óók in defensie‑AI

Anthropic volgde een vergelijkbaar pad, wat verklaart waarom het latere conflict velen verraste. In juni 2025 introduceerde het bedrijf “Claude Gov”-modellen voor klanten in de Amerikaanse nationale veiligheidssector. Anthropic zei dat die modellen al in geclassificeerde omgevingen draaiden en waren aangepast aan overheidsbehoeften.

Een maand later kondigde Anthropic een Pentagon‑prototypeovereenkomst van 200 miljoen dollar aan. Het bedrijf zei dat Claude defensie‑ en inlichtingenorganisaties hielp bij het verwerken en analyseren van complexe data, ook in geclassificeerde missie‑workflows. In augustus 2025 verstevigde Anthropic die positie opnieuw door een National Security and Public Sector Advisory Council op te richten, bestaande uit senior figuren uit defensie en inlichtingen.

De kernvraag in 2026 was dus nooit of Anthropic überhaupt met het Pentagon zou moeten werken. Dat antwoord was al ja. De moeilijkere vraag was welke concrete toepassingen het bedrijf nog steeds zou weigeren.

Waarom het AI‑beleid van het Pentagon agressiever werd

Eind 2024 lanceerden CDAO en de Defense Innovation Unit een nieuwe AI Rapid Capabilities Cell om de adoptie van frontier‑modellen te versnellen in zowel gevechts- als bedrijfs­missies. De lijst met potentiële toepassingen was breed: commandovoering en controle, besluitvormingsondersteuning, operationele planning, wapenontwikkeling en -testen, autonome systemen, inlichtingen, cyberoperaties en logistiek.

Die urgentie werd nog duidelijker in januari 2026, toen de AI‑strategie van het Pentagon opriep om van het departement een “AI-first” krijgsmacht te maken. De memo drong aan op toegang tot de nieuwste modellen binnen 30 dagen na publieke release en promootte taal in contracten die “elk wettig gebruik” toestond.

Het Pentagon had ethische regels, maar snelheid verschoof de balans

Het ministerie van Defensie hanteert sinds 2020 officiële ethische AI‑principes: verantwoordelijk, rechtvaardig, traceerbaar, betrouwbaar en beheersbaar. In 2023 werd de richtlijn voor autonome wapens geüpdatet met de eis dat zulke systemen passend menselijk oordeel over het gebruik van geweld moeten toelaten.

Op papier zijn dat serieuze grenzen. Maar de strategie van 2026 duwde richting snellere uitrol, minder blokkades en bredere operationele flexibiliteit.

Dat helpt te verklaren waarom contracten zo belangrijk werden. Wanneer het publiek recht vaag blijft, wordt het contract het echte strijdtoneel. Een bedrijf kan beslissen of het extra beperkingen wil bovenop wat de overheid al als legaal ziet. Het Pentagon kan beslissen of die beperkingen verantwoorde veiligheidsmaatregelen zijn of onaanvaardbare restricties.
In dát speelveld gingen OpenAI en Anthropic uiteen.

De breuk in 2026: Anthropic zegt nee

Anthropic maakte zijn positie in februari 2026 zeer duidelijk. CEO Dario Amodei zei dat het bedrijf gelooft dat AI belangrijk is voor de verdediging van de Verenigde Staten en hun bondgenoten, en benadrukte dat Anthropic al met het Pentagon en de inlichtingengemeenschap had samengewerkt. Hij zei dat Claude werd gebruikt voor inlichtingenanalyse, modellering en simulatie, operationele planning en cyberwerk.

Maar hij zei ook dat Anthropic twee smalle uitzonderingen niet zou schrappen: massale binnenlandse surveillance en volledig autonome wapens.

Over surveillance voerde Anthropic aan dat AI versnipperde commerciële en publieke data op grote schaal kan omzetten in gedetailleerde profielen op bevolkingsniveau. Over autonome wapens stelde het dat huidige frontier‑modellen niet betrouwbaar genoeg zijn voor levensbedreigende doelaanwijzing zonder een mens in de beslissingslus.

Volgens Reuters zei het Pentagon dat het geen AI wilde voor massale surveillance van Amerikanen of voor volledig autonome wapens, maar dat het leger deze modellen wel voor alle wettige doeleinden moest kunnen gebruiken. Dat klinkt als een klein verschil in formulering. In de praktijk is het een governance‑kloof.

Anthropic wilde expliciete rode lijnen op leveranciersniveau. Het Pentagon wilde het recht om wettig gebruik zelf te interpreteren. Toen Anthropic weigerde zijn restricties te laten vallen, escaleerde het conflict naar plaatsing op een zwarte lijst en vervolgens een rechtszaak.

OpenAI zegt ja, maar op andere voorwaarden

In zijn aankondiging van februari 2026 zei het bedrijf dat de Pentagon‑overeenkomst drie belangrijke rode lijnen bevatte: geen massale binnenlandse surveillance, geen aansturing van autonome wapensystemen en geen hoog-risico geautomatiseerde beslissingen.

OpenAI zei ook dat de deal alleen in de cloud zou plaatsvinden, wat betekent dat het bedrijf de controle over de veiligheidsstack behoudt in plaats van onbeperkte modellen over te dragen. Het voegde eraan toe dat gecreëerd—nee, dat klopt niet.

Andere berichten van de auteur

Nebius plant een AI-datacenter van 10 miljard dollar in Finland te midden van de Europese AI-wedloop
Artikel
Nebius plant een AI-datacenter van 10 miljard dollar in Finland te midden van de Europese AI-wedloop
Nebius plant een AI-datacenter van 310 MW in Finland. Dit is waarom het project in Lappeenranta belangrijk is voor Europa’s AI-wedloop, infrastructuur en soevereiniteit.
De browser wordt de agent: waarom zoeken begint te handelen
Artikel
De browser wordt de agent: waarom zoeken begint te handelen
AI-zoekmachines leren binnen de browser te handelen, niet alleen te antwoorden. Zo veranderen browseragenten SEO, verkeer, privacy en de toekomst van het open web.
De zaak Collien Fernandes en de opkomst van deepfake-misbruik
Artikel
De zaak Collien Fernandes en de opkomst van deepfake-misbruik
De zaak rond Collien Fernandes laat zien hoe misbruik van deepfakes, valse naaktfoto’s en gekloonde stemmen levens kan verwoesten — en waarom wetgevers haastig proberen bij te benen.
Wachtwoorden sterven eindelijk uit: Heb je nog steeds een wachtwoordmanager nodig?
Artikel
Wachtwoorden sterven eindelijk uit: Heb je nog steeds een wachtwoordmanager nodig?
Naarmate toegangssleutels zich verspreiden, verdwijnen wachtwoorden naar de achtergrond. Hier lees je of je in 2026 nog steeds een wachtwoordmanager nodig hebt en hoe je de juiste optie voor je accounts kiest.