AI går i krig: OpenAI, Anthropic och Pentagon krockar om skyddsräcken
OpenAI och Anthropic vill båda ha en roll inom nationell säkerhet. Brytningen kom när diskussionen gick från att sälja kraftfulla modeller till att avgöra vem som kontrollerar militära AI-skyddsräcken, övervakningsbegränsningar och reglerna kring autonoma vapen.
Under åratal presenterade stora AI-labb sig som byggare av verktyg för arbete, forskning och vardagsliv. År 2026 stötte den bilden på en hårdare verklighet. Anthropic stämde efter att Pentagon stämplat det som en 'risk i leveranskedjan' över begränsningar som företaget ville behålla för militär användning av Claude. Ungefär samtidigt tillkännagav OpenAI ett avtal om att distribuera sina modeller i hemligstämplade Pentagon-nätverk och sade att överenskommelsen innehöll strikta röda linjer. Det förvandlade en tyst policyfråga till en offentlig konflikt om militär AI-etik, inhemsk massövervakning och vem som får sista ordet när säkerhetslöften möter statens makt.
Båda företagen är redan involverade i projekt med USA:s regering och inom nationell säkerhet, och båda beskriver fortfarande säkerhet som kärnan i sin identitet. Det här är alltså inte en enkel berättelse om ett försiktigt labb och ett aggressivt labb. Det är en berättelse om två företag som båda vill ha försvarsuppdrag men som är oense om hur mycket kontroll ett privat företag ska behålla när dess AI väl går in i militära system.
Vad skyddsräcken innebär i militär AI
I den här debatten omfattar “skyddsräcken” vad modellen vägrar att göra, vad avtalet tillåter, var systemet får köras, om människor måste godkänna känsliga åtgärder, vem som kan granska användningen och om leverantören kan stoppa driftsättning om reglerna bryts.
Ett företag kan säga att det förbjuder skadlig användning, men den verkliga frågan är hur det förbudet fungerar under tryck. Är begränsningen inskriven i avtalet? Upprätthålls den av själva modellen? Tolkar regeringen regeln i realtid, eller behåller leverantören fortfarande ett veto?
När AI används för underrättelseanalys, cyberoperationer, operativ planering eller system kopplade till våldsutövning slutar vag säkerhetsjargong att låta abstrakt. Det blir ett kontrollproblem.
Hur OpenAI rörde sig mot Pentagon
OpenAIs sväng mot försvaret blev synlig i början av 2024, när företaget tog bort det tidigare heltäckande förbudet mot användning för “militär och krigföring” från sin offentliga policytext. OpenAI sade att man fortfarande förbjuder användningar som skadar människor, utvecklar vapen eller möjliggör övervakning, men förändringen skapade tydligt utrymme för godkänt arbete inom nationell säkerhet.
Senast i juni 2025 blev den förändringen officiell. OpenAI lanserade “OpenAI for Government” och tillkännagav en Pentagon‑pilot via Chief Digital and Artificial Intelligence Office, eller CDAO. Företaget beskrev de första användningsfallen som stödfunktioner såsom hälso- och sjukvård, upphandlingsdata och cyberförsvar.
OpenAI arbetade nu öppet som en leverantör till Pentagon.
Anthropic gick också in i försvars‑AI
Anthropic följde en liknande väg, vilket är varför den senare konflikten överraskade många. I juni 2025 introducerade företaget “Claude Gov”-modeller utformade för kunder inom USA:s nationella säkerhet. Anthropic sade att dessa modeller redan drevs i hemliga miljöer och hade anpassats för myndigheternas behov.
En månad senare meddelade Anthropic sitt eget Pentagon‑prototypavtal på 200 miljoner dollar. Företaget sade att Claude hjälpte försvars- och underrättelseorganisationer att bearbeta och analysera komplex data, inklusive i hemliga uppdragsarbetsflöden. I augusti 2025 förstärkte Anthropic den positionen igen genom att skapa ett rådgivande råd för nationell säkerhet och offentlig sektor bestående av seniora försvars- och underrättelseprofiler.
Så den centrala frågan 2026 var aldrig om Anthropic över huvud taget skulle arbeta med Pentagon. Svaret var redan ja. Den svårare frågan var vilka exakta användningar man fortfarande skulle vägra.
Varför Pentagons AI‑policy blev mer aggressiv
Under slutet av 2024 lanserade CDAO och Defense Innovation Unit en ny AI Rapid Capabilities Cell för att påskynda införandet av frontier‑modeller över krigförings- och verksamhetsuppdrag. Listan över potentiella användningar var bred: ledning och kontroll, beslutsstöd, operativ planering, utveckling och testning av vapen, autonoma system, underrättelseverksamhet, cyberoperationer och logistik.
Den brådskan blev ännu tydligare i januari 2026, när Pentagons AI‑strategi föreskrev att departementet skulle bli en “AI‑först” krigföringsstyrka. Promemorian drev på för tillgång till de nyaste modellerna inom 30 dagar efter offentlig lansering och främjade formuleringar om “all laglig användning” i avtal.
Pentagon hade etiska regler, men tempot ändrade balansen
Försvarsdepartementet har haft officiella etiska AI‑principer sedan 2020: ansvarsfull, rättvis, spårbar, tillförlitlig och styrbar. Det uppdaterade också sitt direktiv för autonoma vapen 2023 för att slå fast att sådana system måste möjliggöra ett lämpligt mänskligt omdöme över våldsanvändningen.
På papperet är det allvarliga begränsningar. Men strategin 2026 drev mot snabbare införande, färre hinder och bredare operativ flexibilitet.
Detta hjälper till att förklara varför avtal blev så viktiga. När den offentliga lagstiftningen förblir bred blir avtalet det verkliga slagfältet. Ett företag kan avgöra om det vill ha extra begränsningar utöver det som regeringen redan anser vara lagligt. Pentagon kan avgöra om dessa begränsningar är ansvarsfulla säkerhetsåtgärder eller oacceptabla inskränkningar.
Det är i det utrymmet som OpenAI och Anthropic gick isär.
Brytningen 2026: Anthropic säger nej
Anthropic klargjorde sin ståndpunkt mycket tydligt i februari 2026. VD Dario Amodei sade att företaget ansåg att AI var viktig för att försvara USA och dess allierade, och han betonade att Anthropic redan hade arbetat med Pentagon och underrättelsegemenskapen. Han sade att Claude användes för underrättelseanalys, modellering och simulering, operativ planering och cyberarbete.
Men han sade också att Anthropic inte skulle ta bort två snäva undantag: inhemsk massövervakning och fullt autonoma vapen.
När det gäller övervakning hävdade Anthropic att AI kan omvandla spridda kommersiella och offentliga data till detaljerade profiler på befolkningsnivå i enorm skala. När det gäller autonoma vapen hävdade man att dagens frontier‑modeller inte är tillräckligt tillförlitliga för målangivning i liv‑eller‑död‑situationer utan människor i loopen.
Reuters rapporterade att Pentagon sade att man inte ville ha AI för massövervakning av amerikaner eller fullt autonoma vapen, men vidhöll ändå att militären ska kunna använda dessa modeller för alla lagliga ändamål. Det låter som en liten formuleringstvist. I praktiken är det ett styrningsglapp.
Anthropic ville ha röda linjer på leverantörsnivå. Pentagon ville ha rätten att tolka laglig användning själv. När Anthropic vägrade att släppa sina begränsningar eskalerade konflikten till svartlistning och sedan en stämning.
OpenAI säger ja, men på andra villkor
I sitt tillkännagivande i februari 2026 sade företaget att dess Pentagon‑avtal innehöll tre stora röda linjer: ingen inhemsk massövervakning, ingen styrning av autonoma vapensystem och inga automatiserade beslut med höga insatser.
OpenAI sade också att avtalet gällde endast i molnet, vilket betyder att företaget skulle behålla kontrollen över säkerhetsstacken i stället för att lämna över obegränsade modeller. Man lade till att säkerhetsprövad OpenAI‑personal skulle förbli i loopen och att överenskommelsen byggde på gällande lag och Pentagons policy.
OpenAIs position var ambitiös. Man sade att pakten hade fler skyddsräcken än tidigare hemligstämplade AI‑avtal, inklusive Anthropics, och sade samtidigt att Anthropic inte borde stämplas som en leveranskedjerisk.
Varför kritiker fortfarande tvivlar på OpenAIs skyddsräcken
Kritiker är inte helt övertygade. Vissa juridiska analytiker menar att Anthropic ville ha uttryckliga avtalsförbud som företaget självt kunde verkställa, medan OpenAIs avtal knyter centrala begränsningar till befintlig lag och Pentagons policy. I den modellen behåller staten fortfarande mycket av tolkningsmakten i realtid.
Medborgarrättsgrupper menar också att termer som “avsiktlig”, “uppsåtlig” eller “oinskränkt” kan tolkas alltför brett, särskilt i övervakningssammanhang där regeringar ofta hävdar att insamling är lagligen auktoriserad eller bara incidentell.
Deras större poäng är svår att bortse från: grundläggande integritetsrättigheter bör inte bero på privata förhandlingar mellan stora AI‑företag och den nationella säkerhetsstaten.
Varför den här striden spelar roll bortom försvaret
För det första formar samma företag som bygger versioner av sina modeller för nationell säkerhet också konsumentmarknaden för AI. Allmänhetens förtroende beror delvis på om dessa bolag håller meningsfulla gränser kring övervakning och våld.
För det andra avslöjar striden ett djupare problem: några av de största besluten om AI‑skyddsräcken i krigföring fattas genom avtal och företagsutspel, inte genom tydlig offentlig lag.
Det finns också en konkurrensaspekt. Pentagon satsar inte på bara ett labb. År 2025 fick OpenAI ett eget prototypavtal på 200 miljoner dollar, och liknande tilldelningar gick till Anthropic, Google Public Sector och AIQ Phase, en xAI‑anknuten enhet. Det betyder att detta är större än ett företag. Det rättsliga och policysmässiga utfallet kan forma hur flera frontier‑AI‑leverantörer arbetar med USA:s militär och allierade regeringar.
Vad händer härnäst
På kort sikt kommer den rättsliga striden att pröva om Pentagon kan använda befogenheter kring leveranskedjerisker mot en AI‑leverantör på grund av avtalsmässiga skyddsräcken. Det drar redan till sig bredare stöd i tekniksektorn, eftersom många ser det som ett test av om ett företag kan förhandla fram begränsningar med staten utan att mötas av repressalier.
På längre sikt kommer den bästa lösningen troligen inte ur enbart OpenAIs avtal eller enbart Anthropics vägran. Det kommer att kräva starkare offentliga regler: tydligare gränser för övervakning, tydligare standarder för mänsklig kontroll i vapensystem, bättre granskning och bättre rapportering.
Pentagon säger att man vill ha AI som är ansvarsfull, tillförlitlig och styrbar. OpenAI och Anthropic säger båda att de stödjer säker och ansvarsfull användning inom nationell säkerhet. Den svåra delen är att omsätta de orden i begränsningar som fortfarande håller när hastighet, sekretess och militärt tryck är som högst.
Just nu är det den verkliga striden.