A IA vai à guerra: OpenAI, Anthropic e o Pentágono entram em confronto sobre limites de segurança
A OpenAI e a Anthropic querem ambas ter um papel na segurança nacional. A cisão ocorreu quando a discussão passou de vender modelos poderosos para decidir quem controla as salvaguardas da IA militar, os limites de vigilância e as regras em torno de armas autônomas.
Por anos, os principais laboratórios de IA se apresentaram como criadores de ferramentas para o trabalho, a pesquisa e o cotidiano. Em 2026, essa imagem esbarrou numa realidade mais dura. A Anthropic processou após o Pentágono rotulá-la como um “risco de cadeia de suprimentos” por causa de limites que a empresa queria manter sobre o uso militar do Claude. Na mesma época, a OpenAI anunciou um acordo para implantar seus modelos em redes classificadas do Pentágono e disse que o acordo incluía linhas vermelhas rígidas. Isso transformou um tema de política discreto em um conflito público sobre ética de IA militar, vigilância doméstica em massa e quem dá a última palavra quando promessas de segurança encontram o poder do Estado.
Ambas as empresas já estão envolvidas em projetos do governo dos EUA e de segurança nacional, e ambas ainda descrevem a segurança como central para sua identidade. Portanto, não é uma história simples sobre um laboratório cauteloso e outro agressivo. É a história de duas empresas que querem negócios de defesa, mas discordam sobre quanto controle uma empresa privada deve manter depois que sua IA entra em sistemas militares.
O que as salvaguardas significam na IA militar
Neste debate, “salvaguardas” incluem o que o modelo se recusa a fazer, o que o contrato permite, onde o sistema pode operar, se humanos precisam aprovar ações sensíveis, quem pode auditar o uso e se o fornecedor pode interromper a implantação caso as regras sejam quebradas.
Uma empresa pode dizer que proíbe usos nocivos, mas a verdadeira questão é como essa proibição funciona sob pressão. O limite está escrito no contrato? É aplicado pelo próprio modelo? O governo interpreta a regra em tempo real, ou o fornecedor ainda mantém um veto?
Quando a IA é usada para análise de inteligência, operações cibernéticas, planejamento operacional ou sistemas ligados ao uso da força, linguagem vaga sobre segurança deixa de soar abstrata. Torna-se um problema de controle.
Como a OpenAI se aproximou do Pentágono
A guinada da OpenAI em direção à defesa ficou visível no início de 2024, quando a empresa removeu de sua política pública a antiga proibição geral de uso “militar e bélico”. A OpenAI disse que ainda proíbe usos que prejudiquem pessoas, desenvolvam armas ou viabilizem vigilância, mas a mudança claramente abriu espaço para trabalhos de segurança nacional aprovados.
Em junho de 2025, essa mudança tornou-se oficial. A OpenAI lançou o “OpenAI for Government” e anunciou um piloto no Pentágono por meio do Chief Digital and Artificial Intelligence Office, ou CDAO. A empresa descreveu os primeiros casos de uso como funções de apoio, como saúde, dados de aquisições e defesa cibernética.
A OpenAI agora trabalhava abertamente como contratada do Pentágono.
A Anthropic também entrou na IA de defesa
A Anthropic seguiu um caminho semelhante, razão pela qual o conflito posterior pegou muita gente de surpresa. Em junho de 2025, a empresa apresentou os modelos “Claude Gov” projetados para clientes de segurança nacional dos EUA. A Anthropic disse que esses modelos já operavam em ambientes classificados e haviam sido adaptados às necessidades do governo.
Um mês depois, a Anthropic anunciou seu próprio acordo de protótipo de US$ 200 milhões com o Pentágono. A empresa disse que o Claude estava ajudando organizações de defesa e inteligência a processar e analisar dados complexos, inclusive em fluxos de trabalho de missão classificados. Em agosto de 2025, a Anthropic reforçou essa posição ao criar um Conselho Consultivo de Segurança Nacional e Setor Público composto por figuras seniores de defesa e inteligência.
Portanto, a questão-chave em 2026 nunca foi se a Anthropic deveria trabalhar com o Pentágono. A resposta já era sim. A questão mais difícil era de quais usos exatamente ela ainda se recusaria.
Por que a política de IA do Pentágono se tornou mais agressiva
No fim de 2024, o CDAO e a Defense Innovation Unit lançaram uma nova AI Rapid Capabilities Cell para acelerar a adoção de modelos de fronteira em missões de combate e corporativas. A lista de usos potenciais era ampla: comando e controle, apoio à decisão, planejamento operacional, desenvolvimento e testes de armas, sistemas autônomos, inteligência, operações cibernéticas e logística.
Essa urgência ficou ainda mais clara em janeiro de 2026, quando a estratégia de IA do Pentágono afirmou que o departamento deveria se tornar uma força de combate “AI-first”. O memorando pressionou por acesso aos modelos mais novos em até 30 dias após o lançamento público e promoveu linguagem de “qualquer uso lícito” nos contratos.
O Pentágono tinha regras éticas, mas a velocidade mudou o equilíbrio
O Departamento de Defesa tem princípios oficiais de ética em IA desde 2020: responsável, equitativa, rastreável, confiável e governável. Também atualizou sua diretriz sobre armas autônomas em 2023 para dizer que tais sistemas devem permitir julgamento humano apropriado sobre o uso da força.
No papel, esses são limites sérios. Mas a estratégia de 2026 empurrou para uma implantação mais rápida, menos barreiras e maior flexibilidade operacional.
Isso ajuda a explicar por que os contratos se tornaram tão importantes. Quando a lei pública permanece ampla, o contrato vira o verdadeiro campo de batalha. Uma empresa pode decidir se quer limites extras além do que o governo já considera legal. O Pentágono pode decidir se esses limites são medidas de segurança responsáveis ou restrições inaceitáveis.
É nesse espaço que OpenAI e Anthropic se dividiram.
A ruptura de 2026: a Anthropic diz não
A Anthropic deixou sua posição muito clara em fevereiro de 2026. O CEO Dario Amodei disse que a empresa acreditava que a IA era importante para defender os Estados Unidos e seus aliados, e enfatizou que a Anthropic já havia trabalhado com o Pentágono e a comunidade de inteligência. Ele disse que o Claude estava sendo usado para análise de inteligência, modelagem e simulação, planejamento operacional e trabalho cibernético.
Mas ele também disse que a Anthropic não removeria duas exceções estreitas: vigilância doméstica em massa e armas totalmente autônomas.
Sobre vigilância, a Anthropic argumentou que a IA pode transformar dados comerciais e públicos dispersos em perfis detalhados de populações em grande escala. Sobre armas autônomas, argumentou que os modelos de fronteira atuais não são confiáveis o bastante para alvos de vida ou morte sem humanos no circuito.
A Reuters informou que o Pentágono disse não querer IA para vigilância em massa de americanos nem para armas totalmente autônomas, mas ainda assim insistiu que os militares deveriam poder usar esses modelos para todos os propósitos legais. Isso parece uma pequena diferença de redação. Na prática, é uma lacuna de governança.
A Anthropic queria linhas vermelhas explícitas no nível do fornecedor. O Pentágono queria o direito de interpretar o uso lícito por conta própria. Quando a Anthropic se recusou a retirar suas restrições, o conflito escalou para inclusão em lista negra e depois para um processo.
A OpenAI diz sim, mas em outros termos
Em seu anúncio de fevereiro de 2026, a empresa disse que seu acordo com o Pentágono incluía três grandes linhas vermelhas: sem vigilância doméstica em massa, sem direcionar sistemas de armas autônomas e sem decisões automatizadas de alto risco.
A OpenAI também disse que o acordo era apenas na nuvem, o que significa que a empresa manteria o controle da pilha de segurança em vez de entregar modelos irrestritos. Acrescentou que pessoal da OpenAI com credenciais de segurança permaneceria no circuito e que o acordo se baseava na legislação vigente e na política do Pentágono.
A posição da OpenAI foi ambiciosa. Afirmou que seu pacto tinha mais salvaguardas do que acordos classificados anteriores de IA, inclusive os da Anthropic, e ao mesmo tempo disse que a Anthropic não deveria ser rotulada como risco de cadeia de suprimentos.
Por que críticos ainda duvidam das salvaguardas da OpenAI
Críticos não estão totalmente convencidos. Alguns analistas jurídicos argumentam que a Anthropic queria proibições contratuais explícitas que a própria empresa pudesse fazer cumprir, enquanto o acordo da OpenAI vincula restrições-chave à legislação existente e à política do Pentágono. Nesse modelo, o governo ainda mantém grande parte do poder interpretativo em tempo real.
Grupos de liberdades civis também argumentam que termos como “deliberado”, “intencional” ou “sem restrições” podem ser interpretados de forma ampla demais, especialmente em contextos de vigilância em que governos frequentemente alegam que a coleta é legalmente autorizada ou apenas incidental.
Seu ponto mais amplo é difícil de ignorar: direitos básicos de privacidade não deveriam depender de negociações privadas entre grandes empresas de IA e o aparato de segurança nacional.
Por que essa disputa importa além da defesa
Primeiro, as mesmas empresas que constroem versões de seus modelos para segurança nacional também moldam o mercado de IA para consumidores. A confiança do público depende em parte de se essas empresas mantêm linhas significativas em torno de vigilância e uso da força.
Segundo, a disputa revela um problema mais profundo: algumas das maiores decisões sobre salvaguardas de IA na guerra estão sendo tomadas por meio de contratos e anúncios corporativos, não por meio de lei pública clara.
Há também um ângulo competitivo. O Pentágono não está apostando em apenas um laboratório. Em 2025, a OpenAI recebeu seu próprio acordo de protótipo de US$ 200 milhões, e prêmios semelhantes foram para a Anthropic, o Google Public Sector e a AIQ Phase, uma entidade ligada à xAI. Isso significa que é maior do que uma única empresa. O desfecho jurídico e de política pública pode moldar como vários fornecedores de IA de fronteira trabalharão com os militares dos EUA e governos aliados.
O que acontece a seguir
No curto prazo, a batalha legal vai testar se o Pentágono pode usar poderes de risco de cadeia de suprimentos contra um fornecedor de IA por causa de salvaguardas contratuais. Isso já está atraindo apoio mais amplo no setor de tecnologia, porque muitas pessoas veem isso como um teste de se uma empresa pode negociar limites com o governo sem enfrentar retaliação.
No longo prazo, a melhor resposta provavelmente não virá apenas do contrato da OpenAI nem apenas da recusa da Anthropic. Vai exigir regras públicas mais fortes: limites mais claros à vigilância, padrões mais claros para controle humano em sistemas de armas, melhor auditoria e melhor prestação de contas.
O Pentágono diz que quer uma IA responsável, confiável e governável. OpenAI e Anthropic ambas dizem apoiar uma implantação de segurança nacional segura e responsável. A parte difícil é transformar essas palavras em limites que se mantenham quando velocidade, sigilo e pressão militar estiverem no auge.
Neste momento, essa é a verdadeira disputa.