Prepare-se para a guerra: robôs de IA na cadeia de mortes

por David Gerard

O termo “inteligência artificial” foi inventado em 1955 para uma proposta de marketing ao Departamento de Defesa dos EUA (DoD, na sigla em inglês). O objetivo do Vale do Silício sempre foi a teta do governo — o estágio final do capitalismo.

Na semana passada, a fornecedora de chatbots Anthropic teve problemas com o Departamento de Defesa. O DoD é muito fã de chatbots. E eles adoram o Claude, da Anthropic. O Claude está espalhado pelos sistemas do DoD, geralmente embutido em softwares da Palantir.

A Anthropic tinha um contrato de US$ 200 milhões com o DoD. Eles chegaram a criar um modelo chamado Claude Gov, sem as proteções e restrições da versão comercial.

O contrato com o DoD previa que o Claude não poderia ser usado para vigilância doméstica nem em “operações letais autônomas” — a Anthropic não queria o chatbot na cadeia de decisões de mortes. Em janeiro, o DoD começou a falar em cancelar o contrato inteiro.

O DoD está irritado porque a Anthropic não quer mudar essas cláusulas. Então o DoD quer classificar a Anthropic como “risco à cadeia de suprimentos”, o que impediria qualquer outra empresa com contratos de defesa de usar produtos da Anthropic.

“Risco à cadeia de suprimentos” é coisa séria. É uma designação usada para espiões, não como ferramenta de negociação comercial. A ameaça surgiu há duas semanas. Um alto funcionário do Pentágono disse ao Axios:

Vai ser uma dor de cabeça enorme para desemaranhar [o Claude] e vamos garantir que eles paguem um preço por nos forçar a agir assim.

Ou seja, por querer que o DoD cumpra o contrato que assinou. Pete Hegseth, o Secretário de Defesa dos EUA, chamou Dario Amodei, da Anthropic, ao seu escritório na última terça-feira de manhã e fez pessoalmente a ameaça de risco à cadeia de suprimentos.

A Anthropic e o DoD estavam perto de fechar os últimos detalhes do novo contrato. O prazo era às 17h da última sexta-feira (27).

O ponto de impasse era que o Pentágono queria muito uma brecha que permitisse vigilância doméstica:

o Pentágono ainda queria usar a IA da empresa para analisar dados em massa coletados de estadunidenses.

O prazo passou. Às 17h14, Hegseth publicou uma nota no Twitter, obviamente preparada bem antes, dizendo que estava classificando a Anthropic como risco à cadeia de suprimentos:

Os Termos de Serviço do altruísmo defeituoso da Anthropic jamais estarão acima da segurança, da prontidão ou das vidas dos soldados estadunidenses no campo de batalha.

Dá para pensar que usar uma máquina de alucinações já seria arriscar suas vidas o bastante.

A Anthropic não está nada feliz com a designação. Vão entrar com processo. Uma coisa é o DoD dizer que não quer mais usar o Claude; outra bem diferente é ameaçar destruir o negócio da Anthropic. Claramente seria ilegal, se leis existissem.

Outras partes do governo também não estão felizes:

Funcionários de agências de inteligência dos EUA, incluindo a CIA, que usa a tecnologia da Anthropic, pressionaram discretamente ambos os lados a fecharem um acordo. Alguns funcionários atuais e ex-funcionários disseram ainda esperar por um acordo de paz.

Mas a OpenAI estava sussurrando no ouvido do DoD. Depois que Hegseth ameaçou Amodei, Sam Altman ligou para o DoD para fechar um acordo. Um rascunho foi acertado no dia seguinte.

A OpenAI abriu as portas para vender aos militares em janeiro de 2024. Sam Altman anunciou o novo acordo com o DoD na sexta-feira (27/2), poucas horas após o post de Hegseth:

Em todas as nossas interações, o DoD demonstrou profundo respeito pela segurança e vontade de cooperar para alcançar o melhor resultado possível.

O “melhor resultado possível” para a OpenAI é um resgate do governo quando o dinheiro acabar. A OpenAI precisa que o DoD acredite que ela é indispensável.

Agora a Anthropic está ganhando fãs de chatbots que a proclamam como a empresa de IA pacifista. E os bobos estão comprando! Viciados em Claude torrando até US$ 200/mês na assinatura.

O Claude chegou ao topo da App Store estadunidense no último fim de semana. O serviço ficou instável na segunda (2/3) devido à sobrecarga.

Mas tudo isso é bobagem. A Anthropic quer muito continuar sendo fornecedora de defesa. Não tem nenhuma postura pacifista e nunca teve. Veja Dario Amodei na CBS (1º/3):

A Anthropic tem sido, na verdade, a empresa de IA mais proativa de todas em trabalhar com o governo estadunidense e com as forças armadas. Fomos a primeira empresa a colocar nossos modelos na nuvem confidencial. Fomos a primeira a criar modelos personalizados para fins de segurança nacional. Estamos implantados em toda a comunidade de inteligência e nas forças armadas para aplicações como segurança cibernética, apoio a operações de combate, várias coisas assim.

Os objetivos do DoD em 2026 vão gerar muitas mortes. A Anthropic só tem um certo pudor com essa parte final — eles definitivamente querem participar de tudo que leva às mortes.

No sábado (28/2), os EUA e Israel lançaram ataques ao Irã. E adivinhe: o DoD usou o Claude em toda a operação:

Comandos ao redor do mundo, incluindo o Comando Central dos EUA no Oriente Médio, usam a ferramenta de IA Claude, da Anthropic.

[…] O comando usa a ferramenta para avaliações de inteligência, identificação de alvos e simulação de cenários de batalha, mesmo enquanto a tensão entre a empresa e o Pentágono escalava.

E é por isso que o Pentágono queria fechar o acordo, para que estivesse vigente para essa operação.

O contrato da Anthropic com o DoD termina daqui a seis meses. Os EUA com certeza terão terminado o trabalho no Irã até lá, certo?

Publicado originalmente no Pivot to AI em 2/3/2026.

A newsletter do Manual. Gratuita. Cancele quando quiser:

Quais edições extras deseja receber?


Siga no Bluesky, Mastodon e Telegram. Inscreva-se nas notificações push e no Feed RSS.

Deixe um comentário

Por favor, leia as regras antes de comentar.