Inteligência artificial está no centro do ataque dos EUA e Israel ao Irã
Inteligência artificial está no centro do ataque dos EUA e Israel ao Irã
Relatório da Agência Internacional de Energia Atômica gerado por IA, chatbot banido operando em campo e uma empresa de inteligência artificial desafiando o Pentágono. O ataque norte-americano e israelense ao Irã, em fevereiro de 2026, expôs pela primeira vez a extensão do papel de sistemas algorítmicos em decisões militares de grande escala.
Nos dias seguintes ao ataque coordenado por Estados Unidos e Israel ao Irã, foi exposto o uso de sistemas de inteligência artificial na construção do argumento político que justificou o ataque e no planejamento militar que o executou.
Nenhuma fonte oficial norte-americana ou israelense confirmou publicamente. O que existe são relatos baseados em fontes anônimas, os comunicados públicos da empresa de IA Anthropic, dona do Claude, e o rompimento do governo dos Estados Unidos com a empresa.
Daniela LimaEUA terão dificuldade em ditar sucessão no Irã
EUA terão dificuldade em ditar sucessão no Irã
Igor GielowHezbollah amplia guerra pelo Oriente Médio
Hezbollah amplia guerra pelo Oriente Médio
Danilo LavieriPalmeiras vence jogo com erros claros de arbitragem
Palmeiras vence jogo com erros claros de arbitragem
Alicia KleinPalmeiras chega à final para evitar replay de zebra
Palmeiras chega à final para evitar replay de zebra
Nos dias 26 e 27 de fevereiro, a empresa norte-americana publicou duas declarações detalhando um impasse com o Departamento de Defesa dos EUA sobre os limites do uso de seu modelo de linguagem, o Claude, em operações militares.
O argumento oficial apresentado pelos governos norte-americano e israelense para justificar a operação foi um relatório da Agência Internacional de Energia Atômica (AIEA) concluindo que o Irã estaria próximo de produzir uma bomba atômica. Relatos posteriores afirmaram que esse documento teria sido em grande parte construído ou orientado por sistemas de inteligência artificial.
O sistema citado é o Mosaic, da Palantir, uma plataforma que cruza dados como imagens de satélite, comunicações e consumo de energia para identificar padrões e gerar projeções com aprendizado de máquina, já usada em operações militares.
Ao integrar informações sobre enriquecimento de urânio e atividades correlatas, teria produzido estimativas de que certas instalações poderiam atingir 90% de capacidade em poucos meses.
O relatório se baseava em inferências estatísticas, não em provas diretas, marcando possivelmente o primeiro caso de uma guerra iniciada com forte apoio de projeções de IA.
Enquanto o Mosaic operava na camada do argumento político, outro sistema de IA teria atuado mais próximo das decisões táticas. Segundo relatos do Wall Street Journal, o Comando Central dos EUA no Oriente Médio usou o Claude, modelo de linguagem da empresa Anthropic, para analisar relatórios de inteligência, identificar alvos e simular cenários de guerra.
Em um contexto militar, o modelo teria sido usado para condensar centenas de relatórios técnicos e de inteligência em sínteses operacionais, destacar riscos e contradições entre fontes, comparar cenários de ataque e antecipar possíveis respostas iranianas a diferentes tipos de ação. As ordens de ataque, segundo todas as fontes analisadas, permaneceram sob responsabilidade humana.
No mesmo período, o presidente Donald Trump determinou a suspensão de contratos federais com a Anthropic. O impasse entre a Anthropic e o Pentágono está sendo liderado diretamente por Dario Amodei, CEO e cofundador da empresa.
A empresa, hoje avaliada em US$ 380 bilhões e com perspectiva de abertura de capital, já acumula um histórico de atritos com a administração Trump. Fundos ligados ao presidente tentaram investir na Anthropic, mas foram recusados em razão do posicionamento considerado "progressista" da empresa.
O conflito foi acelerado em uma reunião no Pentágono em fevereiro deste ano, quando oficiais militares apresentaram a Amodei um cenário hipotético de ataque nuclear para demonstrar a necessidade de acesso irrestrito ao Claude Gov, versão do modelo desenvolvida para ambientes classificados, sem as salvaguardas que a empresa impõe ao produto.
Em declaração oficial publicada em 26 de fevereiro, Amodei descreveu o conflito com o Departamento de Defesa norte-americano em termos precisos. Segundo Amodei, a Anthropic havia trabalhado proativamente para implantar seus modelos no governo americano.
"Fomos a primeira empresa de IA de fronteira a implantar nossos modelos nas redes classificadas do governo dos EUA, os primeiros a implantá-los nos Laboratórios Nacionais e os primeiros a fornecer modelos personalizados para clientes de segurança nacional. O Claude está amplamente implantado no Departamento de Guerra e em outras agências de segurança nacional para aplicações de missão crítica, como análise de inteligência, modelagem e simulação, planejamento operacional, operações cibernéticas e mais", afirmou no site da empresa.
O impasse estava em torno de duas exceções que a Anthropic se recusava a remover, que é o uso do Claude em vigilância em massa doméstica de cidadãos norte-americanos e em sistemas de armas totalmente autônomas, capazes de selecionar e atacar alvos sem supervisão humana efetiva.
O Departamento de Defesa exigia uma cláusula de "qualquer uso legal" que eliminasse essas restrições. Estima-se que o contrato em disputa é da ordem de US$ 200 milhões. "Não podemos, em boa consciência, ceder ao pedido deles", escreveu Amodei.
Em 27 de fevereiro, o secretário de Defesa Pete Hegseth anunciou que classificaria a Anthropic como "risco de cadeia de suprimentos", classificação historicamente reservada a adversários dos EUA, nunca antes aplicada publicamente a uma empresa norte-americana. No mesmo dia, o governo Trump ordenou que agências federais interrompessem o uso de serviços da Anthropic dentro de seis meses.
No mesmo dia, a empresa respondeu que contestaria a designação na Justiça e que "nenhuma quantidade de intimidação ou punição do Departamento de Guerra mudará nossa posição sobre vigilância doméstica em massa ou armas totalmente autônomas".
Em entrevista à CBS News, também no dia 27, Amodei detalhou a posição da Anthropic. Sobre vigilância em massa, argumentou que a IA torna possível "reunir dados dispersos e individualmente inofensivos em um retrato abrangente da vida de qualquer pessoa, automaticamente e em escala massiva", e que essa capacidade, mesmo onde tecnicamente legal, representa um risco às liberdades fundamentais que a legislação ainda não acompanhou.
Sobre armas autônomas, o argumento foi de ordem técnica. "Os sistemas de IA de fronteira simplesmente não são confiáveis o suficiente para alimentar armas totalmente autônomas. Não forneceremos conscientemente um produto que coloque em risco os combatentes e civis americanos".
Amodei acrescentou que a Anthropic havia oferecido ao Departamento de Defesa colaboração em pesquisa e desenvolvimento para melhorar a confiabilidade desses sistemas, mas que a oferta não foi aceita.
O Google é um precedente nesse debate. A empresa retirou de seus princípios de IA a cláusula que proibia o uso da tecnologia em armas e sistemas de vigilância que violassem direitos humanos. Essa regra havia sido criada em 2018, após a polêmica do Project Maven, que aplicava IA a drones militares e gerou forte reação interna. A decisão foi vista por analistas como um sinal preocupante de flexibilização ética diante do avanço de contratos na área de defesa.
Outras empresas como Microsoft, Amazon e OpenAI já operavam em sistemas militares e de segurança sem restrições tão explícitas quanto as da Anthropic, embora sem declarar formalmente a remoção de salvaguardas.
Quando um sistema como o Mosaic faz uma previsão sobre uma instalação nuclear, ele toma várias decisões internas: quais dados considerar, quanto peso dar a cada informação e quais critérios usar. Quem recebe o relatório vê só o número final, não o raciocínio por trás dele. O problema é que, se houver erro ou viés no modelo, isso pode influenciar decisões sem que fique claro como a conclusão foi construída.
A própria Anthropic pediu que o Congresso norte-americano definisse os limites legais do uso de IA em guerra e vigilância. "A lei ainda não acompanhou as capacidades rapidamente crescentes da IA", escreveu Amodei.
Texto que relata acontecimentos, baseado em fatos e dados observados ou verificados diretamente pelo jornalista ou obtidos pelo acesso a fontes jornalísticas reconhecidas e confiáveis.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Leia as Regras de Uso do UOL.
Irã diz que fez ataque contra gabinete de Netanyahu; Israel não confirma
EUA decidem deportar última fugitiva do 8/1 no país; defesa recorre
STM paga R$ 2,7 mi de penduricalhos em 3 meses a dois ministros aposentados
Toque no braço e pênalti: ex-árbitros opinam sobre polêmicas do Choque-Rei
Nem na própria ilha onde nasceu Napoleão é o maior herói
