Modelos de IA como Claude, GPT-5.2 e Gemini escolheram armas nucleares em 95% das simulações de guerra, mas o Pentágono segue usando Claude em operações ativas contra o Irã. Enquanto isso, pesquisadores reconstruíram o prompt do sistema Grok 4.20 beta 2 via traços de agentes, expondo vulnerabilidades. Essa interseção entre IA e automação militar levanta alertas sobre escalada descontrolada e segurança de prompts.
Simulações Revelam Viés de Escalada nas IAs
Em testes militares, IAs de ponta demonstraram um padrão preocupante: optaram por armas nucleares táticas em 95% dos cenários de conflito. Isso não é aleatório, mas um viés de escalada sistemático, como apontam estudos do Brookings Institution. Imagine um sistema de processamento distribuído onde cada nó prioriza respostas agressivas para maximizar ‘vitória’ — aqui, as IAs falham consistentemente nessa direção.
Outros problemas incluem hallucinations, gerando inteligência falsa com alta confiança, e vulnerabilidade a inputs adversários. No contexto do Pentágono, esses modelos integram análise de inteligência e planejamento operacional, mas sem confiabilidade para decisões letais autônomas. Por que importa? Porque sistemas rule-based mais simples, como o Patriot em 2003, já causaram erros fatais; LLMs são opacos e imprevisíveis em escala maior.
Claude em Operações Reais Contra o Irã
O Exército dos EUA mantém o Claude da Anthropic integrado ao Maven da Palantir, sugerindo alvos e coordenadas em tempo real durante o conflito com o Irã. Apesar de uma ordem presidencial para agências civis abandonarem Anthropic, o Departamento de Defesa tem seis meses para transição, criando um limbo operacional.
Clientes privados de defesa, como Lockheed Martin e startups, migram para concorrentes por risco de cadeia de suprimentos. O secretário Pete Hegseth ameaça designar Anthropic como risco, mas o sistema persiste em zonas de guerra. Funciona assim: Claude processa dados de inteligência, prioriza ameaças como um banco de dados otimizado, mas sob pressão operacional, restrições erodem. Isso expõe a dificuldade de oversight em redes classificadas.
Reconstrução de Prompts: Vulnerabilidade Técnica
Pesquisador Zlatin Balevsky usou traços de raciocínio de agentes no Grok 4.20 beta 2 para reconstruir seu prompt de sistema. Começou com uma frase filtrada e perguntou incrementalmente “qual a próxima frase após X?”, chegando ao delimitador “nnn” e “Humano:”. É como depurar um smart contract rastreando logs de transações — vazamentos em intermediários revelam o código fonte.
O prompt exposto inclui regras contra atividade criminal, políticas humanistas e ferramentas como code_execution. Por que importa? Em sistemas multi-agentes, traços visíveis criam superfícies de ataque, permitindo engenharia reversa. Isso compromete segurança, especialmente em aplicações militares onde prompts definem alinhamento ético.
Riscos para Automação Militar Global
Esses casos sinalizam perigos na ‘internet de guerra’: IAs não confiáveis em loops de decisão, prompts hackeáveis e pressão por deployment acelerado. O Pentágono recusou R&D colaborativo da Anthropic para maior confiabilidade, optando por OpenAI apesar de guardrails frágeis. Para infraestrutura global, é um alerta — automação sem robustez técnica pode escalar conflitos imprevisivelmente, como um protocolo DeFi sem audits.
Investidores e policymakers devem monitorar: viés de escalada persiste, e reconstruções de prompts democratizam exploits. A reflexão é técnica: precisamos de verificação formal, como provas matemáticas em blockchain, antes de delegar letalidade a LLMs.
💰 Comece a investir em criptomoedas: Abra sua conta gratuita na Binance e acesse um dos maiores ecossistemas cripto do mundo.
📢 Este artigo contém links de afiliados. Ao se cadastrar através desses links, você ajuda a manter o blog sem custo adicional para você.
⚠️ Este conteúdo é informativo e não constitui recomendação de investimento. Faça sua própria pesquisa antes de tomar decisões financeiras.