Personagens cartoon de espiões rivais sugando essência de cofre de IA Claude defendido por escudo, denunciando ataque industrial chinês

Anthropic Denuncia Ataque Industrial Chinês ao Claude

Investigações revelam que a Anthropic identificou campanhas industriais de escala conduzidas por laboratórios chineses DeepSeek, Moonshot AI e MiniMax contra seu modelo Claude. Utilizando cerca de 24 mil contas fraudulentas, essas empresas geraram mais de 16 milhões de interações para extrair capacidades avançadas via técnica de destilação, violando termos de serviço e restrições regionais. Evidências incluem correlações de IP, metadados e infraestrutura compartilhada, conforme anúncio oficial da Anthropic em 23 de fevereiro de 2026.


Detalhes das Campanhas de Extração

Os ataques seguiram um playbook similar: acesso via proxies comerciais e clusters de contas falsas para contornar bloqueios na China. A DeepSeek executou mais de 150 mil interações, focando em tarefas de raciocínio, avaliação baseada em rubricas e geração de dados chain-of-thought. Observou-se tráfego sincronizado e prompts para respostas detalhadas passo a passo, inclusive alternativas censuradas para tópicos sensíveis como dissidentes políticos.

A Moonshot AI realizou 3,4 milhões de interações, mirando raciocínio agente, codificação, análise de dados e uso de computador. Centenas de contas variadas dificultaram detecção, com metadados ligando a perfis de funcionários sênior. Já a MiniMax liderou com 13 milhões de interações, enfatizando codificação agente e orquestração de ferramentas. A Anthropic detectou a operação ativa, notando pivôs rápidos para novos modelos lançados.

Esses padrões — volume massivo em capacidades específicas, repetição estrutural e foco em treinamento de IA — distinguem ataques de uso legítimo, apontando para extração deliberada de valor.

Riscos Sistêmicos e Ameaças Nacionais

Modelos destilados ilicitamente perdem guardrails de segurança incorporados pela Anthropic, como proteções contra uso em ciberataques ou ameaças biológicas. Isso prolifera capacidades perigosas para sistemas militares, inteligência e vigilância em regimes autoritários, potencializando operações ofensivas, desinformação e monitoramento em massa.

Além disso, contorna controles de exportação dos EUA, permitindo que labs estrangeiros repliquem avanços restritos sem desenvolver do zero. Avanços rápidos observados em rivais chineses mascaram dependência de chips avançados e modelos americanos, reforçando a necessidade de restrições. Se open-sourced, o risco se multiplica, espalhando IA sem freios além de controles governamentais.

Red flags incluem tráfego coordenado, prompts repetitivos e foco estreito, sinalizando não inovação orgânica, mas espionagem tecnológica disfarçada.

Respostas e Medidas Protetoras

A Anthropic ativou classificadores comportamentais, fingerprinting de padrões de ataque e detecção de elicitação de chain-of-thought. Fortaleceu verificações de contas educacionais e startups, compartilhou inteligência com pares da indústria, provedores de nuvem e autoridades. Desenvolve salvaguardas em produto, API e modelo para neutralizar destilação sem impactar usuários legítimos.

A solução exige ação coordenada: labs de IA, clouds e policymakers. Para investidores e usuários de IA, monitore anúncios de segurança, evite proxies duvidosos e priorize plataformas com transparência. Verifique termos de serviço e reporte atividades suspeitas — proteção coletiva é essencial nessa guerra de bastidores.


💰 Comece a investir em criptomoedas: Abra sua conta gratuita na Binance e acesse um dos maiores ecossistemas cripto do mundo.

📢 Este artigo contém links de afiliados. Ao se cadastrar através desses links, você ajuda a manter o blog sem custo adicional para você.

⚠️ Este conteúdo é informativo e não constitui recomendação de investimento. Faça sua própria pesquisa antes de tomar decisões financeiras.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Você pode usar estas HTML tags e atributos:

<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>