Anthropic: Agentes de IA Podem Reproduzir US$ 4,6 Milhões em Hacks de Blockchain

Estudo Antrópico Confirma Agentes de IA Podem Transformar Exploits de Contratos Inteligentes em Arma em Escala

Last Updated:
Agentes de IA antrópicos analisando código de contratos inteligentes e executando exploits em um ambiente sandbox.
  • Agentes de IA reproduziram exploits reais de contratos inteligentes no valor simulado de 4,6 milhões de dólares.
  • Modelos identificaram novas vulnerabilidades zero-day em contratos de blockchain recentemente implantados.
  • As descobertas levantam preocupações sobre o papel da IA em futuros ataques cibernéticos automatizados.

A Anthropic relatou que agentes avançados de IA exploraram com sucesso vulnerabilidades conhecidas do blockchain no valor de 4,6 milhões de dólares em simulações. Os agentes também descobriram novas falhas de segurança em códigos de contratos inteligentes recentemente implantados, todos avaliados em ambientes locais de blockchain.

Os testes foram realizados usando um benchmark controlado projetado para medir como a IA lida com riscos cibernéticos do mundo real.

Modelos de IA Recriam Exploits Reais de Blockchain

A Anthropic e o programa Machine Learning for Alignment and Theory Scholars criaram o SCONE-bench, um conjunto de dados com 405 contratos inteligentes que foram hackeados entre 2020 e 2025.

Pesquisadores usaram o benchmark para testar 10 modelos líderes de IA e instruíram cada modelo a analisar e atacar contratos vulneráveis em um ambiente sandbox.

Os agentes geraram exploits funcionais para 207 contratos, representando cerca de metade do conjunto de dados. Quando os pesquisadores isolaram 34 contratos hackeados após o corte de conhecimento dos modelos em março de 2025, a IA ainda produziu exploits funcionais para 19 deles. O valor simulado desses ataques bem-sucedidos totalizou 4,6 milhões de dólares.

Modelos que demonstraram o desempenho mais forte incluíram Claude Opus 4.5, Claude Sonnet 4.5 e GPT-5.

IA descobre novos bugs de zero-day em contratos recentes

Pesquisadores também testaram se os modelos conseguiam identificar novas vulnerabilidades em códigos sem problemas conhecidos. Eles usaram 2.849 contratos da Binance Smart Chain recentemente implantados e permitiram que o Sonnet 4.5 e o GPT-5 os revisassem.

Os agentes detectaram duas fraquezas anteriormente não documentadas e geraram cerca de $3.694 em receita simulada — mal acima do custo de API de $3.476 necessário para encontrá-las.

Uma falha devenia de uma função pública que não se restringia ao uso somente leitura, permitindo manipulação não autorizada do balanceamento. Outro envolvia lógica de saque que não verificava endereços dos destinatários da taxa.

Todos os testes foram realizados em forks locais de blockchain, e nenhum fundo real de usuários foi exposto.

Crescentes preocupações com a segurança do blockchain

Os resultados sugerem que sistemas de IA podem automatizar a descoberta de exploits em uma escala que pode desafiar as práticas atuais de cibersegurança. A detecção mais rápida de vulnerabilidades significa que os atacantes podem agir mais cedo após a implantação do contrato, reduzindo o tempo disponível para auditorias manuais.

Os resultados também indicam que esses métodos podem se aplicar além do blockchain. Isso pode afetar os sistemas de software tradicionais à medida que a IA se torna mais capaz e barata de operar.

Especialistas expressam preocupações

Um ex-engenheiro da Apple, AI Nat, alerta que agentes autônomos de IA agora representam um risco para a segurança do blockchain, observando que eles podem detectar vulnerabilidades rapidamente, executar exploits e se ajustar a patches em tempo real.

Nate diz que essa capacidade de escanear contratos em escala, atacar imediatamente e refinar novas estratégias transforma a segurança em um processo contínuo em vez de uma auditoria única em vez de uma única vez, aumentando a pressão sobre os desenvolvedores para adotarem monitoramento constante e impulsionado por IA para acompanhar ameaças em evolução.

Outro engenheiro, Alex Havryleshko, disse que os resultados mostram um aumento acentuado no risco de IA, observando que cada etapa do gráfico reflete um salto dez vezes maior na receita simulada de exploits. Ele acrescentou que o desempenho dos modelos parece dobrar a cada 1,3 mês, ressaltando a rapidez com que a IA está avançando na ciberexploração.

Relacionado: Agentes de IA da Virtuals se integram à Coinbase Retail DEX on Base, VIRTUAL aumenta 30%

Enquanto isso, um comentarista acrescentou que os altos custos dos agentes de IA limitam a capacidade de escanear contratos de código aberto e observou que a liquidez frequentemente aparece depois, criando janelas de detecção apertadas. Ele acrescentou que corrigir vulnerabilidades durante o desenvolvimento com ferramentas de IA é a defesa mais eficaz e afirmou que alvos fáceis de invasão estão desaparecendo rapidamente.

Disclaimer: The information presented in this article is for informational and educational purposes only. The article does not constitute financial advice or advice of any kind. Coin Edition is not responsible for any losses incurred as a result of the utilization of content, products, or services mentioned. Readers are advised to exercise caution before taking any action related to the company.


CoinStats ad

×