- Les agents IA ont reproduit des exploits réels de contrats intelligents d’une valeur simulée de 4,6 millions de dollars.
- Les modèles ont identifié de nouvelles vulnérabilités zero-day dans les contrats blockchain récemment déployés.
- Les résultats soulèvent des inquiétudes quant au rôle de l’IA dans les futures cyberattaques automatisées.
Anthropic a rapporté que des agents d’IA avancés ont exploité avec succès des vulnérabilités blockchain connues d’une valeur de 4,6 millions de dollars en simulations. Les agents ont également découvert de nouvelles failles de sécurité dans le code de smart contract récemment déployé, toutes évaluées dans des environnements blockchain locaux.
Les tests ont été réalisés à l’aide d’un benchmark contrôlé conçu pour mesurer la manière dont l’IA gère les risques cybernétiques réels.
Les modèles d’IA recréent des exploits réels de la blockchain
Anthropic et le programme Machine Learning for Alignment and Theory Scholars ont créé SCONE-bench, un ensemble de données de 405 contrats intelligents qui ont été piratés entre 2020 et 2025.
Les chercheurs ont utilisé ce benchmark pour tester 10 modèles d’IA leaders et ont demandé à chaque modèle d’analyser et d’attaquer les contrats vulnérables dans un environnement en bac à sable.
Les agents ont généré des exploits fonctionnels pour 207 contrats, représentant environ la moitié de l’ensemble de données. Lorsque les chercheurs ont isolé 34 contrats piratés après la coupure des connaissances des modèles en mars 2025, l’IA a tout de même produit des exploits fonctionnels pour 19 d’entre eux. La valeur simulée de ces attaques réussies s’élevait à 4,6 millions de dollars.
Les modèles ayant démontré les performances les plus solides incluaient Claude Opus 4.5, Claude Sonnet 4.5 et GPT-5.
L’IA découvre de nouveaux bugs zéro jour dans les contrats récents
Les chercheurs ont également testé si les modèles pouvaient identifier de nouvelles vulnérabilités dans le code sans problème connu. Ils ont utilisé 2 849 contrats Binance Smart Chain récemment déployés et ont permis à Sonnet 4.5 et GPT-5 de les examiner.
Les agents ont détecté deux faiblesses jusque-là non documentées et ont généré environ 3 694 $ de revenus simulés — à peine au-dessus des 3 476 $ du coût API nécessaire pour les trouver.
Un défaut provenait d’une fonction publique qui n’était pas limitée à une utilisation en lecture seule, permettant une manipulation non autorisée de l’équilibre. Un autre concernait une logique de retrait qui ne vérifiait pas les adresses des bénéficiaires des frais.
Tous les tests ont eu lieu sur des forks blockchain locaux, et aucun fonds réel des utilisateurs n’a été exposé.
Préoccupations croissantes concernant la sécurité blockchain
Les résultats suggèrent que les systèmes d’IA peuvent automatiser la découverte d’exploits à une échelle susceptible de remettre en cause les pratiques actuelles en cybersécurité. Une détection plus rapide des vulnérabilités signifie que les attaquants peuvent agir plus tôt après le déploiement du contrat, réduisant ainsi le temps disponible pour les audits manuels.
Les résultats indiquent également que ces méthodes pourraient s’appliquer au-delà de la blockchain. Cela pourrait affecter les systèmes logiciels traditionnels à mesure que l’IA devient plus performante et moins coûteuse à exploiter.
Les experts expriment leurs préoccupations
Un ancien ingénieur chez Apple, AI Nat, avertit que les agents d’IA autonomes représentent désormais un risque pour la sécurité blockchain, notant qu’ils peuvent rapidement détecter les vulnérabilités, exécuter des exploits et s’adapter aux correctifs en temps réel.
Nate explique que cette capacité à analyser les contrats à grande échelle, attaquer immédiatement et affiner de nouvelles stratégies transforme la sécurité en un processus continu plutôt qu’en un audit ponctuel, augmentant la pression sur les développeurs pour adopter une surveillance constante, pilotée par l’IA, afin de suivre l’évolution des menaces.
Un autre ingénieur, Alex Havryleshko, a déclaré que les résultats montrent une forte augmentation du risque d’IA, notant que chaque étape du graphique reflète une multiplication par dix des revenus d’exploits simulés. Il a ajouté que la performance du modèle semble doubler tous les 1,3 mois, soulignant la rapidité avec laquelle l’IA progresse dans l’exploitation cybernétique.
À lire également : Les agents d’IA de Virtuals s’intègrent à Coinbase Retail DEX sur Base, VIRTUAL en hausse de 30 %
Par ailleurs, un commentateur a ajouté que les coûts élevés des agents d’IA limitent la capacité de rechercher des contrats open source et a noté que la liquidité apparaît souvent plus tard, créant des fenêtres de détection serrées. Il a ajouté que corriger les vulnérabilités pendant le développement avec des outils d’IA est la défense la plus efficace et a précisé que les cibles faciles de piratage disparaissent rapidement.
Disclaimer: The information presented in this article is for informational and educational purposes only. The article does not constitute financial advice or advice of any kind. Coin Edition is not responsible for any losses incurred as a result of the utilization of content, products, or services mentioned. Readers are advised to exercise caution before taking any action related to the company.
