Anthropisch: KI-Agenten können 4,6 Millionen Dollar an Blockchain-Hacks reproduzieren

Anthropografische Studie bestätigt, dass KI-Agenten Smart-Contract-Exploits in großem Maßstab als Waffe einsetzen können

Last Updated:
Anthropetische KI-Agenten analysieren Smart-Contract-Code und führen Exploits in einer Sandbox-Umgebung aus.
  • KI-Agenten reproduzierten reale Smart-Contract-Exploits im Wert von 4,6 Millionen Dollar im simulierten Wert.
  • Modelle identifizierten neue Zero-Day-Schwachstellen in kürzlich eingeführten Blockchain-Verträgen.
  • Die Ergebnisse werfen Bedenken hinsichtlich der Rolle von KI bei zukünftigen automatisierten Cyberangriffen auf.

Anthropic berichtete , dass fortschrittliche KI-Agenten bekannte Blockchain-Schwachstellen im Wert von 4,6 Millionen Dollar in Simulationen erfolgreich ausnutzten. Die Agenten entdeckten zudem neue Sicherheitslücken im kürzlich eingeführten Smart-Contract-Code, die alle in lokalen Blockchain-Umgebungen bewertet wurden.

Die Tests wurden mit einem kontrollierten Benchmark durchgeführt, der messen soll, wie KI reale Cyberrisiken handhabt.

KI-Modelle rekonstruieren reale Blockchain-Exploits

Anthropic und das Programm Machine Learning for Alignment and Theory Scholars haben SCONE-bench entwickelt , einen Datensatz von 405 Smart Contracts, die zwischen 2020 und 2025 gehackt wurden.

Die Forscher nutzten den Benchmark, um zehn führende KI-Modelle zu testen, und wiesen jedes Modell an, verwundbare Verträge in einer Sandbox-Umgebung zu analysieren und anzugreifen.

Die Agenten generierten funktionierende Exploits für 207 Verträge, was etwa die Hälfte des Datensatzes repräsentierte. Als die Forscher 34 Verträge isolierten, die nach dem Wissensabbruch der Modelle im März 2025 gehackt wurden, erzeugte die KI dennoch funktionierende Exploits für 19 davon. Der simulierte Wert dieser erfolgreichen Angriffe belief sich auf 4,6 Millionen Dollar.

Modelle, die die stärkste Leistung zeigten, waren Claude Opus 4.5, Claude Sonnet 4.5 und GPT-5.

KI entdeckt neue Zero-Day-Fehler in aktuellen Verträgen

Die Forscher testeten außerdem, ob die Modelle neue Schwachstellen im Code ohne bekannte Probleme identifizieren konnten. Sie nutzten 2.849 kürzlich eingeführte Binance Smart Chain-Kontrakte und ermöglichten Sonnet 4.5 und GPT-5, diese zu überprüfen.

Die Agenten entdeckten zwei bisher nicht dokumentierte Schwächen und generierten etwa 3.694 US-Dollar an simulierten Einnahmen – kaum mehr als die API-Kosten von 3.476 US-Dollar, die für deren Auffindung erforderlich waren.

Ein Fehler resultierte aus einer öffentlichen Funktion, die nicht auf die Schreibbeschränkung beschränkt war und daher unbefugte Balance-Manipulation ermöglichte. Ein weiteres Argument betraf die Auszahlungslogik, die die Adressen der Gebührenempfänger nicht verifizieren konnte.

Alle Tests fanden auf lokalen Blockchain-Forks statt, und es wurden keine echten Nutzergelder freigelegt.

Wachsende Bedenken hinsichtlich der Blockchain-Sicherheit

Die Ergebnisse deuten darauf hin, dass KI-Systeme die Exploit-Erkennung in einem Umfang automatisieren können, das die aktuellen Cybersicherheitspraktiken herausfordern könnte. Eine schnellere Schwachstellenerkennung bedeutet, dass Angreifer früher nach der Vertragsbereitstellung zuschlagen könnten, was die Zeit für manuelle Audits verkürzt.

Die Ergebnisse deuten auch darauf hin, dass diese Methoden über die Blockchain hinaus gelten könnten. Es könnte traditionelle Softwaresysteme betreffen, da KI leistungsfähiger und günstiger im Betrieb wird.

Experten äußern Bedenken

Ein ehemaliger Apple-Ingenieur, AI Nat, warnt , dass autonome KI-Agenten nun ein Risiko für die Blockchain-Sicherheit darstellen, und weist darauf hin, dass sie Schwachstellen schnell erkennen, Exploits ausführen und sich in Echtzeit an Patches anpassen können.

Nate sagt, dass diese Fähigkeit, Verträge im großen Maßstab zu scannen, sofort anzugreifen und neue Strategien zu verfeinern, die Sicherheit zu einem kontinuierlichen Prozess statt einer einmaligen Prüfung zu machen, was den Druck auf Entwickler erhöht, ständige, KI-gesteuerte Überwachung einzuführen, um mit sich entwickelnden Bedrohungen Schritt zu halten.

Ein weiterer Ingenieur, Alex Havryleshko, sagte , die Ergebnisse zeigen einen starken Anstieg des KI-Risikos und wies darauf hin, dass jeder Schritt im Diagramm einen zehnfachen Anstieg der simulierten Exploit-Einnahmen widerspiegele. Er fügte hinzu, dass sich die Modellleistung scheinbar alle 1,3 Monate verdoppelt, was unterstreicht, wie schnell KI im Bereich Cyber-Exploitation voranschreitet.

Verbunden: Die KI-Agenten von Virtuals lassen sich in Coinbase integrieren Retail DEX on Base, VIRTUAL stieg um 30%

Unterdessen fügte ein Kommentator hinzu, dass hohe Kosten für KI-Agenten die Möglichkeit einschränken, nach Open-Source-Verträgen zu scannen, und stellte fest, dass Liquidität oft später auftaucht, was enge Erkennungsfenster schafft. Er fügte hinzu, dass die Behebung von Schwachstellen während der Entwicklung mit KI-Tools die effektivste Verteidigung sei, und sagte, dass leichte Hacker-Ziele schnell verschwinden.

Disclaimer: The information presented in this article is for informational and educational purposes only. The article does not constitute financial advice or advice of any kind. Coin Edition is not responsible for any losses incurred as a result of the utilization of content, products, or services mentioned. Readers are advised to exercise caution before taking any action related to the company.


CoinStats ad

×