KI-Agenten sind nun in der Lage, intelligente Verträge auf Ethereum und anderen Blockchains auszunutzen, was dringende Fragen zu den wirtschaftlichen Risiken autonomer Cyberfähigkeiten aufwirft.
Zusammenfassung
- Frontier-KI-Modelle, darunter GPT-5 und Claude, nutzten in simulierten Tests intelligente Verträge auf Ethereum und anderen Blockchains.
- Die KI-Modelle entdeckten bisher unbekannte Sicherheitslücken – sogenannte Zero-Day-Schwachstellen – in Software (in diesem Fall Smart Contracts auf Ethereum).
- Die Ergebnisse unterstreichen den dringenden Bedarf an proaktiven KI-gestützten Verteidigungsstrategien, da KI-Agenten heute bei der Identifizierung profitabler Blockchain-Exploits mit menschlichen Hackern konkurrieren.
Ein Joint Projekt von Anthropic und MATS Fellows nutzten den neu geschaffenen Smart CONtracts Exploitation Benchmark (SCONE-Bench), um KI-Modelle anhand von 405 realen Verträgen zu testen, die zwischen 2020 und 2025 ausgenutzt wurden.
Bei simulierten Angriffen auf Verträge, die nach März 2025 ausgenutzt wurden, produzierten Claude Opus 4.5, Claude Sonnet 4.5 und GPT-5 Exploits im Gesamtwert von 4,6 Millionen US-Dollar, was eine konkrete Untergrenze für den potenziellen finanziellen Schaden aufzeigt, den KI verursachen könnte. Durch die Ausweitung der Tests auf 2.849 kürzlich bereitgestellte Verträge ohne bekannte Schwachstellen deckten GPT-5 und Sonnet 4.5 zwei neuartige Zero-Day-Schwachstellen auf und generierten simulierte Gewinne von fast 3.700 US-Dollar.
SCONE-Bench: Quantifizierung von Exploits in Dollar, nicht von Bugs
Herkömmliche Cybersicherheits-Benchmarks messen den Erfolg anhand von Erkennungsraten oder willkürlichen Werten, aber SCONE-Bench bewertet KI-Exploits in finanzieller Hinsicht und liefert so ein greifbareres Maß für das Risiko. Smart Contracts eignen sich besonders gut für diesen Ansatz, da Schwachstellen direkt zu gestohlenen Geldern führen können und Simulationen es Forschern ermöglichen, die potenziellen Verluste zu quantifizieren.
Bei allen 405 Verträgen im SCONE-Benchmark erzeugten 10 KI-Modelle Exploits für 207 Verträge, was einem simulierten Diebstahl von Geldern in Höhe von insgesamt 550,1 Millionen US-Dollar entspricht. Selbst unter Berücksichtigung einer potenziellen Datenkontamination haben Frontier-Modelle durchweg die Fähigkeit bewiesen, Verträge über ihre Wissensstichtage hinaus auszunutzen.
Konkrete Beispiele für KI-Exploits
Eine getestete Schwachstelle betraf eine Token-Rechnerfunktion in einem Ethereum-kompatiblen Vertrag, die fälschlicherweise beschreibbar gelassen wurde. Der KI-Agent rief die Funktion wiederholt auf, um sein Token-Guthaben zu erhöhen und so simulierte Gewinne zu generieren 2.500 $ und unter Spitzenliquiditätsbedingungen ein Potenzial 19.000 $. Später wurden die Vermögenswerte durch unabhängige White-Hat-Interventionen wiederhergestellt.
Die Forschung unterstreicht, dass KI-Agenten bei Aufgaben wie dem Kontrollflussdenken, der Grenzanalyse und dem Ausnutzen von Softwareschwachstellen inzwischen Fähigkeiten auf menschlicher Ebene erreichen – eine Fähigkeit, die direkt auf Blockchain- und traditionelle Softwaresysteme anwendbar ist.
Die Studie betont, dass sich die Cyberfähigkeiten der KI rasant weiterentwickeln, von Netzwerkeinbrüchen bis hin zur autonomen Ausnutzung von Blockchain-Anwendungen. SCONE-bench bietet ein defensives Tool, das es Smart-Contract-Entwicklern ermöglicht, Systeme vor der Bereitstellung einem Stresstest zu unterziehen.
Laut den Forschern sind die Ergebnisse ein Beweis dafür, dass eine profitable, reale autonome Nutzung möglich ist, und unterstreichen die dringende Notwendigkeit proaktiver KI-gestützter Abwehrmaßnahmen zum Schutz von Finanzsystemen und digitalen Vermögenswerten.

