AI-Prüfung geht in die Praxis, OpenAI veröffentlicht EVMbench, zur Verstärkung der Sicherheitseinstufung von Smart Contracts

ETH-1,68%
WELL-1,22%

OpenAI kooperiert mit Paradigm bei der Einführung von EVMbench, um die Fähigkeiten von KI-Agenten bei Angriffen und Verteidigung in EVM-Verträgen zu testen und die Sicherheitslage zu offenbaren.

Fokus auf realistische Tests in der Wirtschaftsumgebung, OpenAI und Paradigm stärken die On-Chain-Sicherheitsbewertungen

Der führende Anbieter Künstlicher Intelligenz, OpenAI, kündigte eine Zusammenarbeit mit dem bekannten Kryptowährungs-Risikokapitalgeber Paradigm sowie dem Sicherheitsunternehmen OtterSec an, um das Benchmark-Tool EVMbench zu entwickeln, das die Sicherheitsleistung von KI-Agenten (AI Agents) bei Ethereum Virtual Machine (EVM)-Smart Contracts bewertet.

Mit der zunehmenden Verschmelzung von KI und Krypto-Technologien sind Smart Contracts zu einer zentralen Infrastruktur für die Verwaltung von über 100 Milliarden an Open-Source-Kryptogütern geworden. Die Einführung dieses Tools markiert den Beginn einer ernsthaften Auseinandersetzung der Branche mit den praktischen Fähigkeiten von KI in wirtschaftlich relevanten Umgebungen.

Das OpenAI-Team betont, dass mit den Fortschritten der KI-Agenten in den Bereichen Programmieren und Planung, diese Modelle künftig eine transformative Rolle bei Angriffen und Verteidigungen auf Blockchain spielen werden. Daher ist die Entwicklung eines standardisierten Bewertungsrahmens für die Überwachung des KI-Fortschritts von entscheidender Bedeutung.

Drei tiefgehende Testmodi, 120 reale Schwachstellen als Prüfstein für KI

Das Kernkonzept von EVMbench basiert auf 120 hochriskanten Schwachstellen, die aus 40 professionellen Audit-Berichten extrahiert wurden. Die Daten stammen aus bekannten öffentlichen Audit-Wettbewerben wie Code4rena, um realitätsnahe Testszenarien zu gewährleisten. Das Benchmark-Tool bewertet die KI-Agenten in drei unterschiedlichen Arbeitsmodi:

Abbildung: Das Kerndesign von OpenAI EVMbench ist es, KI-Agenten in drei verschiedenen Modi zu testen

  • Der erste ist der „Erkennungsmodus (Detect)“, bei dem die KI den Code von Verträgen auditiert und bekannte Schwachstellen identifiziert, wobei die Schwere der gefundenen Probleme bewertet wird;
  • Der zweite ist der „Patch-Modus (Patch)“, bei dem die KI herausgefordert wird, Schwachstellen zu entfernen und den Code zu reparieren, ohne die ursprüngliche Funktionalität zu beeinträchtigen;
  • Der letzte ist der kontroverse „Exploit-Modus (Exploit)“, bei dem die KI in einer sandboxed Blockchain-Umgebung End-to-End-Angriffe auf Gelder durchführt.

Um die Strenge und Reproduzierbarkeit der Tests zu gewährleisten, hat das Team eine auf Rust basierende Testarchitektur entwickelt, die durch deterministische Transaktionswiedergabe überprüft, ob Angriffe oder Patches erfolgreich sind.

Deutlicher Trend: Angriffsfähigkeit wächst, GPT-5.3-Codex zeigt beeindruckende Fortschritte

Die ersten Testergebnisse zeigen eine deutliche Leistungsdifferenz zwischen den verschiedenen Aufgaben. Die neueste Generation, GPT-5.3-Codex, zeigt im Exploit-Modus eine hervorragende Leistung mit einer Punktzahl von 72,2 %, verglichen mit nur 31,9 % bei dem vor sechs Monaten veröffentlichten GPT-5-Modell. Dies verdeutlicht eine erstaunliche Steigerung der Angriffsfähigkeit.

Abbildung: Übersicht der Punktzahlen verschiedener KI-Modelle in den drei Modi

Dies zeigt, dass KI bei klaren Zielen wie „Geld leeren“ über starke iterative Planungs- und Ausführungskapazitäten verfügt. Auf der Verteidigungsseite sind die Ergebnisse jedoch eher schwach: Die KI neigt dazu, bei der Erkennung nur eine einzelne Schwachstelle zu finden und die Suche dann abzubrechen. Bei komplexen Logik-Repair-Aufgaben ist es oft schwierig, Schwachstellen zu beheben, ohne die normale Funktion des Vertrags zu beeinträchtigen. Sicherheitsexperten äußern Bedenken, dass KI die Zeit von Schwachstellenentdeckung bis zur Entwicklung von Angriffsmethoden erheblich verkürzen könnte, was höhere Anforderungen an die Verteidigung von DeFi-Projekten stellt.

Talente und Verteidigungsförderung: OpenAI baut die Sicherheit des KI-Agenten-Ökosystems aus

Neben der Tool-Entwicklung investiert OpenAI auch in Talentakquise und Ökosystemverteidigung. Kürzlich wurde der Gründer des OpenClaw-Projekts, Peter Steinberger, eingestellt, um die Entwicklung personalisierter KI-Agenten der nächsten Generation zu leiten, und das Projekt wird in ein von OpenAI unterstütztes Foundation-Modell umgewandelt.

Um den möglichen Cybersecurity-Risiken durch KI entgegenzuwirken, kündigte OpenAI an, im Rahmen seines Cybersecurity-Förderprogramms 10 Millionen US-Dollar an API-Guthaben bereitzustellen, um Open-Source-Verteidigungstools und kritische Infrastruktur zu unterstützen. Diese Initiative ist besonders relevant nach dem kürzlichen Vorfall bei Moonwell, bei dem ein Fehler im gemeinsam genutzten Code zu einem Verlust von etwa 1,78 Millionen US-Dollar führte.

Weiterführende Literatur
Ablehnung eines Milliardenangebots von Meta, OpenClaw-Gründer schließt sich OpenAI an – Talentwettbewerb entbrennt
Vibe Coding-Fehler? Moonwell-Orakel versagt, 1,78 Mio. Verlust – wer trägt die Kosten?

Zukünftig wird es immer wichtiger, mit Tools wie EVMbench zwischen Modellen zu unterscheiden, die nur Schwachstellen beschreiben können, und solchen, die zuverlässige Verteidigungsstrategien bieten, insbesondere wenn mehr KI-gestützte Stablecoin-Zahlungsagenten und automatisierte Wallets in das Ökosystem integriert werden.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

XRP Ledger Validators Weigh Two Amendments as Votes Lag

The XRP Ledger is reviewing two proposed amendments that could expand lending functions and strengthen vault infrastructure. Validators have begun voting, yet early participation remains limited. Current results suggest the proposals still face significant hurdles before reaching activation

CryptoBreaking3M her

Aster API V3 正式上线,V1 延迟将于 3 月 18 日增至 200 毫秒

Gate News 消息,3 月 14 日,Aster 发布公告称,Aster API V3 已正式上线。自 3 月 16 日起,V1 版本的延迟将逐步增加,预计到 3 月 18 日将达到约 200 毫秒。Aster 建议用户立即迁移至 V3 版本。

GateNews2Std her

以太坊基金会发布"EF Mandate"文件,明确生态角色与核心使命

以太坊基金会发布了"EF Mandate"文件,明确其在生态系统中的角色与职责,强调CROPS原则,致力于用户主权、安全与优化体验。该文件为内部行动纲领及社区参考提供指导。

GateNews3Std her

Pump.fun Launches Automated Buybacks for Tokenized AI Agents

Pump.fun enhances the AI-driven crypto economy by automating buybacks for agent tokens, linking success with community holders. Revenue in $SOL or $USDC buys and burns tokens, addressing value accrual issues and encouraging engagement. Developers can adjust buyback rates, ensuring a streamlined process for launching tokenized agents.

CryptoFrontNews3Std her

Vitalik Buterin Calls Ethereum a “Sanctuary Technology”

The Ethereum Foundation's new EF Mandate clarifies its supportive role in the decentralized Ethereum ecosystem, emphasizing principles like censorship resistance and infrastructure support while avoiding direct governance control. Vitalik Buterin highlights Ethereum as a “sanctuary technology” that promotes digital freedom, contributing to positive market responses.

Coinfomania3Std her

Solana Approves SIMD-0266 Upgrade for Faster Transactions

Solana has approved a major network upgrade that could make transactions much faster and cheaper. The upgrade, called SIMD-0266, introduces a new token model known as p-tokens. Developers say this change could make some transactions up to 19 times more efficient. The proposal was first introduced

Coinfomania5Std her
Kommentieren
0/400
Keine Kommentare