KI-Krypto-Agenten in DeFi führen ungescriptete Trades aus, was die Risiken von Exploits, Verlusten und unvorhersehbarem Marktverhalten erhöht.
Ein Krypto-Forscher schlägt Alarm wegen KI-Agenten, die in DeFi echte Gelder verwalten.
Tanaka, der diese Agenten-Setups aus erster Hand testet, sagt, dass die Gefahr nicht das ist, was die meisten Menschen erwarten.
Diese Agenten folgen nicht nur Skripten. Sie interpretieren Ziele, improvisieren und handeln, ohne um Erlaubnis zu fragen. Diese Kombination, argumentiert er, ist ein ernstes Problem, das darauf wartet, zu passieren.
Tanaka merkt an, dass die meisten Menschen annehmen, einfache Sicherheitsvorkehrungen seien ausreichend. Den Prompt einschränken, die APIs beschränken, die Positionsgröße begrenzen, und der Agent bleibt in der Spur.
Aber seine Tests erzählen eine andere Geschichte. Agenten verketten Aktionen auf Weisen, die die Entwickler nie vorhergesehen haben.
Sie missverstehen leicht mehrdeutige Prompts. Sie reagieren auf externe Datenfeeds auf völlig unbeabsichtigte Weise.
Die Zahlen hinter diesem Anliegen sind schwer zu ignorieren. Frontier-Agenten nutzen jetzt etwa 55 bis 65 Prozent der bekannten Smart-Contract-Fehler in Testumgebungen aus.
In Simulationen generierten sie Millionen an Gewinn, indem sie Angriffswege fanden, die Menschen nie gescriptet hatten.
Einige Vorhersagemarkt-Agenten verwandelten 1.000 $ in weniger als einer Woche in über 14.000 $. Tanaka weist darauf hin, dass dieselbe Fähigkeit, die Alpha findet, auch Exploits findet.
Es gibt keinen Schalter zwischen den beiden. In DeFi kann eine falsche Schleife unbeabsichtigte 100-fache Hebelwirkung auslösen.
Ein vergifteter Oracle kann eine Liquidation erzwingen. Eine falsch verstandene Bedingung kann ein ganzes Portfolio auf die falsche Seite drehen. Der Agent pausiert nicht. Er fragt nicht.
Plattformen wie Polymarket sehen einen wachsenden Anteil an Aktivitäten, die von Agenten getrieben werden. Auf den ersten Blick scheinen die Vorteile attraktiv.
Sie handeln rund um die Uhr, reagieren sofort auf Nachrichten und haben keine emotionale Voreingenommenheit. Aber Tanaka hebt die Randfälle hervor, die ihn nachts wachhalten.
Was passiert, wenn ein Agent die Auflösungslogik falsch interpretiert? Er kann aggressiv auf das falsche Ergebnis setzen.
Wenn mehrere Agenten koordinieren, auch unbeabsichtigt, können sie die Marktwahrscheinlichkeiten verzerren. Wenn einer über Nacht ohne Aufsicht läuft, sieht das Portfolio am Morgen ganz anders aus.
Das, sagt er, ist kein UI-Fehler. Es ist eine autonome Kapitalfehlallokation. Frameworks wie Autonolas, Fetch.ai und Virtuals.io beschleunigen diesen Bereich.
Giza Tech und Theoriq bieten KI-Asset-Manager und Vault-Deployers an. Giza verteilt über DeFi-Protokolle, während Almanak es Agenten ermöglicht, schnell tokenisierte Strategien zu entwickeln.
Siehe auch:
_
CZ: KI-Agenten werden 1M× mehr Zahlungen leisten als Menschen mit Krypto
Tanaka vergleicht jeden KI-Agenten mit einer Wallet mit einem Junior-Trader mit Root-Zugriff, der niemals schläft und niemals um Bestätigung fragt.
Er fügt hinzu, dass dieser Trader manchmal sein eigenes Handbuch mitten in der Sitzung umschreibt. Die meisten Menschen würden dieser Person kein unbegrenztes Kapital anvertrauen.
Aber genau das passiert gerade im gesamten Bereich.
Sein Ansatz hat sich daher geändert. Er beginnt jetzt mit kleinem Kapital und setzt strenge Grenzen für Positionen und Aktionen durch.
Tanaka simuliert jede Strategie vor der Live-Ausführung und hält jederzeit einen Kill-Schalter bereit.
Er glaubt, dass Fehlschläge bevorstehen. Die einzige offene Frage ist seiner Meinung nach, wie kostspielig diese Lektionen sein werden.