Anthropic testet das leistungsstärkste KI-Modell, das es je gebaut hat, und die Welt sollte noch nichts davon erfahren.
Ein Datenleck, das am Donnerstag von Fortune gemeldet wurde, enthüllte, dass das KI-Labor hinter Claude ein neues Modell namens „Mythos“ trainiert hat, das intern als „bei weitem das leistungsstärkste KI-Modell, das wir je entwickelt haben“ beschrieben wird.
Das Modell wurde in einem Entwurf eines Blogbeitrags entdeckt, der in einem unsicheren, öffentlich durchsuchbaren Datencache hinterlassen wurde, zusammen mit fast 3.000 anderen unveröffentlichten Inhalten, so Cybersecurity-Forscher, die das Material überprüft haben.
Anthropic bestätigte die Existenz des Modells nach einer Anfrage von Fortune und bezeichnete es als „einen Schrittwechsel“ in der KI-Leistung und „das fähigste, das wir bisher gebaut haben.“ Das Unternehmen sagte, es werde von „Frühzugangs-Kunden“ getestet und räumte ein, dass ein „menschlicher Fehler“ in seinem Inhaltsmanagementsystem das Leck verursacht habe.
Der Entwurf des Blogbeitrags stellte eine neue Modellstufe namens „Capybara“ vor, die als größer und fähiger beschrieben wird als die bestehenden Opus-Modelle von Anthropic, die zuvor die leistungsstärksten waren.
„Im Vergleich zu unserem vorherigen besten Modell, Claude Opus 4.6, erzielt Capybara dramatisch höhere Punktzahlen bei Tests zur Software-Codierung, akademischem Denken und Cybersicherheit, unter anderem“, hieß es im Entwurf.
Die Dimension der Cybersicherheit ist für die Kryptoindustrie am bedeutendsten. Der Entwurf des Blogbeitrags sagte, dass das Modell „beispiellose Cybersicherheitsrisiken“ mit sich bringe, eine Darstellung, die direkte Auswirkungen auf die Sicherheit von Blockchains, die Prüfung von Smart Contracts und das eskalierende Wettrüsten zwischen Angreifern und Verteidigern im DeFi hat.
Allein in dieser Woche kündigte Ripple eine KI-gesteuerte Sicherheitsüberholung für das XRP Ledger an, nachdem ein KI-unterstütztes Rote-Team mehr als 10 Schwachstellen in seinem 13 Jahre alten Code entdeckt hatte. Ethereum startete ein spezielles Post-Quanten-Sicherheitszentrum, das auf acht Jahren Forschung basiert.
Und der Stablecoin Resolv verlor seinen Peg, nachdem ein Angreifer einen Minting-Vertrag ohne Oracle-Checks und mit Ein-Schlüssel-Zugriffskontrolle ausgenutzt hatte, eine Art von Infrastrukturfehler, den leistungsfähigere KI-Tools möglicherweise schneller identifizieren könnten, bevor ein Angreifer dies tut, oder schneller ausnutzen, als die Verteidiger reagieren können.
Für den KI-Token-Markt wirft das Leck eine andere Frage auf. Das dezentrale Netzwerk von Bittensor hat kürzlich Covenant-72B veröffentlicht, ein Modell, das mit Metas Llama 2 70B konkurriert, was zu einem Anstieg von 90 % bei TAO führte und die Marktkapitalisierung der Subnetz-Token auf insgesamt 1,47 Milliarden USD trieb.
Ein „Schrittwechsel“ von einem zentralisierten Labor wie Anthropic setzt die Benchmark, die dezentrale KI-Projekte erreichen müssen. Der Wettbewerbsabstand zwischen dem, was ein gut finanziertes Unternehmenslabor bauen kann, und dem, was ein genehmigungsfreies Netzwerk produzieren kann, ist gerade größer geworden.
Anthropic sagte, dass es „absichtlich“ über die Veröffentlichung des Modells nachdenke, angesichts seiner Fähigkeiten. Der Entwurf des Blogs stellte fest, dass das Modell teuer im Betrieb ist und noch nicht für die allgemeine Verfügbarkeit bereit ist. Das Unternehmen hat den öffentlichen Zugang zum Datencache entfernt, nachdem Fortune es kontaktiert hatte.
Das Leck selbst ist eine eigene Warnung. Ein Unternehmen, das ein KI-Modell mit beispiellosen Cybersicherheitsfähigkeiten beschreibt, hat die Ankündigung dieses Modells aufgrund menschlichen Fehlers in einem unsicheren, öffentlich durchsuchbaren Datenspeicher hinterlassen. Die Ironie bedarf keiner Erläuterung.