Laut dem Monitoring von 1M AI News hat die Open-Source-AI-Agent-Plattform OpenClaw die Version 2026.4.2 veröffentlicht. Diese Version enthält 2 breaking changes, etwa 15 Funktionsverbesserungen und über 30 Fehlerbehebungen.
Die beiden breaking changes setzen die am 2026.3.31 gestartete externe Auslagerung der Plugin-Architektur fort: Die x_search-Konfiguration von xAI und die web_fetch-Konfiguration von Firecrawl wurden aus dem Kernpfad in die eigenen Plugin-Pfade migriert. Die alte Konfiguration kann über openclaw doctor --fix automatisch migriert werden.
Das dichteste Einzelthema dieser Version ist die sicherheitsbezogene Zentralisierung von Anbieter-HTTP-Verbindungen. Der Mitwirkende vincentkoc hat 8 entsprechende Fixes eingereicht. Zuvor waren die Anforderungsautorisierung, Proxy-Einstellungen, TLS-Strategien und die Verarbeitung von Request-Heads für geteilte HTTP-, Streaming- und WebSocket-Pfade in den jeweiligen Anbieter-Adaptercodes verteilt; jetzt ist alles vereinheitlicht: GitHub Copilot, Anthropic und die nativen/Proxy-Request-Strategien für OpenAI-kompatible Endpunkte wurden zentralisiert, um zu verhindern, dass gefälschte oder Proxy-Endpunkte die nativen Defaultwerte erben. Medienanfragen wie Audio und Bilder werden über einen gemeinsamen HTTP-Pfad geroutet. Der Endpunkt für Bildgenerierung leitet keine Berechtigung für privaten Netzwerkzugriff mehr aus der konfigurierten base URL ab. Der Abgleich von Webhook-Schlüsseln über verschiedene Kanäle verwendet nun einheitlich eine zeit-sichere Vergleichsfunktion. Für Self-Hosted-Nutzer oder Nutzer, die mehrere Drittanbieter anbinden, schließen diese Änderungen eine Reihe von Schwachstellen in Bezug auf Request-Fälschung und das Erben von Strategien.
Bei den neuen Funktionen wurde auf der Android-Seite die Anbindung an Google Assistant hinzugefügt. Nutzer können OpenClaw direkt über den Sprachassistenten starten und den Prompt in die Dialogoberfläche übergeben. Die Ausführungs-Defaults haben sich geändert: Für Gateway und Node-Host wird standardmäßig security=full und ask=off verwendet, also wird die Sicherheitsstrategie erzwungen, aber keine Bestätigung per Popup nacheinander angezeigt. Das Plugin-System erhält einen neuen before_agent_reply-Hook, der es Plugins ermöglicht, den gesamten Prozess über eine synthetische Antwort vor der LLM-Antwort abzukürzen. Task Flow wird weiter verbessert: Hinzugekommen sind das Erzeugen von gehosteten Unteraufgaben und eine „sticky“-Abbruchabsicht; der externe Orchestrator kann die Ausführung der Planung sofort stoppen und auf das natürliche Ende aktiver Unteraufgaben warten.
Weitere Fixes: Die internen Gedanken-Tags antml:thinking des Anthropic-Modells, die zuvor in den für Nutzer sichtbaren Text geleakt sind, werden nun am Ausgabepunkt gefiltert; der Aufruf des Kimi Coding-Tools führte aufgrund von Inkompatibilitäten zwischen dem Anthropic- und OpenAI-Format zum Verlust von Parametern, das wurde vereinheitlicht; bei MS Teams wird bei einem Stream-Limit von mehr als 4000 Zeichen kein doppelter Output der bereits übertragenen Inhalte mehr ausgegeben.