Selon la surveillance 1M AI News, le week-end dernier, Anthropic a banni des outils tiers comme OpenClaw après leur utilisation pour consommer les quotas d’abonnement à Claude. La façon dont son mécanisme de détection des abus fonctionne a déclenché une nouvelle vague de controverses.
Le fondateur d’OpenClaw, Peter Steinberger, a mené un test le 5 avril sur X : il n’a pas utilisé OpenClaw, mais a envoyé une demande ordinaire via l’option -p de l’outil en ligne de commande de Claude (une interface d’automatisation intégrée permettant aux développeurs d’appeler Claude en lots via des scripts, sans saisie manuelle une par une). La seule « infraction » était d’avoir rédigé une phrase dans le message système : « A personal assistant running inside OpenClaw ». Résultat : Claude a immédiatement bloqué la requête et a indiqué que les applications tierces devaient être facturées via une déduction de consommation supplémentaire. Autrement dit, le système de détection ne juge pas l’outil réel utilisé pour appeler Claude : il scanne le contenu du message, et lorsqu’il voit « OpenClaw », il bannit.
Le PDG de Y Combinator, Garry Tan, a relayé en demandant : « Quand est-ce que les limites vont enfin s’arrêter ? Est-ce que Anthropic n’autorise qu’un humain appuyant sur Entrée pour considérer l’utilisation comme un abonnement ? Et ensuite, faudra-t-il utiliser FaceID pour vérifier ? »
Le responsable de Claude Code, Boris Cherny, a répondu le 7 avril en disant que l’équipe estime qu’il s’agit d’un déclenchement excessif du système de détection des abus. Elle est en train d’enquêter et de corriger le problème, tout en améliorant les conditions d’utilisation de l’option -p.