Les trois moments d'Anthropic : fuite de code, confrontation avec le gouvernement et militarisation

BlockBeatNews

Titre original : Anthropic : La fuite, la guerre, l’arme
Auteur original : BuBBliK
Traduction : Peggy,BlockBeats

Note de l’éditeur : Au cours des six derniers mois, Anthropic a été impliquée à plusieurs reprises dans une série d’événements qui semblent indépendants les uns des autres, mais qui, en réalité, se répondent et convergent : un saut de capacité des modèles, des attaques automatisées dans le monde réel, une réaction spectaculaire des marchés des capitaux, des affrontements publics avec le gouvernement, et plusieurs fuites d’informations provoquées par des erreurs de configuration de base. En les mettant ensemble, ces indices dessinent une direction de changement plus claire.

Cet article, à travers ces événements, revient sur la trajectoire continue d’une entreprise d’IA dans ses percées techniques, ses expositions aux risques et ses confrontations en matière de gouvernance, et tente de répondre à une question plus profonde : lorsque la capacité de « découvrir des vulnérabilités » est considérablement amplifiée, puis se diffuse progressivement, le système de cybersécurité lui-même peut-il encore conserver sa logique de fonctionnement d’origine ?

Auparavant, la sécurité reposait sur la rareté des capacités et les contraintes humaines ; dans les nouvelles conditions, l’attaque et la défense évoluent autour d’une même capacité des modèles, et les frontières deviennent de plus en plus floues. Dans le même temps, les réactions des institutions, des marchés et des organisations demeurent prisonnières des anciens cadres, ce qui rend difficile l’adaptation en temps voulu à ce changement.

Ce qui est au centre de cet article ne concerne pas seulement Anthropic elle-même, mais aussi une réalité plus vaste qu’elle reflète : l’IA ne change pas uniquement les outils, elle change aussi les prémisses de « la manière dont la sécurité se construit ».

Voici le texte original :

Lorsqu’une entreprise d’une capitalisation boursière de 380 milliards de dollars fait jeu égal dans un bras de fer avec le Pentagone et en ressort gagnante, survit à la toute première attaque réseau lancée par une IA autonome de l’histoire, puis divulgue en interne un modèle que même ses propres développeurs disent redouter, et même « par accident » publie le code source complet — que devient l’ensemble ?

La réponse, c’est exactement ce que l’on voit aujourd’hui. Et ce qui inquiète encore davantage, c’est que la partie réellement la plus dangereuse n’a peut-être pas encore eu lieu.

Récapitulatif des événements

Anthropic a de nouveau divulgué son code

Le 31 mars 2026, le chercheur en sécurité Shou Chaofan, de l’entreprise de blockchain Fuzzland, a constaté, en examinant le paquet npm officiel de Claude Code, qu’il contenait pourtant clairement un fichier nommé cli.js.map.

Ce fichier fait 60 Mo. Et son contenu est encore plus surprenant : il renferme presque l’intégralité du code source TypeScript complet du produit. À partir de ce seul fichier, n’importe qui peut reconstituer jusqu’à 1906 fichiers de code source internes : conception des API internes, système de télémétrie, outils de chiffrement, logique de sécurité, système de plugins — presque tous les composants essentiels sont là, affichés sans exception. Plus important encore : ces éléments peuvent même être téléchargés directement depuis le bucket de stockage R2 d’Anthropic sous forme de fichier zip.

Cette découverte s’est rapidement propagée sur les réseaux sociaux : en quelques heures, les publications associées ont atteint 754k vues et près de 1 000 partages ; dans le même temps, plusieurs dépôts GitHub contenant des versions reconstituées des sources ont été créés et rendus publics en première minute.

Ce qu’on appelle source map (fichier de correspondance de source) est, dans l’essence, simplement un fichier auxiliaire utilisé pour le débogage de JavaScript. Son rôle consiste à remettre le code compressé et compilé dans sa forme de code source d’origine, afin d’aider les développeurs à diagnostiquer les problèmes.

Mais il existe une règle de base : il ne devrait jamais être inclus dans le paquet de publication pour l’environnement de production.

Ce n’est pas une technique d’attaque sophistiquée : c’est un problème de norme d’ingénierie fondamental, relevant du « Construire un setup de configuration — niveau 101 », voire d’un contenu appris dès la première semaine par les développeurs. S’il est emballé par erreur dans l’environnement de production, source map revient souvent à « offrir » le code source à tout le monde.

Vous pouvez aussi consulter directement le code concerné ici : https://github.com/instructkr/claude-code

Mais ce qui rend l’ensemble véritablement absurde, c’est que l’affaire s’est déjà produite une fois.

En février 2025, c’était déjà exactement la même fuite, presque à l’identique : le même fichier, la même erreur. À l’époque, Anthropic avait supprimé l’ancienne version depuis npm, retiré le source map, puis republie une nouvelle version, et l’affaire s’était arrêtée là.

Résultat : dans la version v2.1.88, ce fichier a de nouveau été empaqueté et publié.

Une entreprise d’une capitalisation de 380 milliards de dollars, en train de construire l’un des systèmes de détection de vulnérabilités les plus avancés au monde, a commis deux fois la même erreur fondamentale en un an. Pas d’attaque de hacker, pas de chemin d’exploitation complexe : uniquement un processus de build qui aurait dû fonctionner normalement.

Cette ironie a presque quelque chose de « poétique ».

Cette IA capable de découvrir 500 vulnérabilités zero-day en une seule exécution ; ce modèle utilisé pour lancer des attaques automatisées contre 30 organisations à travers le monde — et pourtant, pendant ce temps, Anthropic « offre » directement son code source, en le mettant dans la portée de quiconque prend la peine de jeter un œil au paquet npm.

Deux fuites, séparées de moins de sept jours.

La cause, elle, est identique : une erreur de configuration tout à fait basique. Pas besoin de compétences techniques, pas besoin de chemins d’exploitation complexes. Il suffit de savoir où chercher, et n’importe qui peut obtenir gratuitement.

Il y a une semaine : exposition accidentelle du « modèle dangereux » en interne

Le 26 mars 2026, les chercheurs en sécurité Roy Paz (LayerX Security) et Alexandre Pauwels (University of Cambridge) ont découvert un problème dans la configuration CMS du site officiel d’Anthropic, qui entraînait l’accès public non protégé d’environ 3 000 documents internes.

Ces documents incluent : brouillons de blogs, PDF, documents internes, supports de présentation — tous exposés dans un espace de stockage non protégé, indexable et consultable via recherche. Aucune attaque de hacker, et aucun moyen technique n’était requis.

Parmi ces documents, il y avait deux brouillons de blog presque identiques, la seule différence étant le nom du modèle : l’un écrit « Mythos », l’autre « Capybara ».

Cela signifie qu’Anthropic hésitait entre deux noms pour le même projet secret à ce moment-là. L’entreprise a ensuite confirmé : l’entraînement de ce modèle est terminé et il a déjà commencé à être testé auprès de certains clients en amont.

Ce n’est pas une simple mise à niveau régulière vers Opus, mais un tout nouveau modèle de « niveau quatre », dont le positionnement est même supérieur à celui d’Opus pour les systèmes.

Dans les brouillons d’Anthropic eux-mêmes, il est décrit comme : « Plus grand et plus intelligent que notre modèle Opus — et Opus reste jusqu’à présent notre modèle le plus puissant. » Il a réalisé des progrès notables dans les capacités de programmation, le raisonnement académique et la cybersécurité. Un porte-parole l’a qualifié de « véritable saut qualitatif », et aussi du « modèle le plus puissant que nous ayons construit jusqu’ici ».

Mais ce qui mérite vraiment d’être surveillé n’est pas ces descriptions de performance en tant que telles.

Dans les brouillons divulgués, l’évaluation d’Anthropic sur ce modèle est la suivante : il « apporte un risque de cybersécurité sans précédent », il « dépasse largement tout autre modèle d’IA sur le plan des capacités réseau », et il « annonce une nouvelle vague de modèles à venir — dont la capacité à exploiter des vulnérabilités dépassera de loin la vitesse de réponse des défenseurs ».

Autrement dit, dans un brouillon de blog officiel encore non publié, Anthropic a déjà exprimé clairement une prise de position rare : ils ne se sentent pas à l’aise avec le produit qu’ils construisent.

La réaction du marché a été quasi immédiate. Le cours de CrowdStrike a chuté de 7 %, celui de Palo Alto Networks de 6 %, celui de Zscaler de 4,5 % ; Okta et SentinelOne ont chuté de plus de 7 % ; Tenable a même plongé de 9 %. L’iShares Cybersecurity ETF a reculé de 4,5 % sur la seule journée. Rien que pour CrowdStrike, la capitalisation boursière a été effacée d’environ 15 milliards de dollars le jour même. Dans le même temps, le bitcoin est revenu à 66 000 dollars.

Le marché a manifestement interprété cet événement comme un « verdict » contre l’ensemble du secteur de la cybersécurité.

Idée générale du schéma : sous l’effet des informations concernées, l’ensemble du secteur de la cybersécurité recule, et plusieurs entreprises phares (comme CrowdStrike, Palo Alto Networks, Zscaler, etc.) affichent de fortes baisses. Cela reflète l’inquiétude du marché face aux menaces que fait peser l’IA sur l’industrie de la cybersécurité. Mais cette réaction n’est pas la première fois. Auparavant, lorsque Anthropic a publié un outil de scan de code, les actions associées avaient aussi chuté, ce qui montre que le marché commence à considérer l’IA comme une menace structurelle pour les fournisseurs de sécurité traditionnels, et que l’ensemble de l’industrie logicielle subit des pressions similaires.

L’évaluation de l’analyste de Stifel, Adam Borg, est assez directe : ce modèle « a le potentiel de devenir l’outil de piratage ultime, et même de transformer un hacker ordinaire en adversaire capable de mener des attaques au niveau d’un État ».

Alors pourquoi n’a-t-il pas encore été publié publiquement ? La réponse d’Anthropic est que le coût d’exploitation de Mythos « est très élevé » et qu’il ne remplit pas les conditions nécessaires pour une publication au grand public. Le plan actuel est de d’abord ouvrir un accès anticipé à une petite partie des partenaires de cybersécurité, afin de renforcer le système de défense ; ensuite, d’étendre progressivement la portée d’ouverture de l’API. D’ici là, l’entreprise continue d’optimiser l’efficacité.

Mais l’essentiel, c’est que ce modèle existe déjà, qu’il est en phase de test, et même uniquement parce qu’« il a été accidentellement exposé », il a déjà provoqué des répercussions sur l’ensemble du marché des capitaux.

Anthropic construit un « modèle d’IA le plus risqué pour la cybersécurité de l’histoire », selon leur propre expression. Et le fait que sa nouvelle se soit divulguée vient précisément d’une erreur de configuration d’infrastructure tout à fait basique — exactement le type d’erreur que ce modèle, à la base, a été conçu pour découvrir.

Mars 2026 : affrontement entre Anthropic et le Pentagone, avec prise d’avantage

En juillet 2025, Anthropic et le département de la Défense des États-Unis ont signé un contrat de 200 millions de dollars, qui semblait initialement n’être qu’une coopération régulière. Mais lors des discussions de déploiement qui ont suivi, les contradictions se sont rapidement intensifiées.

Le Pentagone souhaite obtenir un « accès complet » à Claude sur sa plateforme GenAI.mil, avec des usages incluant toutes les « finalités légitimes » — y compris des systèmes d’armes entièrement autonomes, ainsi qu’une surveillance intérieure massive des citoyens américains.

Anthropic a tracé des lignes rouges et a refusé clairement sur deux questions clés ; les négociations ont échoué en septembre 2025.

La situation a ensuite rapidement escaladé. Le 27 février 2026, Donald Trump a publié sur Truth Social un message demandant à tous les organismes fédéraux de « cesser immédiatement » d’utiliser la technologie d’Anthropic et qualifiant la société de « gauchiste radical ».

Le 5 mars 2026, le département de la Défense des États-Unis a officiellement classé Anthropic comme « risque pour la chaîne d’approvisionnement ».

Cette étiquette avait presque uniquement été utilisée pour des adversaires étrangers — comme des entreprises chinoises ou des entités russes — et elle est désormais appliquée pour la première fois à une entreprise américaine basée à San Francisco. Dans le même temps, des entreprises comme Amazon, Microsoft et Palantir Technologies se sont vu demander de prouver qu’aucune de leurs activités liées à l’armée n’utilisait Claude.

L’explication donnée par le CTO du Pentagone, Emile Michael, est la suivante : Claude pourrait « contaminer » la chaîne d’approvisionnement, car le modèle intègre des « préférences de politiques » différentes en interne. Autrement dit, dans le langage officiel, une IA qui restreint son utilisation et n’assiste pas inconditionnellement à des actes de mise à mort serait plutôt considérée comme un risque de sécurité nationale.

Le 26 mars 2026, une juge fédérale, Rita Lin, a rendu une décision longue de 43 pages, bloquant intégralement les mesures du Pentagone.

Dans son jugement, elle écrit : « Aucune disposition du droit en vigueur ne permet de soutenir cette logique à connotation “orwellienne” — uniquement parce qu’il y a un désaccord avec la position du gouvernement, une entreprise américaine peut être étiquetée comme un potentiel adversaire. Punir Anthropic pour avoir soumis la position du gouvernement à l’examen du public revient essentiellement à un acte typique et illégal de représailles à la Première Amendement. » Un mémoire d’amicus curiae a même décrit les actions du Pentagone comme « une tentative de meurtre contre des entreprises ».

Au final, le gouvernement a tenté de réprimer Anthropic, mais cela lui a au contraire apporté davantage d’attention. L’application Claude a dépassé ChatGPT pour la première fois dans le magasin d’applications, et le nombre d’inscriptions a atteint un pic à plus d’un million par jour.

Une entreprise d’IA a dit « non » au plus puissant appareil militaire au monde. Et le tribunal s’est rangé de son côté.

Novembre 2025 : la première attaque réseau menée par l’IA de l’histoire

Le 14 novembre 2025, Anthropic a publié un rapport qui a suscité une forte agitation.

Le rapport révèle qu’une organisation de hackers soutenue par l’État chinois, en utilisant Claude Code, a mené des attaques automatisées contre 30 organisations à travers le monde — des géants de la technologie aux banques, jusqu’à plusieurs organismes gouvernementaux de différents pays.

C’est un point de bascule : l’IA cesse d’être seulement un outil d’assistance, et commence à être utilisée pour exécuter des attaques de manière indépendante.

L’élément clé est le changement dans la « manière de répartir le travail » : les humains ne font que choisir les cibles et approuver les décisions critiques. Pendant toute l’action, l’intervention humaine n’a lieu qu’environ 4 à 6 fois. Le reste est fait par l’IA : reconnaissance d’informations, découverte de vulnérabilités, écriture de code d’exploitation, vol de données, implantation de portes dérobées… cela représente 80 % à 90 % de l’ensemble du flux d’attaque, et le tout fonctionne à une cadence de plusieurs milliers de requêtes par seconde — un volume et une efficacité impossibles à égaler pour une équipe humaine.

Alors comment ont-ils contourné les mécanismes de sécurité de Claude ? La réponse est qu’ils n’ont pas « piraté », ils ont « trompé ».

L’attaque a été décomposée en une multitude de petites tâches qui semblaient inoffensives, et emballées comme des « tests de défense autorisés » d’une « société de sécurité légitime ». Essentiellement, il s’agit d’une attaque d’ingénierie sociale, sauf que cette fois, la cible trompée n’est pas un humain : c’est l’IA elle-même.

Une partie des attaques a été un succès total. Claude a pu dessiner en autonomie une topologie réseau complète, identifier des bases de données et finaliser l’extraction de données, sans instructions progressives données par un humain.

Le seul facteur qui ralentissait le rythme de l’attaque était que le modèle présentait parfois des « hallucinations » — par exemple des identifiants fictifs, ou l’affirmation d’avoir obtenu des fichiers qui étaient en réalité déjà accessibles publiquement. À ce stade, du moins, cela reste l’un des rares « obstacles naturels » empêchant une attaque réseau entièrement automatisée.

Lors de la RSA Conference 2026, Rob Joyce, ancien responsable de cybersécurité à la National Security Agency américaine, a qualifié cet événement de « test de Rorschach » : la moitié des gens choisissent d’ignorer, l’autre moitié ressent un frisson. Et lui, manifestement, fait partie de la seconde catégorie : « C’est très effrayant. »

Septembre 2025 : ce n’est pas une prédiction, c’est déjà une réalité

Février 2026 : détection de 500 vulnérabilités zero-day en une seule exécution

Le 5 février 2026, Anthropic a publié Claude Opus 4.6, accompagné d’une étude dont la diffusion a presque secoué l’ensemble du secteur de la cybersécurité.

Le dispositif expérimental était extrêmement simple : placer Claude dans un environnement de machine virtuelle isolée, avec des outils standard — Python, un débogueur, des outils de fuzzing (fuzzers). Aucune instruction supplémentaire, aucun prompt complexe : juste une phrase — « Va trouver des vulnérabilités. »

Le résultat : le modèle a découvert plus de 500 vulnérabilités zero-day critiques inconnues auparavant. Certaines de ces vulnérabilités, même après des dizaines d’années d’examen par des experts et des centaines de millions d’heures de tests automatisés, n’avaient toujours pas été détectées.

Ensuite, à la RSA Conference 2026, le chercheur Nicholas Carlini est monté sur scène pour faire une démonstration. Il a orienté Claude vers Ghost, un système CMS sur GitHub comptant 50k étoiles et n’ayant jamais présenté de vulnérabilité grave dans son historique.

Après 90 minutes, le résultat est apparu : une vulnérabilité d’aveugle blind SQL injection a été identifiée, permettant aux utilisateurs non authentifiés d’obtenir une prise de contrôle complète des privilèges d’administrateur.

Puis, il a de nouveau utilisé Claude pour analyser le noyau Linux. Le résultat était identique.

15 jours plus tard, Anthropic a lancé Claude Code Security, un produit de sécurité qui ne repose plus sur la détection par correspondance de motifs, mais sur une compréhension du code basée sur des « capacités de raisonnement ».

Mais le porte-parole d’Anthropic a lui-même énoncé le fait clé, mais souvent éludé : « les mêmes capacités de raisonnement, peuvent aussi bien aider Claude à découvrir et corriger des vulnérabilités, qu’être utilisées par des attaquants pour exploiter ces vulnérabilités. »

La même capacité, le même modèle — seulement entre les mains de personnes différentes.

Alors, que signifie tout cela une fois rassemblé ?

Si on regarde chaque chose séparément, chacune d’elles suffirait à devenir la plus grosse actualité du mois. Mais elles se sont toutes produites dans la même entreprise en seulement six mois.

Anthropic a construit un modèle capable de trouver des vulnérabilités plus vite que n’importe quel humain ; des hackers chinois ont transformé une version précédente en une arme de réseau automatisée ; et la société développe le prochain modèle, plus puissant, et même dans ses documents internes, ils reconnaissent — qu’ils s’en inquiètent.

Le gouvernement américain tente de le freiner non pas parce que la technologie elle-même est dangereuse, mais parce qu’Anthropic refuse de remettre cette capacité sans restrictions.

Et pourtant, pendant tout ce processus, cette entreprise a divulgué à deux reprises son code source, à cause du même fichier dans le même paquet npm. Une entreprise d’une capitalisation boursière de 380 milliards de dollars ; une entreprise dont l’objectif est d’achever une introduction en bourse de 60 milliards de dollars en octobre 2026 ; une entreprise qui a publiquement déclaré construire « l’une des technologies les plus transformatrices — et peut-être les plus dangereuses — de l’histoire de l’humanité » — mais qui choisit tout de même de continuer d’avancer.

Parce qu’ils croient que : mieux vaut que cela soit fait par eux plutôt que par d’autres.

Quant au source map dans le paquet npm — il s’agit peut-être seulement du détail le plus absurde, mais aussi le plus réel, dans l’un des récits les plus inquiétants de cette époque.

Et Mythos, même n’est pas encore officiellement publié.

[Lien de l’article original]

Cliquez pour en savoir plus sur les postes à pourvoir chez Ly动 BlockBeats

Bienvenue à rejoindre la communauté officielle de Ly动 BlockBeats :

Groupe d’abonnement Telegram : https://t.me/theblockbeats

Groupe de discussion Telegram : https://t.me/BlockBeats_App

Compte officiel Twitter : https://twitter.com/BlockBeatsAsia

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire