Un petit modèle peut-il aussi détecter des vulnérabilités de cybersécurité que Claude Mythos détecte ? AISLE : le fossé protecteur est dans le système, pas dans le modèle

La startup en cybersécurité AISLE, créée par ![]###https://img-cdn.gateio.im/social/moments-e4b0e40da9-1b7138e903-8b7abd-badf29###, a reproduit une partie des démonstrations clés du système phare de sécurité informatique d’Anthropic, Mythos, avec un petit modèle à 3,6B paramètres actifs seulement, coûtant 0,11 dollar par million de tokens. Les limites des capacités en cybersécurité de l’IA sont plus « irrégulières » que ce que vous imaginez.
(Contexte : Lorsque Anthropic publiera Mythos, est-ce que ce sera le moment d’une bombe nucléaire pour DeFi ?)
(Complément de contexte : Mythos est tellement puissant qu’il déclenche une réunion d’urgence : Bescent et Powell rassemblent Citi, Goldman Sachs, Bank of America, et les grands et moyens Morgan, cinq banques se concentrant sur les risques financiers.)

Table des matières

Toggle

  • Que montre la démonstration de Mythos, et quelles reproductions le petit modèle réalise-t-il ?
  • Pourquoi un modèle plus grand ne signifie pas un système plus sûr
  • Où se trouve le fossé de protection — et où il ne se trouve pas

Anthropic a publié cette semaine un modèle non encore rendu public, le Claude Mythos Preview, et a aussi lancé simultanément le projet Project Glasswing (Glasswing), un programme porté par 12 entreprises technologiques, dont Amazon, Apple, Microsoft, CrowdStrike, Cisco, etc., qui utilisent ce modèle pour mener des recherches de cybersécurité défensives.

Parce que Mythos, selon les allégations, repère de manière autonome des milliers de vulnérabilités zero-day (vulnérabilité zero-day : faille de sécurité non encore corrigée et que les fournisseurs eux-mêmes peuvent ne pas connaître) dans chaque système d’exploitation majeur et dans les navigateurs, cela suggère qu’une nouvelle ère de défense en cybersécurité menée par l’IA est sur le point de commencer.

Cependant, moins d’une semaine plus tard, la startup en cybersécurité AISLE — cofondée par Stanislav Fort, chercheur à la fois chez DeepMind et chez Anthropic — a publié, dans le blog technique de la société, un rapport systématique.

Conclusion centrale, sans détour : lors de la tâche phare de démonstration de Mythos, un modèle open source dont le nombre de paramètres actifs n’est que de 3,6B, coûtant 0,11 dollar pour chaque million de tokens, obtient le même résultat en détection des vulnérabilités.

Que montre la démonstration de Mythos, et quelles reproductions le petit modèle réalise-t-il ?

AISLE a conçu trois séries de tests, chacune correspondant à des tâches de cybersécurité différentes, avec des difficultés et des natures distinctes.

La première série est un test de faux positifs pour OWASP (Open Web Application Security Project).

En traduction : une portion de code de requête Java SQL ressemble à une attaque par injection SQL (SQL Injection), mais en réalité, la logique est sûre. La bonne réponse est : ce n’est pas une vulnérabilité.

Les résultats des tests montrent un effet de scaling (mise à l’échelle) presque inversé : le petit modèle open source GPT-OSS-20b (3,6B paramètres actifs, $0.11/M tokens) suit correctement la logique du programme et conclut qu’il est inoffensif.

À l’inverse, Claude Sonnet 4.5, l’ensemble de la série GPT-4.1/5.4 (sauf o3 et pro), l’ensemble de la famille Anthropic jusqu’à Opus 4.5, classent tous avec assurance des faux positifs comme des vulnérabilités à haut risque. Seuls quelques modèles de toute première catégorie — o3, OpenAI-pro, Sonnet 4.6, Opus 4.6 — répondent correctement.

La deuxième série est une vulnérabilité FreeBSD NFS, le CVE-2026-4747, spécialement mise en avant dans la publication phare de Mythos : une vulnérabilité d’exécution de code à distance non autorisée vieille de 17 ans.

Résultat : les 8/8 modèles testés détectent tous avec succès, y compris ce petit modèle à 3,6B paramètres actifs. Tous les modèles identifient correctement un stack buffer overflow (débordement de mémoire tampon de la pile), calculent l’espace restant et l’évaluent comme un Critical RCE.

La conclusion d’AISLE est la suivante : ces capacités de détection sont déjà « industrialisées ».

La troisième série est une vulnérabilité OpenBSD SACK (historique de 27 ans), nécessitant de véritables raisonnements mathématiques : suivre une chaîne logique multi-étapes de débordement d’entier avec signe (signed integer overflow), à partir du raisonnement autour de la trace.

La difficulté augmente nettement, et les performances des modèles se différencient. GPT-OSS-120b (5,1B paramètres actifs) reproduit entièrement la chaîne d’exploitation, AISLE l’évalue A+. La version open source Kimi K2 obtient A-. Tandis que Qwen3 32B aboutit à une conclusion erronée du type « le code est robuste », évaluée F.

Même sur cette tâche plus difficile, un modèle open source extrêmement peu coûteux parvient à réaliser la même démonstration que le système phare.

( Pourquoi un modèle plus grand ne signifie pas un système plus sûr

Le véritable point de cette étude n’est pas « un petit modèle suffit », mais que la structure des capacités de cybersécurité de l’IA est bien plus complexe que ce que le public imagine.

AISLE décompose la chaîne d’outils en cybersécurité de l’IA en cinq sous-tâches indépendantes :

  • Scan large (broad scanning)
  • Détection de vulnérabilités (vulnerability detection)
  • Évaluation et validation (triage and validation)
  • Génération de correctifs (patch generation)
  • Construction d’exploits (exploit construction)

La nature de la mise à l’échelle (scaling) de chaque sous-tâche est différente, et les capacités de modèle requises ne sont pas les mêmes. L’annonce de Mythos intègre ces cinq niveaux comme un système complet, mais en réalité, leurs besoins en modèles sont extrêmement différents : certaines sous-tâches sont déjà complètement saturées avec 3,6B paramètres, tandis que d’autres nécessitent des capacités de raisonnement complexes.

Cela fait écho au concept de « Jagged Frontier » (frontière irrégulière) proposé en 2023 par les chercheurs de Harvard Business School Dell’Acqua et Mollick, etc. : la frontière des capacités de l’IA n’est pas une courbe lisse, mais une bordure en dents de scie, avec des creux et des bosses ; sur certaines tâches, elle dépasse largement les humains, mais sur des tâches adjacentes, elle devient étonnamment fragile.

L’étude montre que si les utilisateurs déploient l’IA à l’intérieur de la frontière des capacités, la productivité augmente d’environ 40 % ; mais s’ils l’étendent imprudemment au-delà de la frontière, les performances diminuent au contraire de 19 %.

Dans ce cadre, AISLE propose une inférence plus directement applicable : « Mille détectives “suffisants” cherchent partout, plutôt qu’un détective génial qui devine où chercher, et cela permet de trouver plus de vulnérabilités. »

Déployer massivement des modèles à faible coût pour réaliser des scans à large spectre peut, en termes d’efficacité globale, surpasser une planification prudente utilisant un seul modèle haut coût. AISLE indique qu’à partir du milieu de 2025, elle exécute un système de découverte de vulnérabilités sur des objectifs réels : elle a trouvé 15 CVE dans OpenSSL (dont 12 proviennent d’une seule version de sécurité, avec CVSS 9.8 Critical), 5 dans curl, et au total plus de 180 CVE validées par des tiers externes dans plus de 30 projets.

) Où se trouve le fossé de protection — et où il ne se trouve pas

Cette analyse n’est ni une critique exhaustive d’Anthropic, ni un simple soutien sans réserve.

AISLE précise clairement que la signification de Mythos consiste à prouver que la catégorie « cybersécurité basée sur l’IA » est réelle : ce n’est pas seulement une idée mise en scène dans un laboratoire de démonstration, mais un système capable de fonctionner sur de véritables objectifs. Ce qu’Anthropic cherche à maximiser, c’est la « densité de sagesse par token », ce qui conserve une valeur difficilement remplaçable, même pour des tâches nécessitant un raisonnement approfondi.

Mais AISLE souligne en même temps un problème plus fondamental pour l’ensemble de l’industrie : le fossé de protection se trouve dans le système, pas dans le modèle lui-même.

Dans le domaine de la cybersécurité, AISLE estime que ce qui crée la vraie différenciation, ce sont des conceptions d’architecture intégrant une expertise approfondie, par exemple : comment décomposer les tâches, comment planifier l’exécution de modèles de différents coûts entre les sous-tâches, et comment maintenir la confiance des mainteneurs dans l’environnement de production.

Un système capable de trouver des vulnérabilités CVSS 9.8 dans OpenSSL, et un système qui détecte, dans une démonstration contrôlée, des vulnérabilités connues correspondant à des motifs, ne nécessitent pas seulement un modèle plus puissant, mais une logique d’ingénierie totalement différente.

En résumé, le rapport d’AISLE conclut : des modèles plus bon marché et plus ouverts peuvent déjà reproduire une partie de ses démonstrations clés. Le vrai problème n’est peut-être pas de savoir quel modèle est le plus fort, mais plutôt : qui fait d’abord fonctionner en production l’architecture des cinq sous-tâches.

![]###https://img-cdn.gateio.im/social/moments-e4b0e40da9-1b7138e903-8b7abd-badf29

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

66,3% des employés américains à hauts revenus utilisent des outils d’IA au travail, selon une enquête de la Réserve fédérale

Selon une enquête de la Réserve fédérale, 66,3 % des employés américains gagnant plus de 200 000 dollars par an ont utilisé des outils d'IA au travail au cours des 12 derniers mois au 1er mai. Dans les tranches de revenus plus faibles, les taux d'utilisation diminuent fortement : 51,6 % pour ceux qui gagnent entre 100 000 et 200 000 dollars, 40,2 % pour ceux qui gagnent entre 50 000 et 100

GateNewsIl y a 13m

xAI lance l’API Grok 4.3 avec une fenêtre de contexte de 1 million de tokens pour 1,25 dollar par million de tokens d’entrée

D’après BlockBeats, xAI a lancé l’API Grok 4.3 le 1er mai. Le nouveau modèle prend en charge une fenêtre de contexte de 1 million de tokens et propose des capacités d’entrée/sortie de texte, multimodales ainsi que des fonctions d’appel d’outils. L’API Grok 4.3 est proposée à 1,25 $ par million d’entrées

GateNewsIl y a 25m

Les géants de la tech américaine s’apprêtent à investir $700B en infrastructure d’IA d’ici 2026, dépassant largement les 105 milliards de dollars de la Chine

D’après le South China Morning Post, les géants américains de la tech devraient investir plus de 700 milliards de dollars dans les infrastructures d’IA cette année, bien au-delà des acteurs chinois. Google, Microsoft, Meta et Amazon représentent la majeure partie de ce total, tandis que Morgan Stanley a estimé que les fournisseurs de cloud chinois dépenseraient environ 105 milliards de dollars…

GateNewsIl y a 30m

Huawei prévoit que ses revenus de puces IA pour 2026 atteindront 12 milliards de dollars, soit une hausse de 60 % par rapport à 2025

Selon Reuters, Huawei s’attend à ce que son chiffre d’affaires de puces d’IA pour 2026 atteigne environ 12 milliards de dollars, soit une hausse d’au moins 60 % par rapport aux 7,5 milliards de dollars en 2025. La plupart des commandes de cette année portent sur le processeur Ascend 950PR, entré en production de masse en mars. L’entreprise prévoit de lancer une

GateNewsIl y a 1h

Nvidia investit dans la startup suédoise de legaltech en IA, Legora, et Jude Law en devient l’ambassadeur de marque mondial

Nvidia investit 50 millions de dollars supplémentaires dans le cadre d'un tour d'extension Series D pour Legora, portant le total des levées de fonds de Legora à 600 millions de dollars, avec une valorisation de 5,6 milliards de dollars. Atlassian, Adams Street Partners et Insight Partners participent. Legora se concentre sur la legaltech IA et propose des outils tels que l'examen automatisé, l'analyse des contrats et la recherche juridique, avec un ARR de plus de 100 millions de dollars ; les effectifs sont passés de 40 à 400. Jude Law devient l'ambassadeur mondial de la marque, avec le slogan publicitaire « Law just got more attractive ».

ChainNewsAbmediaIl y a 1h

Anthropic ouvre la version bêta de la sécurité de Claude pour les utilisateurs professionnels le 1er mai

D’après BlockBeats, le 1er mai, Anthropic a annoncé que Claude Security, un outil de sécurité du code, a ouvert des tests bêta publics pour les utilisateurs de Claude Enterprise. L’outil analyse des dépôts de code à la recherche de vulnérabilités de sécurité, effectue une vérification secondaire afin de réduire les faux positifs et automatise le processus de correction.

GateNewsIl y a 1h
Commentaire
0/400
Aucun commentaire