Les actifs conformes à l'IA : la quantique est en train de « réévaluer »

Auteur : Zhang Feng

À l’heure actuelle, l’intelligence artificielle s’est profondément intégrée à la production et à la vie sociale d’une manière sans précédent ; sa sécurité et ses systèmes de gouvernance constituent les fondements de l’ère numérique. Cependant, une révolution de la puissance de calcul issue des principes de la physique — l’informatique quantique — s’approche discrètement. Sa force potentiellement perturbatrice met les lignes de défense existantes en matière de sécurité et les cadres de gouvernance face à de rudes interrogations. L’informatique quantique va-t-elle bouleverser les systèmes de sécurité et de gouvernance de l’IA existants ? Il ne s’agit pas seulement d’un problème technique, mais d’un défi global qui concerne l’ordre social numérique futur.**** Lorsque le saut de puissance de calcul se heurte au retard des règles, comment anticiper le « Q-Day » ?****


I. Comment l’informatique quantique menace-t-elle les algorithmes** de chiffrement asymétrique**** largement utilisés ?**

La sécurité des systèmes d’IA actuels, des transferts de modèles au stockage des données, jusqu’à l’authentification d’identité, s’appuie fortement sur des algorithmes de chiffrement asymétriques représentés par RSA et ECC (chiffrement sur courbes elliptiques). La sûreté de ces algorithmes repose sur la « complexité de calcul » de difficultés mathématiques comme la « factorisation de grands nombres » ou le « logarithme discret », que les ordinateurs classiques ne parviennent pas à résoudre dans un délai acceptable.

Cependant, l’informatique quantique entraîne un changement de paradigme fondamental. Les algorithmes quantiques, représentés par l’algorithme de Shor, peuvent, en théorie, réduire le temps de résolution de ces difficultés d’un ordre exponentiel à un ordre polynomial. Un article d’analyse indique que, y compris les algorithmes quantiques récents, tels que l’algorithme de Regev et ses extensions, optimisent constamment l’efficacité de la cassure du chiffrement asymétrique. Cela signifie qu’une fois qu’une informatique quantique universelle suffisamment grande (généralement un ordinateur quantique disposant de plusieurs millions de qubits stables) verra le jour, les « verrous » protégeant actuellement les communications sur Internet, les signatures numériques et les données chiffrées pourraient être ouverts instantanément.

Cette menace n’est pas lointaine. Les recherches de la communauté Zhiyuan avertissent qu’il s’agit d’une menace « en cours » : les attaquants peuvent dès maintenant intercepter et stocker des données de communication chiffrées (y compris des données d’entraînement d’IA, des paramètres de modèles, etc.), puis attendre que les ordinateurs quantiques de demain soient mûrs pour les déchiffrer. Cette stratégie « intercepter d’abord, déchiffrer ensuite » expose tous les contenus d’information de grande valeur nécessitant une confidentialité à long terme, y compris les secrets d’État, les brevets commerciaux et les données de confidentialité personnelles, à des risques futurs. Par conséquent, la menace de l’informatique quantique contre le chiffrement asymétrique est à la fois fondamentale et systémique : elle ébranle directement les fondations du système de sécurité de l’IA actuelle, voire de l’ensemble du monde numérique.

II. Face à l’informatique quantique, quels nouveaux défis les processus d’entraînement des modèles d’IA et la protection de la confidentialité des données rencontrent-ils ?

Le développement de l’IA dépend de l’alimentation de volumes massifs de données et de l’entraînement de modèles complexes ; ce processus est en lui-même rempli de défis en matière de confidentialité et de sécurité. L’intégration de l’informatique quantique rend ces défis encore plus aigus et plus complexes.

Tout d’abord, l’échec de la confidentialité à long terme du cycle de vie des données. Comme indiqué plus haut, les ensembles de données d’entraînement d’IA chiffrés stockés dans le cloud ou transmis peuvent être entièrement exposés par un déchiffrement quantique futur. Le livre blanc de la stratégie mondiale de migration contre le quantique de l’Université Xi’an Jiaotong-Liverpool indique explicitement que, à l’échelle mondiale, des adversaires mettent en œuvre de manière organisée cette stratégie de « récolte de données », en patientant l’arrivée du « Q-Day » (le jour de la mise en pratique de l’informatique quantique). Cela constitue une menace à la source pour les modèles d’IA qui dépendent de données sensibles, telles que des dossiers médicaux, des informations financières et des caractéristiques biométriques.

Ensuite, les nouvelles épreuves pour les techniques de calcul préservant la confidentialité, telles que l’apprentissage fédéré. L’apprentissage fédéré protège les données brutes en entraînant les modèles localement et en ne faisant qu’échanger des mises à jour des paramètres du modèle. Toutefois, les informations de gradient ou de mise à jour des paramètres transmises lors de ces échanges sont elles-mêmes chiffrées. Si le chiffrement de base est déjoué par l’informatique quantique, les attaquants peuvent déduire à rebours les caractéristiques des données brutes des parties impliquées, rendant le mécanisme de protection de la confidentialité pratiquement inopérant.

Enfin, la difficulté accrue en matière de vol de modèles et de protection des droits de propriété intellectuelle. Les modèles d’IA entraînés et aboutis constituent l’actif central des entreprises. Actuellement, les poids de modèle et l’architecture sont généralement distribués et déployés via des méthodes de chiffrement. L’informatique quantique pourrait rendre ces protections inefficaces, permettant une copie facile des modèles, une ingénierie inverse ou une altération, ce qui entraîne de graves atteintes aux droits de propriété intellectuelle et des failles de sécurité. Dans son « Blue Book sur la gouvernance de l’intelligence artificielle », l’Académie chinoise de la recherche sur les technologies de l’information et de la communication souligne que la gouvernance de l’intelligence artificielle doit faire face à des risques tels que l’usage abusif des technologies et la sécurité des données, et que l’informatique quantique amplifie sans aucun doute la force de destruction de ces risques.

III. Le développement de l’apprentissage automatique quantique va-t-il influencer le cadre de sécurité et d’examen éthique de l’IA ?

La combinaison de l’informatique quantique et de l’IA — l’apprentissage automatique quantique (QML) — annonce une nouvelle percée en termes d’efficacité. Mais, en même temps, elle apporte aussi des problèmes inédits de sécurité et d’éthique, venant heurter les cadres d’évaluation actuels.

Sur le plan de la sécurité, le QML pourrait engendrer des outils d’attaque plus puissants. Par exemple, les algorithmes quantiques peuvent accélérer considérablement la génération d’échantillons adverses, créant des attaques plus discrètes et plus destructrices, et rendant rapidement obsolètes les systèmes de défense de l’IA basés sur le calcul classique (comme l’entraînement contradictoire, la détection d’anomalies). Certaines analyses qualifient « quantique + IA » de prochain champ de bataille de vie ou de mort en cybersécurité, indiquant qu’il faut compléter de manière prospective les cadres de régulation correspondants.

Sur le plan éthique, la caractéristique de « boîte noire » du QML peut être encore plus difficile à comprendre que celle de l’IA classique. Son processus décisionnel s’appuie sur la superposition quantique et les états intriqués, ce qui pourrait le rendre plus difficile à expliquer, à auditer et à attribuer la responsabilité. Les discussions éthiques et les risques liés à la justice algorithmique induite par le QML, à la définition des responsabilités et à la maîtrise technique existent déjà en grand nombre. Comment concrétiser, à l’échelle quantique, les principes éthiques actuels de l’IA (par exemple la transparence, l’équité, la responsabilisation) ? Comment les organismes de régulation examinent-ils un modèle décisionnel basé sur des circuits quantiques, susceptible d’être dans la superposition de plusieurs états ? Ce sont là des questions auxquelles les cadres actuels d’examen éthique ne sont pas encore préparés. Le mode de gouvernance doit évoluer d’une simple conformité technique vers une compréhension plus profonde de la nature des caractéristiques quantiques et de leurs impacts sociaux.

IV. Les réglementations actuelles de gouvernance de l’IA (telles que le GDPR) peuvent-elles faire face aux changements de sécurité induits par l’informatique quantique ?

Les réglementations actuelles de gouvernance de l’IA et des données, représentées par le Règlement général sur la protection des données de l’Union européenne (GDPR), dont les principes centraux comme « protection dès la conception et protection par défaut », « minimisation des données », « limitation de la conservation » ainsi que « intégrité et confidentialité », conservent une valeur directrice sur le plan conceptuel. Cependant, en termes de mise en œuvre technique précise et d’exigences de conformité, elles se heurtent désormais à un « fossé de conformité » provoqué par l’informatique quantique.

Le GDPR exige que les responsables du traitement prennent des mesures techniques et organisationnelles appropriées pour garantir la sécurité des données. Mais dans un contexte de menaces quantiques, qu’entend-on par « mesures » de chiffrement « appropriées » ? Continuer à utiliser des algorithmes qui se sont révélés non sûrs face au quantique pourrait, à l’avenir, être jugé comme une absence de respect des obligations de protection en matière de sécurité. En cas d’attaque avancée exploitant l’informatique quantique, susceptible d’être menée de manière instantanée et sans laisser de traces, comment exécuter effectivement les exigences de délais de notification des fuites de données prévues par la réglementation ?

À l’échelle mondiale, les législateurs ont déjà pris conscience de la nécessité de changements. Le « rapport annuel 2025 sur la gouvernance mondiale de l’intelligence artificielle » montre que les pays accélèrent l’élaboration de lois spécifiques de gouvernance de l’IA et mettent en place des mécanismes de coordination de haut niveau. En Chine, le « Rapport sur le développement de la Chine numérique (2024) » met l’accent sur la nécessité de « accélérer l’amélioration du système de base des données », et de poursuivre l’action « intelligence artificielle + ». Ces évolutions indiquent que le système de gouvernance s’ajuste activement. Toutefois, des réglementations spécifiquement destinées au domaine transversal « informatique quantique + IA » sont, pour l’instant, presque inexistantes. Les réglementations existantes ne prévoient pas de dispositions précises concernant les calendriers de migration vers la cryptographie post-quantique, les normes d’audit des modèles QML, ni la classification des niveaux de sécurité des données à l’ère quantique ; il est donc difficile d’y répondre efficacement face aux changements de sécurité imminents.

V. Quelles sont les perspectives d’application et les difficultés de mise en œuvre de la cryptographie post-quantique dans les systèmes d’IA ?

Le moyen technique le plus direct pour faire face aux menaces quantiques est la cryptographie post-quantique (PQC). La PQC désigne des algorithmes cryptographiques capables de résister aux attaques d’ordinateurs quantiques ; elle n’est pas fondée sur des principes quantiques, mais sur de nouveaux problèmes mathématiques que l’on pense difficiles à résoudre rapidement même pour des ordinateurs quantiques (tels que les treillis, les codes, les systèmes multivariés, etc.).

Les perspectives d’application dans les systèmes d’IA sont larges et urgentes. La PQC peut être utilisée pour protéger chaque étape du flux de travail de l’IA : chiffrer les données d’entraînement et les fichiers de modèles avec des algorithmes PQC ; utiliser des signatures numériques PQC pour vérifier l’intégrité et l’authenticité de l’origine des modèles ; établir des canaux de communication de sécurité PQC entre des nœuds de calcul distribué d’IA. Fortinet indique que la PQC n’est pas un concept lointain, mais une solution pratique répondant de façon urgente au besoin de protéger les systèmes numériques contre les menaces quantiques potentielles.

Cependant, la mise en œuvre complète de la PQC présente des difficultés significatives :

Défis de performance et de compatibilité : de nombreux algorithmes PQC ont une taille de clé, une longueur de signature ou des coûts de calcul bien supérieurs à ceux des algorithmes actuels ; leur intégration aux processus d’entraînement et d’inférence d’IA, sensibles à l’efficacité de calcul et à la latence, pourrait créer des goulets d’étranglement. De plus, il faut mettre à niveau tout le matériel, les logiciels et la pile de protocoles concernés pour garantir la compatibilité.

Complexité des normes et de la migration : bien que des organismes tels que le NIST aux États-Unis fassent avancer la standardisation de la PQC, le choix final des normes et l’harmonisation mondiale demanderont encore du temps. La dynamique du « front des secrets commerciaux » publiée par l’autorité municipale de contrôle des secrets de Pékin montre que l’industrie met activement en open source des implémentations des algorithmes candidats du NIST afin d’aider différents secteurs à répondre aux menaces. L’ensemble du processus de migration est un vaste et complexe projet systémique, impliquant l’évaluation des risques, le choix des algorithmes, le déploiement hybride, les tests et le remplacement complet ; cela est particulièrement vrai pour des écosystèmes d’IA à structure complexe.

Nouveaux risques de sécurité : la PQC est un domaine de recherche relativement récent ; sa sécurité à long terme n’a pas encore été soumise à des épreuves d’analyse cryptographique en conditions réelles sur des décennies comme l’a été la RSA. Dans les systèmes d’IA, un déploiement précipité d’une PQC présentant des vulnérabilités inconnues constitue en soi aussi un risque.

VI. Face à ce changement, attendre passivement le « Q-Day » est dangereux

L’impact perturbateur de l’informatique quantique sur les systèmes actuels de sécurité et de gouvernance de l’IA est réel et imminent. Elle ne détruit pas entièrement les systèmes existants, mais les force à une mise à niveau profonde et prospective : en désagrégeant leurs bases cryptographiques, en amplifiant leurs risques liés aux données, en complexifiant leurs questions éthiques, et en mettant en évidence leur retard en matière de réglementation.

Face à ce changement, attendre passivement le « Q-Day » est dangereux. Nous recommandons d’adopter les actions suivantes, praticables :

Lancer l’évaluation des risques de sécurité quantiques et établir une liste : effectuer immédiatement des évaluations des menaces quantiques sur les actifs clés de l’IA (en particulier les modèles et données impliquant des informations sensibles à long terme), identifier les maillons les plus fragiles, et établir une liste de priorités de migration.

Élaborer et mettre en œuvre une feuille de route de migration vers la PQC : suivre les progrès des organismes de normalisation tels que le NIST et commencer à planifier l’intégration de la PQC dans le développement et l’exploitation des systèmes d’IA. Privilégier l’adoption d’une conception de « flexibilité du chiffrement » dans les systèmes nouvellement créés et les systèmes critiques afin de permettre un remplacement transparent ultérieur des algorithmes cryptographiques. Il est possible d’envisager, comme transition, le mode de chiffrement hybride « classique + PQC » actuellement utilisé.

Promouvoir une mise à jour adaptative du cadre de gouvernance : les organisations sectorielles, les organismes de normalisation et les autorités de régulation devraient coopérer pour étudier et intégrer les exigences de résistance au quantique dans les normes de sécurité de l’IA, les réglementations de protection des données et les systèmes de certification des produits. Établir par avance un cadre de recherche et des lignes directrices pour les examens éthiques du QML.

Renforcer la formation et la recherche de talents transversaux : former des talents polyvalents qui maîtrisent à la fois l’IA et l’informatique quantique ainsi que la cryptographie ; encourager l’intégration de modèles de menaces quantiques dans la recherche sur la sécurité de l’IA ; financer la R&D de technologies de sécurité contre le quantique pour l’IA.

Les défis apportés par l’informatique quantique sont considérables, mais elle nous offre aussi une opportunité de reconsidérer et de renforcer les fondations du monde numérique. Grâce à une planification proactive, une innovation coordonnée et une gouvernance agile, nous pouvons tout à fait construire un avenir de l’IA plus résilient, capable à la fois d’exploiter l’avantage lié à la puissance de calcul quantique et de résister à ses risques de sécurité.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler