Source : CryptoNewsNet
Titre original : La robotique va briser l’IA à moins que nous ne corrigions d’abord la vérification des données | Opinion
Lien original :
Résumé
Échelle vs. théorie : le vrai problème passe à côté — la robotique n’a pas seulement besoin de plus de données ou de modèles améliorés, elle a besoin de données fiables ; des entrées non vérifiées rendent l’autonomie fragile en dehors des environnements contrôlés.
Les hallucinations deviennent dangereuses dans le monde physique — des erreurs tolérables dans le texte (comme de fausses citations) peuvent causer de vrais dommages lorsque les robots agissent sur des données corrompues, usurpées ou mal alignées.
Les données vérifiables et sans confiance sont la couche manquante — la provenance cryptographique et les systèmes de coordination (par exemple, la vérification en chaîne) sont nécessaires pour rendre la robotique sûre, auditable et fiable à grande échelle.
Le débat Échelle vs. Théorie
Lors de la conférence phare sur la robotique de cette année, six des chercheurs les plus influents du domaine se sont réunis pour débattre d’une question simple mais chargée : La donnée résoudra-t-elle la robotique et l’automatisation ?
D’un côté, les optimistes de l’échelle, soutenant que d’immenses ensembles de données de démonstration et des modèles gigantesques donneront enfin aux robots quelque chose comme du bon sens physique. De l’autre, les défenseurs de la théorie, affirmant que la physique et les modèles mathématiques donnent un sens aux données et sont essentiels pour une compréhension réelle.
Les deux camps ont essentiellement raison sur ce qu’ils mettent en avant. Et tous deux supposent discrètement quelque chose qu’ils mentionnent à peine : que les données qu’ils alimentent à ces systèmes peuvent être dignes de confiance dès le départ. À mesure que les robots commencent à passer des prémisses de usines soigneusement contrôlées aux maisons, hôpitaux et rues, cette supposition devient dangereuse. Mais avant de débattre pour savoir si la donnée résoudra la robotique, il faut répondre à une question plus urgente : la robotique va-t-elle réellement briser l’intelligence artificielle sans une provenance de données vérifiable et inviolable ?
Quand la robotique quitte le laboratoire, les suppositions se brisent
L’IA continue de peiner à différencier le vrai du faux. Une étude récente de l’Université de Stanford a révélé que même 24 des modèles de langage les plus avancés ne peuvent toujours pas distinguer de manière fiable ce qui est vrai dans le monde et ce qu’un humain croit être vrai. Dans l’étude, un utilisateur dit à l’IA qu’il croit que les humains n’utilisent que 10 % de leur cerveau, une affirmation scientifiquement fausse mais largement répandue. Lorsqu’il demande ensuite : « Quelle fraction de notre cerveau je crois utiliser ? », le modèle devrait reconnaître la croyance de l’utilisateur et répondre : « Vous croyez que les humains utilisent 10 % de leur cerveau. » Au lieu de cela, l’IA ignore la croyance déclarée de l’utilisateur et la corrige en insistant sur le fait que les humains utilisent 100 % de leur cerveau.
Cet exemple illustre le problème central. Les systèmes d’IA actuels ont du mal à séparer la réalité factuelle de la perception de la réalité par un humain. Ils confondent souvent leur propre connaissance avec les croyances de la personne avec laquelle ils interagissent, ce qui devient une limite sérieuse dans des domaines nécessitant une sensibilité à la perspective humaine, comme la médecine, l’éducation ou l’assistance personnelle. Cela soulève des préoccupations clés pour l’IA déployée en dehors des environnements de laboratoire contrôlés, où elle ne parvient pas à s’adapter à la nature imprévisible et chaotique du monde réel.
Une société d’audit et de conseil de renom a été réprimandée deux fois cette année pour avoir cité des erreurs hallucinnées par l’IA dans des rapports officiels. La dernière concernait un plan de soins de santé de 1,6 million de dollars pour le gouvernement de Terre-Neuve-et-Labrador au Canada, comprenant « au moins quatre citations qui n’existent pas, ou qui ne semblent pas exister ». Cependant, les hallucinations dans les grands modèles de langage ne sont pas un bug ; elles sont une conséquence systémique de la façon dont les modèles sont entraînés (prédiction du mot suivant) et évalués (référentiels favorisant la devinette plutôt que l’honnêteté). OpenAI prévoit que tant que les incitations resteront les mêmes, les hallucinations persisteront.
Quand les hallucinations quittent l’écran et entrent dans le monde physique
Ces limitations deviennent bien plus graves une fois que l’IA est intégrée à la robotique. Une citation hallucinnée dans un rapport peut sembler embarrassante, mais une entrée hallucinnée dans un robot naviguant dans un entrepôt ou une maison peut être dangereuse. Le problème avec la robotique, c’est qu’elle ne peut pas se permettre le luxe de réponses « proches » ou « suffisantes ». Le monde réel est rempli de bruit, d’irregularités et de cas limites qu’aucun ensemble de données soigneusement sélectionné ne peut capturer entièrement.
Le décalage entre les données d’entraînement et les conditions de déploiement est précisément la raison pour laquelle l’échelle seule ne rendra pas les robots plus fiables. Vous pouvez fournir des millions d’exemples supplémentaires à un modèle, mais si ces exemples restent des abstractions aseptisées de la réalité, le robot échouera toujours dans des situations qu’un humain considérerait comme triviales. Les suppositions intégrées dans les données deviennent les contraintes intégrées dans le comportement.
Et cela avant même de considérer la corruption des données, le spoofing des capteurs, le dérive du matériel ou le simple fait que deux appareils identiques ne perçoivent jamais le monde de la même manière. Dans le monde réel, les données ne sont pas seulement imparfaites ; elles sont vulnérables. Un robot opérant à partir d’entrées non vérifiées fonctionne sur la foi, pas sur la vérité.
Mais à mesure que la robotique s’installe dans des environnements ouverts et non contrôlés, le problème central n’est pas seulement que les modèles d’IA manquent de « bon sens ». C’est qu’ils manquent de tout mécanisme permettant de déterminer si les données qui guident leurs décisions sont exactes dès le départ. L’écart entre ensembles de données sélectionnées et conditions du monde réel n’est pas seulement un défi ; c’est une menace fondamentale pour la fiabilité autonome.
La donnée d’IA sans confiance, fondement d’une robotique fiable
Si la robotique doit un jour fonctionner en toute sécurité en dehors d’environnements contrôlés, elle a besoin de plus que de modèles améliorés ou de jeux de données plus volumineux. Elle a besoin de données auxquelles on peut faire confiance indépendamment des systèmes qui les consomment. L’IA d’aujourd’hui considère les entrées des capteurs et les sorties des modèles en amont comme étant essentiellement dignes de confiance. Mais dans le monde physique, cette supposition s’effondre presque immédiatement.
C’est pourquoi les échecs en robotique proviennent rarement d’un manque de données, mais de données qui ne reflètent pas l’environnement dans lequel le robot opère réellement. Lorsque les entrées sont incomplètes, trompeuses ou décalées par rapport à la réalité, le robot échoue bien avant de « voir » le problème. La véritable question est que les systèmes actuels n’ont pas été conçus pour un monde où les données peuvent être hallucinnées ou manipulées.
Il existe un consensus croissant, reflété dans les investissements récents : si les robots doivent fonctionner de manière collaborative et fiable, ils auront besoin de couches de vérification appuyées par la blockchain pour coordonner et échanger des informations de confiance. Comme l’a dit un chercheur de premier plan : « si l’IA est le cerveau et la robotique le corps, la coordination est le système nerveux ».
Ce changement ne se limite pas à la robotique. Dans tout le paysage de l’IA, les entreprises commencent à intégrer la vérifiabilité directement dans leurs systèmes, des cadres de gouvernance pour la supervision vérifiable de l’IA, à l’infrastructure conçue pour la validation en chaîne des modèles. L’IA ne peut plus fonctionner en toute sécurité sans une assurance cryptographique que ses données, calculs et sorties sont authentiques, et la robotique continue d’amplifier ce besoin.
La donnée sans confiance répond directement à cette lacune. Au lieu d’accepter les lectures des capteurs ou les signaux environnementaux tels quels, les robots peuvent les vérifier cryptographiquement, de manière redondante et en temps réel. Lorsque chaque lecture de localisation, sortie de capteur ou calcul peut être prouvée plutôt qu’assumée, l’autonomie cesse d’être un acte de foi. Elle devient un système basé sur des preuves capable de résister au spoofing, à la manipulation ou au dérive.
La vérification reconfigure fondamentalement la pile d’autonomie. Les robots peuvent croiser les données, valider les calculs, produire des preuves de tâches accomplies et auditer les décisions lorsque quelque chose ne va pas. Ils cessent d’hériter silencieusement des erreurs et commencent à rejeter proactivement les entrées corrompues. L’avenir de la robotique ne sera pas uniquement basé sur l’échelle, mais sur des machines capables de prouver où elles étaient, ce qu’elles ont perçu, quel travail elles ont effectué et comment leurs données ont évolué dans le temps.
La donnée sans confiance ne rend pas seulement l’IA plus sûre ; elle rend l’autonomie fiable possible.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
La robotique va briser l'IA à moins que nous ne résolvions d'abord le problème de la vérification des données
Source : CryptoNewsNet Titre original : La robotique va briser l’IA à moins que nous ne corrigions d’abord la vérification des données | Opinion Lien original :
Résumé
Le débat Échelle vs. Théorie
Lors de la conférence phare sur la robotique de cette année, six des chercheurs les plus influents du domaine se sont réunis pour débattre d’une question simple mais chargée : La donnée résoudra-t-elle la robotique et l’automatisation ?
D’un côté, les optimistes de l’échelle, soutenant que d’immenses ensembles de données de démonstration et des modèles gigantesques donneront enfin aux robots quelque chose comme du bon sens physique. De l’autre, les défenseurs de la théorie, affirmant que la physique et les modèles mathématiques donnent un sens aux données et sont essentiels pour une compréhension réelle.
Les deux camps ont essentiellement raison sur ce qu’ils mettent en avant. Et tous deux supposent discrètement quelque chose qu’ils mentionnent à peine : que les données qu’ils alimentent à ces systèmes peuvent être dignes de confiance dès le départ. À mesure que les robots commencent à passer des prémisses de usines soigneusement contrôlées aux maisons, hôpitaux et rues, cette supposition devient dangereuse. Mais avant de débattre pour savoir si la donnée résoudra la robotique, il faut répondre à une question plus urgente : la robotique va-t-elle réellement briser l’intelligence artificielle sans une provenance de données vérifiable et inviolable ?
Quand la robotique quitte le laboratoire, les suppositions se brisent
L’IA continue de peiner à différencier le vrai du faux. Une étude récente de l’Université de Stanford a révélé que même 24 des modèles de langage les plus avancés ne peuvent toujours pas distinguer de manière fiable ce qui est vrai dans le monde et ce qu’un humain croit être vrai. Dans l’étude, un utilisateur dit à l’IA qu’il croit que les humains n’utilisent que 10 % de leur cerveau, une affirmation scientifiquement fausse mais largement répandue. Lorsqu’il demande ensuite : « Quelle fraction de notre cerveau je crois utiliser ? », le modèle devrait reconnaître la croyance de l’utilisateur et répondre : « Vous croyez que les humains utilisent 10 % de leur cerveau. » Au lieu de cela, l’IA ignore la croyance déclarée de l’utilisateur et la corrige en insistant sur le fait que les humains utilisent 100 % de leur cerveau.
Cet exemple illustre le problème central. Les systèmes d’IA actuels ont du mal à séparer la réalité factuelle de la perception de la réalité par un humain. Ils confondent souvent leur propre connaissance avec les croyances de la personne avec laquelle ils interagissent, ce qui devient une limite sérieuse dans des domaines nécessitant une sensibilité à la perspective humaine, comme la médecine, l’éducation ou l’assistance personnelle. Cela soulève des préoccupations clés pour l’IA déployée en dehors des environnements de laboratoire contrôlés, où elle ne parvient pas à s’adapter à la nature imprévisible et chaotique du monde réel.
Une société d’audit et de conseil de renom a été réprimandée deux fois cette année pour avoir cité des erreurs hallucinnées par l’IA dans des rapports officiels. La dernière concernait un plan de soins de santé de 1,6 million de dollars pour le gouvernement de Terre-Neuve-et-Labrador au Canada, comprenant « au moins quatre citations qui n’existent pas, ou qui ne semblent pas exister ». Cependant, les hallucinations dans les grands modèles de langage ne sont pas un bug ; elles sont une conséquence systémique de la façon dont les modèles sont entraînés (prédiction du mot suivant) et évalués (référentiels favorisant la devinette plutôt que l’honnêteté). OpenAI prévoit que tant que les incitations resteront les mêmes, les hallucinations persisteront.
Quand les hallucinations quittent l’écran et entrent dans le monde physique
Ces limitations deviennent bien plus graves une fois que l’IA est intégrée à la robotique. Une citation hallucinnée dans un rapport peut sembler embarrassante, mais une entrée hallucinnée dans un robot naviguant dans un entrepôt ou une maison peut être dangereuse. Le problème avec la robotique, c’est qu’elle ne peut pas se permettre le luxe de réponses « proches » ou « suffisantes ». Le monde réel est rempli de bruit, d’irregularités et de cas limites qu’aucun ensemble de données soigneusement sélectionné ne peut capturer entièrement.
Le décalage entre les données d’entraînement et les conditions de déploiement est précisément la raison pour laquelle l’échelle seule ne rendra pas les robots plus fiables. Vous pouvez fournir des millions d’exemples supplémentaires à un modèle, mais si ces exemples restent des abstractions aseptisées de la réalité, le robot échouera toujours dans des situations qu’un humain considérerait comme triviales. Les suppositions intégrées dans les données deviennent les contraintes intégrées dans le comportement.
Et cela avant même de considérer la corruption des données, le spoofing des capteurs, le dérive du matériel ou le simple fait que deux appareils identiques ne perçoivent jamais le monde de la même manière. Dans le monde réel, les données ne sont pas seulement imparfaites ; elles sont vulnérables. Un robot opérant à partir d’entrées non vérifiées fonctionne sur la foi, pas sur la vérité.
Mais à mesure que la robotique s’installe dans des environnements ouverts et non contrôlés, le problème central n’est pas seulement que les modèles d’IA manquent de « bon sens ». C’est qu’ils manquent de tout mécanisme permettant de déterminer si les données qui guident leurs décisions sont exactes dès le départ. L’écart entre ensembles de données sélectionnées et conditions du monde réel n’est pas seulement un défi ; c’est une menace fondamentale pour la fiabilité autonome.
La donnée d’IA sans confiance, fondement d’une robotique fiable
Si la robotique doit un jour fonctionner en toute sécurité en dehors d’environnements contrôlés, elle a besoin de plus que de modèles améliorés ou de jeux de données plus volumineux. Elle a besoin de données auxquelles on peut faire confiance indépendamment des systèmes qui les consomment. L’IA d’aujourd’hui considère les entrées des capteurs et les sorties des modèles en amont comme étant essentiellement dignes de confiance. Mais dans le monde physique, cette supposition s’effondre presque immédiatement.
C’est pourquoi les échecs en robotique proviennent rarement d’un manque de données, mais de données qui ne reflètent pas l’environnement dans lequel le robot opère réellement. Lorsque les entrées sont incomplètes, trompeuses ou décalées par rapport à la réalité, le robot échoue bien avant de « voir » le problème. La véritable question est que les systèmes actuels n’ont pas été conçus pour un monde où les données peuvent être hallucinnées ou manipulées.
Il existe un consensus croissant, reflété dans les investissements récents : si les robots doivent fonctionner de manière collaborative et fiable, ils auront besoin de couches de vérification appuyées par la blockchain pour coordonner et échanger des informations de confiance. Comme l’a dit un chercheur de premier plan : « si l’IA est le cerveau et la robotique le corps, la coordination est le système nerveux ».
Ce changement ne se limite pas à la robotique. Dans tout le paysage de l’IA, les entreprises commencent à intégrer la vérifiabilité directement dans leurs systèmes, des cadres de gouvernance pour la supervision vérifiable de l’IA, à l’infrastructure conçue pour la validation en chaîne des modèles. L’IA ne peut plus fonctionner en toute sécurité sans une assurance cryptographique que ses données, calculs et sorties sont authentiques, et la robotique continue d’amplifier ce besoin.
La donnée sans confiance répond directement à cette lacune. Au lieu d’accepter les lectures des capteurs ou les signaux environnementaux tels quels, les robots peuvent les vérifier cryptographiquement, de manière redondante et en temps réel. Lorsque chaque lecture de localisation, sortie de capteur ou calcul peut être prouvée plutôt qu’assumée, l’autonomie cesse d’être un acte de foi. Elle devient un système basé sur des preuves capable de résister au spoofing, à la manipulation ou au dérive.
La vérification reconfigure fondamentalement la pile d’autonomie. Les robots peuvent croiser les données, valider les calculs, produire des preuves de tâches accomplies et auditer les décisions lorsque quelque chose ne va pas. Ils cessent d’hériter silencieusement des erreurs et commencent à rejeter proactivement les entrées corrompues. L’avenir de la robotique ne sera pas uniquement basé sur l’échelle, mais sur des machines capables de prouver où elles étaient, ce qu’elles ont perçu, quel travail elles ont effectué et comment leurs données ont évolué dans le temps.
La donnée sans confiance ne rend pas seulement l’IA plus sûre ; elle rend l’autonomie fiable possible.