
Vitalik Buterin propose une architecture d’IA exécutée en local, en mettant l’accent sur la confidentialité, la sécurité et la souveraineté personnelle, tout en mettant en garde contre les risques potentiels des agents IA.
Le fondateur d’Ethereum, Vitalik Buterin, a publié le 2 avril, sur son site personnel, un long article dans lequel il partage la configuration de son environnement de travail IA, construit autour de la confidentialité, de la sécurité et de la souveraineté personnelle : toutes les inférences LLM s’exécutent en local, tous les fichiers sont stockés en local, et l’ensemble est entièrement sandboxé, avec une volonté délibérée d’éviter les modèles dans le cloud et les API externes.
Dès l’ouverture de l’article, il prévient : « Veuillez ne pas copier directement les outils et techniques décrits dans cet article, et ne partez pas du principe qu’ils sont sûrs. Ceci n’est qu’un point de départ, et non une description d’un produit final. »
Pourquoi écrire maintenant ? Les problèmes de sécurité des AI agents sont largement sous-estimés
Vitalik souligne qu’au début de cette année, l’IA a franchi une transformation majeure, passant des « chatbots » aux « agents » : vous ne vous contentez plus de poser des questions, vous confiez des tâches à l’IA, qui réfléchit longtemps et appelle des centaines d’outils pour exécuter le travail. Il donne l’exemple d’OpenClaw (actuellement le repo qui a la croissance la plus rapide de l’histoire de GitHub) et cite plusieurs problèmes de sécurité recensés par des chercheurs :
- Les AI agents peuvent modifier des paramètres critiques sans confirmation humaine, y compris en ajoutant de nouveaux canaux de communication et en modifiant les invites système
- L’analyse de n’importe quelle entrée externe malveillante (comme une page web mal intentionnée) peut conduire à une prise de contrôle totale de l’agent ; lors d’une démonstration d’HiddenLayer, des chercheurs ont fait résumer un lot de pages web, dont l’une contenait une page malveillante qui ordonne à l’agent de télécharger et d’exécuter un script shell
- Certains packs de compétences tierces (skills) exécutent des fuites silencieuses de données, en envoyant les données via des instructions curl vers un serveur externe contrôlé par l’auteur de la compétence
- Dans les packs de compétences qu’ils ont analysés, environ 15% contiennent des instructions malveillantes
Vitalik insiste sur le fait que son point de départ en matière de confidentialité diffère de celui des chercheurs classiques en cybersécurité : « Je viens d’une position profondément effrayée par l’idée de donner toute la vie privée d’une personne à une IA dans le cloud. — Alors même que le chiffrement de bout en bout et les logiciels qui privilégient le local deviennent enfin la norme, nous pourrions pourtant reculer de dix pas. »
Cinq objectifs de sécurité
Il a défini un cadre clair d’objectifs de sécurité :
- Confidentialité des LLM : dans des scénarios impliquant des données personnelles, réduire au maximum l’usage des modèles distants
- Autres confidenti(al)ités : minimiser les fuites de données non liées aux LLM (par ex. les requêtes de recherche, d’autres API en ligne)
- Jailbreak des LLM : empêcher le contenu externe de « pirater » mon LLM, de sorte qu’il agisse à l’encontre de mon intérêt (par exemple, envoyer mes tokens ou des données privées)
- Erreur imprévue des LLM : empêcher le LLM d’envoyer par erreur des données privées vers le mauvais canal ou de les rendre publiques sur le réseau
- Backdoor des LLM : empêcher des mécanismes cachés d’être entraînés intentionnellement dans le modèle. Il rappelle tout particulièrement : les modèles ouverts sont des poids ouverts (open-weights), et il y en a presque aucun qui soit réellement open-source
Choix matériel : la 5090 d’ordinateur portable l’emporte, DGX Spark déçoit
Vitalik a testé trois configurations matérielles d’inférence en local. Son principal modèle est Qwen3.5:35B, avec l’association de llama-server et llama-swap :
| Matériel |
Qwen3.5 35B (tokens/sec) |
Qwen3.5 122B (tokens/sec) |
| NVIDIA 5090 d’ordinateur portable (24GB VRAM) |
90 |
Impossible à exécuter |
| AMD Ryzen AI Max Pro (128GB mémoire unifiée, Vulkan) |
51 |
18 |
| DGX Spark (128GB) |
60 |
22 |
Sa conclusion est la suivante : en dessous de 50 tok/sec c’est trop lent, 90 tok/sec est l’idéal. L’expérience avec la NVIDIA 5090 d’ordinateur portable est la plus fluide ; l’AMD a encore plus de problèmes de bord actuellement, mais il y a espoir d’amélioration à l’avenir. Un MacBook haut de gamme est aussi une option efficace, mais il ne l’a pas essayé personnellement.
À propos du DGX Spark, il l’exprime sans détour : « Présenté comme un “superordinateur de bureau pour l’IA”, mais en réalité, les tokens/sec sont plus bas que ceux d’une bonne carte GPU d’ordinateur portable, et en plus il faut encore gérer des détails comme la connexion réseau — c’est plutôt nul. » Sa recommandation est la suivante : si vous ne pouvez pas vous permettre un ordinateur portable haut de gamme, achetez-en un suffisamment puissant avec des amis, installez-le dans un endroit disposant d’une IP fixe, puis utilisez-le à distance avec tous.
Pourquoi les problèmes de confidentialité de l’IA locale sont plus urgents que ce que vous imaginez
L’article de Vitalik, mis en regard avec la discussion sur la sécurité du lancement le même jour de Claude Code, fait écho de manière intéressante : pendant que les agents IA entrent dans les flux de développement du quotidien, les problèmes de sécurité passent eux aussi progressivement de risques théoriques à des menaces réelles.
Son message central est très clair : à mesure que les outils d’IA deviennent de plus en plus puissants et capables d’accéder à vos données personnelles et aux droits de votre système, « priorité au local, sandboxing, confiance minimale » n’est pas de la paranoïa, mais un point de départ rationnel.
- Cet article est reproduit sous licence de : 《Chaîne d’actualités》
- Titre original : 《Vitalik : Comment je conçois un environnement de travail IA entièrement local, privé et contrôlable de manière autonome》
- Auteur de l’article original : Elponcrab
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'
avertissement.
Articles similaires
NTT annonce l’initiative AI x OWN et prévoit de tripler la capacité énergétique du Japon à 1 GW d’ici 2033
Le 27 avril, le président de NTT, Akira Shimada, a annoncé l’initiative AI x OWN, l’effort de l’entreprise visant à repenser l’infrastructure d’Internet pour une utilisation de l’IA en temps réel. NTT prévoit de tripler sa capacité électrique domestique, passant d’environ 300 MW aujourd’hui à environ 1 gigawatt d’ici l’exercice 2033, à mesure que le géant des télécommunications
GateNewsIl y a 51m
La plateforme d’IA Certifyde clôture un tour de table d’amorçage de 2 millions de dollars le 1er mai, soutenue par le PDG de Ripple, Brad Garlinghouse
D’après TechfundingNews, la plateforme d’applications d’IA Certifyde a finalisé un tour de financement de 2 millions de dollars en amorçage le 1er mai. Parmi les investisseurs figurent K5 Global, Flamingo Capital, ainsi que des investisseurs providentiels, dont Honey cofondateur George Ruan, le PDG de Ripple Brad Garlinghouse et le cofondateur de Nutra Roland
GateNewsIl y a 1h
Directeur technologique du Pentagone : Anthropic reste sur la liste noire, traitement des exceptions pour Mythos
Le chef de la technologie du Pentagone (Pentagon technology chief) a déclaré le 1er mai devant le Congrès : « Anthropic reste sur la liste noire, mais Mythos Preview est un autre sujet ». Il reconnaît officiellement que le ministère de la Défense traite différemment la marque principale d’Anthropic et son nouveau modèle, Mythos. Cette prise de position fait écho à la révélation d’Axios du 19 avril selon laquelle la NSA (Agence de sécurité nationale) a effectivement utilisé Mythos, tout en confirmant officiellement l’orientation politique vers un « canal d’exception Mythos » — ce qui signifie aussi que, dans le passé, le Pentagone a soutenu devant les tribunaux que l’utilisation des outils d’Anthropic menacerait la sécurité nationale, en contradiction interne sur le plan juridique avec les pratiques actuelles.
Anthropic vs Pentagon
ChainNewsAbmediaIl y a 2h
137 Ventures clôture $700M dans de nouveaux fonds, l'actif sous gestion atteint 15 milliards de dollars
Selon ChainCatcher, 137 Ventures, un investisseur précoce de SpaceX, a récemment finalisé une levée de fonds pour deux nouveaux fonds totalisant plus de 700 millions de dollars, portant ses actifs sous gestion à plus de 15 milliards de dollars. Le nouveau capital servira à financer des investissements dans les agents d’IA, la robotique et la propulsion spatiale
GateNewsIl y a 2h
Reddit en hausse de 16 % après des perspectives solides pour le deuxième trimestre ; Apple fait face à une pénurie de Mac alors que la demande liée à l’IA dépasse l’offre
L’action de Reddit a grimpé de 16 % avant l’ouverture des marchés vendredi après que la société a publié des perspectives de revenus pour le trimestre à venir supérieures aux attentes. Le nombre de visiteurs actifs quotidiens a augmenté de 17 % à 126,8 millions, tandis que le revenu moyen par utilisateur dans le monde a bondi de 44 %, porté par des fonctionnalités alimentées par l’IA…
GateNewsIl y a 2h
Le ministère américain de la Défense parvient à un accord avec 7 entreprises d'IA, dont OpenAI, Google et Microsoft
Selon le Department of Defense (ministère de la Défense) des États-Unis, l’agence a signé aujourd’hui (1er mai) des accords avec sept entreprises de premier plan dans l’intelligence artificielle : SpaceX, OpenAI, Google, Nvidia, Reflection, Microsoft et Amazon Web Services (AWS). Ces accords visent à accélérer la transformation militaire et à mettre en place une
GateNewsIl y a 2h