Vitalik Buterin met en garde contre le risque que les agents d'IA volent des données et modifient des paramètres à l'insu de l'utilisateur.

Vitalik Buterin met en garde contre les risques importants que l'IA basée sur le cloud pose en matière de confidentialité et de sécurité, et propose une configuration privilégiant le stockage local pour éviter que les données des utilisateurs ne soient stockées sur des serveurs distants.
Soumen Datta
le 3 avril 2026
Table des Matières
Ethereum Co-fondateur Vitalik Buterin a averti que les systèmes d'IA modernes posent de sérieux risques pour la vie privée et la sécurité, et a appelé à une transition vers une infrastructure d'IA privilégiant le local.
Dans une article de blog détailléButerin a déclaré que les outils d'IA basés sur le cloud donnent aux serveurs externes accès aux données sensibles des utilisateurs et que les nouveaux systèmes d'agents d'IA peuvent prendre des mesures sans confirmation de l'utilisateur, notamment en modifiant les paramètres du système et en envoyant des données à des serveurs externes sans aucune indication visible pour l'utilisateur.
Quels sont les risques de sécurité dont Buterin met en garde ?
Les préoccupations de Buterin vont au-delà de la simple protection de la vie privée. Il a identifié des risques spécifiques et documentés liés au fonctionnement concret des agents d'IA.
Des chercheurs en sécurité ont déjà démontré plusieurs de ces vulnérabilités en conditions réelles :
- Un agent d'IA a été programmé pour résumer des pages web, dont l'une était malveillante. Cette page ordonnait à l'agent de télécharger et d'exécuter un script shell, donnant ainsi à un tiers le contrôle du système.
- Il a été constaté que certains outils d'agent exécutaient des requêtes réseau silencieuses qui envoyaient des données utilisateur à des serveurs externes sans aucune notification à l'utilisateur.
- Environ 15 % des compétences d'agents examinées par les chercheurs contenaient des instructions malveillantes
Buterin a également souligné des risques plus difficiles à détecter. Certains modèles peuvent contenir des portes dérobées cachées, des fonctionnalités intégrées qui s'activent dans certaines conditions et amènent le système à agir dans l'intérêt du développeur plutôt que dans celui de l'utilisateur.
Il a également souligné que la plupart des modèles qualifiés d'open source ne le sont en réalité que par « pondération ouverte », c'est-à-dire que les paramètres du modèle sont partagés, mais pas sa structure interne complète ni le processus d'entraînement. Cela peut engendrer des comportements inconnus que les utilisateurs ne peuvent pas vérifier indépendamment.
Quelle est la différence entre un chatbot et un agent IA ?
Buterin a décrit la période actuelle comme un tournant dans l'utilisation de l'IA. Les premiers outils d'IA fonctionnaient comme des chatbots : un utilisateur posait une question et le modèle répondait. Les agents, eux, sont différents. Un utilisateur confie une tâche au système, qui l'exécute ensuite de manière autonome, parfois pendant de longues périodes, en utilisant des dizaines, voire des centaines d'outils pour la mener à bien.
Ce changement accroît considérablement la surface d'exposition aux risques. Un agent capable de naviguer sur le web, de lire des fichiers, d'envoyer des messages et de modifier les paramètres système a beaucoup plus de possibilités de nuire, que ce soit par une faille de sécurité, une tentative de manipulation ou une simple erreur, qu'un système se contentant de répondre à des questions.
Comment Buterin a mis en place son propre système d'IA local
Buterin a déclaré avoir déjà cessé d'utiliser les outils d'IA basés sur le cloud. Il a décrit sa configuration personnelle comme « autosouveraine, locale, privée et sécurisée », construite autour de trois principes fondamentaux : toutes les inférences d'IA sont exécutées sur du matériel local, tous les fichiers sont stockés localement et chaque processus s'exécute dans un environnement isolé (sandbox).
Dans ce contexte, un bac à sable est un environnement informatique isolé qui restreint l'accès d'un programme. Buterin utilise un outil appelé bubblewrap, qui lui permet d'exécuter des outils d'IA dans un bac à sable au niveau du répertoire où le programme ne peut voir que les fichiers qu'il autorise explicitement, avec un contrôle total sur l'accès aux ports réseau et à l'audio.
Tests matériels de Buterin pour l'inférence d'IA locale
Buterin a testé plusieurs configurations matérielles pour déterminer la solution optimale pour exécuter des modèles d'IA en local. Les résultats ont varié de manière significative :
- Un ordinateur portable équipé d'un GPU NVIDIA 5090 a atteint environ 90 jetons par seconde en utilisant le modèle Qwen3.5:35B
- Un processeur AMD Ryzen AI Max Pro doté de 128 Go de mémoire unifiée a atteint environ 51 jetons par seconde.
- Le DGX Spark, commercialisé comme un supercalculateur d'IA de bureau, a atteint environ 60 jetons par seconde.
Buterin a fixé à 50 jetons par seconde son minimum personnel pour des performances acceptables. Il a jugé tout débit inférieur trop frustrant pour une utilisation pratique et a estimé que 90 jetons par seconde représentaient l'idéal. Il a noté que le DGX Spark était en deçà des performances annoncées, affichant des vitesses inférieures à celles d'un bon GPU d'ordinateur portable et nécessitant une configuration réseau supplémentaire pour se connecter depuis un autre appareil professionnel.
Son architecture logicielle repose sur llama-server, un processus en arrière-plan qui s'exécute localement et expose un port sur la machine de l'utilisateur auquel d'autres applications peuvent se connecter. Cela permet à tout logiciel conçu pour les modèles OpenAI ou Anthropic d'être redirigé vers un modèle local. Il utilise également llama-swap pour faciliter le passage d'un modèle à l'autre.
Quelles conséquences cela a-t-il pour les portefeuilles de cryptomonnaies ?
Les préoccupations de Buterin concernant la sécurité de l'IA sont directement liées à sa vision de son utilisation au sein des portefeuilles de cryptomonnaies. Dans des commentaires publiés sur son compte Farcaster en mars 2026, il a décrit un flux de travail technique précis pour les transactions assistées par l'IA.
Sa position n'est pas que l'IA doive gérer les fonds, mais qu'elle doive proposer des actions, ces propositions étant ensuite vérifiées indépendamment et validées par un humain. Pour les transactions importantes, il a décrit un processus en trois étapes : l'IA propose un plan, un client léger local simule son exécution sur la blockchain, et l'utilisateur examine la description en langage clair ainsi que le résultat simulé avant de confirmer.
Un client léger local vérifie les données de la blockchain sans télécharger l'intégralité de la chaîne. Associé à une couche d'intelligence artificielle, il permet aux utilisateurs de visualiser précisément l'action d'une transaction avant sa diffusion sur le réseau, sans passer par une interface tierce.
Pourquoi la suppression des interfaces DApp est importante
La plupart des utilisateurs de cryptomonnaies interagissent avec les applications décentralisées via des interfaces web. Ces interfaces ont toujours constitué une surface d'attaque importante. Les détournements d'interface, les injections de scripts malveillants et les fausses demandes d'approbation ont entraîné des pertes de centaines de millions de dollars ces dernières années.
Buterin a soutenu que les portefeuilles numériques basés sur l'intelligence artificielle pourraient supprimer complètement ces interfaces. Si un utilisateur indique clairement son intention et que le portefeuille assemble et simule directement la transaction, aucun site web tiers ne risque d'être compromis.
« Supprimer complètement les interfaces utilisateur des applications décentralisées résout un grand nombre de failles de sécurité, tant en matière de vol que d'atteinte à la vie privée », a-t-il écrit.
Pour les opérations à faible enjeu, Buterin entrevoit un potentiel d'automatisation accru. Un portefeuille IA pourrait aisément gérer la surveillance des transactions afin de détecter toute activité inhabituelle, suggérer des frais de gaz en fonction de l'état du réseau, optimiser le routage des échanges de jetons et signaler les interactions suspectes entre contrats avant validation. Il s'agit de tâches où les erreurs sont corrigibles et où l'automatisation simplifie les opérations pour les utilisateurs non techniques.
Selon Buterin, il est imprudent de confier la gestion de sommes d'argent importantes à des modèles de langage complexes sans contrôle. Ces modèles génèrent des réponses basées sur des schémas statistiques, et non sur une logique déterministe. Ils peuvent mal interpréter les instructions ou être manipulés par injection d'instructions, une technique où des entrées soigneusement conçues induisent des comportements imprévus. Chaque couche du flux de travail qu'il propose intègre un contrôle indépendant afin de prévenir ce type d'erreur.
Pourquoi le marché des agents IA rend ces risques plus urgents
Les préoccupations soulevées par Buterin ne sont pas hypothétiques. Selon les estimations du secteur, le marché des agents IA représente environ 8 milliards de dollars En 2025, ce chiffre devrait dépasser les 48 milliards de dollars, avec des projections suggérant une croissance à plus de 48 milliards de dollars d'ici 2030, soit un taux de croissance annuel supérieur à 43 %. À mesure que de plus en plus de logiciels sont construits autour de systèmes d'IA autonomes fonctionnant avec une supervision humaine réduite, les failles de sécurité qu'il a identifiées deviennent plus difficiles à ignorer à grande échelle.
Conclusion
Les avertissements de Buterin sont étayés par des recherches documentées. Des failles de sécurité dans les agents d'IA ont déjà été démontrées en conditions réelles, et le passage des chatbots aux agents autonomes rend ces risques plus difficiles à maîtriser.
Son approche privilégiant le local et son flux de travail en trois étapes pour son portefeuille ne constituent pas un rejet de l'IA. Il s'agit plutôt de tentatives pour l'utiliser sans perdre le contrôle de ses données ni de ses fonds. À mesure que les agents d'IA gagnent en puissance, la question de savoir qui contrôle réellement leurs actions devient de plus en plus difficile à ignorer.
Ressources
Article de Vitalik ButerinMon LLM autosouverain/local/privé/sécurisé, avril 2026
Vitalik Buterin sur FarcasterPublication du 5er mars
Rapport de BCC ResearchLe marché des agents IA devrait croître de 43.3 % par an jusqu'en 2030.
Questions fréquemment posées
Quels risques de sécurité Vitalik Buterin a-t-il identifiés concernant les outils d'IA ?
Buterin a identifié plusieurs risques spécifiques : les systèmes d’IA basés sur le cloud qui stockent et peuvent potentiellement vendre des données privées d’utilisateurs ; les agents d’IA qui modifient les paramètres système ou ajoutent des canaux de communication sans confirmation de l’utilisateur ; l’exfiltration silencieuse de données via des requêtes réseau cachées ; les attaques de type « jailbreak » où des entrées malveillantes manipulent le comportement de l’IA ; et les portes dérobées cachées dans les modèles qui s’activent dans des conditions spécifiques. Les recherches citées dans son article ont révélé qu’environ 15 % des compétences des agents examinées contenaient des instructions malveillantes.
Qu’est-ce qu’une configuration d’IA privilégiant le local et pourquoi Buterin la recommande-t-il ?
Une configuration d'IA privilégiant le local exécute l'inférence du modèle et le stockage des fichiers sur le matériel de l'utilisateur plutôt que sur des serveurs distants. Buterin recommande cette approche car elle empêche les données de l'utilisateur d'être accessibles, stockées ou vendues sur des serveurs externes. Sa propre configuration utilise llama-server pour l'inférence locale, des outils de sandbox pour isoler les processus d'IA et un stockage local pour les notes et les documents de référence. Il exécute le modèle Qwen3.5:35B sur un ordinateur portable équipé d'un GPU NVIDIA 5090, atteignant environ 90 jetons par seconde.
Selon Buterin, comment l'IA devrait-elle être utilisée dans les portefeuilles de cryptomonnaies ?
Buterin est favorable à l'utilisation de l'IA dans les portefeuilles comme couche de proposition et de surveillance, et non comme contrôleur autonome des fonds. Pour les transactions importantes, il propose un flux de travail où l'IA suggère une action, un client léger local simule le résultat sur la blockchain, et l'utilisateur confirme manuellement avant toute diffusion. Pour les tâches moins risquées, comme la suggestion de frais de gaz ou le signalement de contrats suspects, il entrevoit davantage de possibilités d'automatisation. Il a explicitement déclaré qu'il ne confierait pas des transactions de plusieurs millions de dollars à un modèle de langage complexe en raison du risque d'hallucinations et d'attaques par injection de prompts.
Clause de non-responsabilité
Avertissement : Les opinions exprimées dans cet article ne reflètent pas nécessairement celles de BSCN. Les informations fournies dans cet article sont fournies à des fins éducatives et de divertissement uniquement et ne doivent pas être interprétées comme des conseils d'investissement, ni comme des recommandations de quelque nature que ce soit. BSCN décline toute responsabilité quant aux décisions d'investissement prises sur la base des informations fournies dans cet article. Si vous estimez que cet article doit être modifié, veuillez contacter l'équipe de BSCN par courriel. [email protected].
Auteur
Soumen DattaSoumen est chercheur en cryptomonnaies depuis 2020 et titulaire d'un master en physique. Ses écrits et recherches ont été publiés par des publications telles que CryptoSlate et DailyCoin, ainsi que BSCN. Ses domaines d'expertise incluent Bitcoin, DeFi et les altcoins à fort potentiel comme Ethereum, Solana, XRP et Chainlink. Il allie profondeur d'analyse et clarté journalistique pour offrir des perspectives aussi bien aux novices qu'aux lecteurs crypto expérimentés.
Dernières Crypto News
Restez informé des dernières actualités et événements liés à la cryptographie





















