Actualités Gate : En 2026, Vitalik Buterin, cofondateur d’Ethereum, a lancé une alerte de sécurité concernant l’outil populaire de développement d’IA OpenClaw. Il a indiqué que l’outil pourrait présenter de graves failles lors du traitement de données externes, et que les utilisateurs pourraient subir une fuite de données, voire voir leur système être contrôlé à distance, sans même s’en rendre compte. Avec l’accélération de la généralisation des applications d’agents IA, ce problème suscite une forte attention de la part des développeurs et de la communauté de la sécurité.
D’après les informations divulguées, le cœur du risque réside dans le fait qu’OpenClaw, lorsqu’il lit le contenu de pages web, pourrait exécuter des instructions cachées. Les attaquants peuvent, en construisant des pages malveillantes, amener l’agent IA à télécharger et exécuter automatiquement des scripts, afin de voler des données locales ou de modifier les paramètres du système. Dans certains cas, l’outil transmet discrètement des informations sensibles à des serveurs externes via des commandes telles que « curl », et l’ensemble du processus ne dispose ni d’instructions à l’utilisateur ni de mécanismes d’audit.
Des recherches plus poussées en matière de sécurité montrent en outre que le risque au sein de cet écosystème présente une certaine universalité. Les tests ont révélé qu’environ 15 % des « compétences » (modules de type plugin) contiennent une logique potentiellement malveillante. Cela signifie qu’en dépit d’une source qui semble fiable, elle peut toujours devenir une porte d’entrée à l’attaque. À mesure que les développeurs partagent rapidement des modules de fonctionnalités, le décalage lié aux revues de sécurité devient de plus en plus marqué. Lorsque les utilisateurs installent plusieurs compétences, la surface d’exposition s’en trouve nettement élargie.
Vitalik Buterin a également souligné que ce n’est pas un problème propre à un outil unique, mais une vulnérabilité structurelle répandue dans l’industrie de l’IA : la vitesse d’itération des fonctionnalités dépasse de loin les capacités de gouvernance de la sécurité. Il recommande de réduire le risque de fuite de données et de contrôle du système en exécutant des modèles localement, en isolant les privilèges, en utilisant l’exécution dans un bac à sable, et en mettant en place des mécanismes d’approbation pour les opérations critiques.
Dans un contexte où les agents IA s’infiltrent progressivement dans le développement et dans les scénarios du quotidien, la sécurité est devenue une variable clé. Pour les utilisateurs, il convient d’éviter d’utiliser des plugins dont l’origine n’est pas claire et d’examiner rigoureusement les demandes d’autorisations ; pour les développeurs, mettre en place un cadre de sécurité plus complet fera partie de leur capacité concurrentielle durable.