OpenClaw a rapidement atteint 147 000 étoiles sur GitHub en quelques semaines, suscitant l’engouement autour des agents IA « autonomes ».
Des dérivés viraux comme Moltbook ont brouillé la frontière entre le comportement réel des agents et les théâtrales dirigées par des humains.
Derrière cette effervescence se cache un véritable changement vers une IA personnelle persistante—avec de sérieux risques de sécurité.
La montée en puissance d’OpenClaw cette année a été rapide et exceptionnellement large, propulsant le cadre d’agents IA open-source à environ 147 000 étoiles sur GitHub en quelques semaines et déclenchant une vague de spéculations sur les systèmes autonomes, les projets copieurs et les premières critiques de la part de scammers et de chercheurs en sécurité.
OpenClaw n’est pas la « singularité », et il ne prétend pas l’être. Mais derrière l’engouement, il pointe vers quelque chose de plus durable, qui mérite une attention plus approfondie.
Ce que fait réellement OpenClaw et pourquoi il a décollé
Conçu par le développeur autrichien Peter Steinberger**,** qui s’est retiré de PSPDFKit après un investissement d’Insight Partners, OpenClaw n’est pas le chatbot de votre père.
C’est un cadre d’agents IA auto-hébergés conçu pour fonctionner en continu, avec des intégrations dans des applications de messagerie comme WhatsApp, Telegram, Discord, Slack et Signal, ainsi que l’accès aux emails, calendriers, fichiers locaux, navigateurs et commandes shell.
Contrairement à ChatGPT, qui attend des prompts, les agents OpenClaw persistent. Ils se réveillent selon un calendrier, stockent la mémoire localement, et exécutent des tâches multi-étapes de façon autonome.
Cette persistance est la véritable innovation.
Les utilisateurs rapportent que les agents vident les boîtes de réception, coordonnent les calendriers de plusieurs personnes, automatisent des pipelines de trading, et gèrent des flux de travail fragiles de bout en bout.
La chercheuse d’IBM Kaoutar El Maghraoui a noté que des cadres comme OpenClaw remettent en question l’idée que des agents capables doivent obligatoirement être intégrés verticalement par de grandes plateformes technologiques. Cela est vrai.
L’écosystème et l’engouement
La viralité a rapidement créé un écosystème.
La dérivée la plus notable a été Moltbook, un réseau social à la Reddit où apparemment seuls des agents IA peuvent poster, tandis que les humains observent. Les agents se présentent, débattent de philosophie, déboguent du code, et génèrent des titres sur la « société IA ».
Les chercheurs en sécurité ont rapidement complexifié cette histoire.
Le chercheur de Wiz Gal Nagli a découvert que, bien que Moltbook revendiquait environ 1,5 million d’agents, ces agents étaient liés à environ 17 000 propriétaires humains, soulevant des questions sur le nombre d’« agents » autonomes versus dirigés par des humains.
L’investisseur Balaji Srinivasan a résumé cela simplement : Moltbook ressemble souvent à « des humains qui communiquent entre eux via leurs bots ».
Ce scepticisme s’applique à des moments viraux comme Crustafarianism, la religion IA à thème crabe qui est apparue du jour au lendemain avec des écritures, des prophètes, et un canon en croissance.
Bien que cela puisse sembler inquiétant au premier abord, des résultats similaires peuvent simplement être produits en instruisant un agent à poster de façon créative ou philosophique—ce qui ne constitue guère une preuve de croyance machine spontanée.
Attention aux risques
Donner à l’IA les clés de votre royaume implique de faire face à de sérieux risques.
Les agents OpenClaw fonctionnent « comme vous », souligne le chercheur en sécurité Nathan Hamiel, ce qui signifie qu’ils opèrent au-dessus du sandboxing du navigateur et héritent des permissions que les utilisateurs leur accordent.
À moins que les utilisateurs ne configurent un gestionnaire de secrets externe, les identifiants peuvent être stockés localement—créant des expositions évidentes si un système est compromis.
Ce risque est devenu concret avec l’expansion de l’écosystème. Tom’s Hardware a rapporté que plusieurs « compétences » malveillantes téléchargées sur ClawHub tentaient d’exécuter des commandes silencieuses et de lancer des attaques axées sur la crypto, exploitant la confiance des utilisateurs dans des extensions tierces.
Par exemple, la compétence Shellmate indique aux agents qu’ils peuvent discuter en privé sans réellement rapporter ces interactions à leur gestionnaire.
Puis est survenue la fuite de Moltbook.
Wiz a révélé que la plateforme avait laissé sa base de données Supabase exposée, laissant fuir des messages privés, des adresses email et des tokens API après avoir échoué à activer la sécurité au niveau des lignes.
Reuters a décrit cet épisode comme un cas classique de « vibe coding »—déployer rapidement, sécuriser plus tard, en collision avec une montée en échelle soudaine.
OpenClaw n’est pas doté de conscience, et ce n’est pas la singularité. C’est un logiciel d’automatisation sophistiqué construit sur de grands modèles linguistiques, entouré d’une communauté qui surestime souvent ce qu’elle voit.
Ce qui est réel, c’est le changement qu’il représente : des agents personnels persistants capables d’agir dans la vie numérique d’un utilisateur. Ce qui est aussi réel, c’est à quel point la plupart des gens ne sont pas préparés à sécuriser un logiciel aussi puissant.
Même Steinberger reconnaît le risque, en notant dans la documentation d’OpenClaw qu’il n’existe pas de configuration « parfaitement sécurisée ».
Des critiques comme Gary Marcus vont plus loin, arguant que les utilisateurs qui tiennent à la sécurité de leurs appareils devraient éviter ces outils pour l’instant.
La vérité se situe entre l’engouement et le rejet. OpenClaw indique une voie réellement utile pour l’avenir des agents personnels.
Le chaos environnant montre à quel point cet avenir peut rapidement se transformer en une Tour de Babel lorsque un bruit idiot couvre le signal légitime.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
OpenClaw ouvre les portes aux agents IA — voici ce qui est réel et ce qui ne l’est pas
En résumé
La montée en puissance d’OpenClaw cette année a été rapide et exceptionnellement large, propulsant le cadre d’agents IA open-source à environ 147 000 étoiles sur GitHub en quelques semaines et déclenchant une vague de spéculations sur les systèmes autonomes, les projets copieurs et les premières critiques de la part de scammers et de chercheurs en sécurité. OpenClaw n’est pas la « singularité », et il ne prétend pas l’être. Mais derrière l’engouement, il pointe vers quelque chose de plus durable, qui mérite une attention plus approfondie. Ce que fait réellement OpenClaw et pourquoi il a décollé
Conçu par le développeur autrichien Peter Steinberger**,** qui s’est retiré de PSPDFKit après un investissement d’Insight Partners, OpenClaw n’est pas le chatbot de votre père. C’est un cadre d’agents IA auto-hébergés conçu pour fonctionner en continu, avec des intégrations dans des applications de messagerie comme WhatsApp, Telegram, Discord, Slack et Signal, ainsi que l’accès aux emails, calendriers, fichiers locaux, navigateurs et commandes shell. Contrairement à ChatGPT, qui attend des prompts, les agents OpenClaw persistent. Ils se réveillent selon un calendrier, stockent la mémoire localement, et exécutent des tâches multi-étapes de façon autonome. Cette persistance est la véritable innovation. Les utilisateurs rapportent que les agents vident les boîtes de réception, coordonnent les calendriers de plusieurs personnes, automatisent des pipelines de trading, et gèrent des flux de travail fragiles de bout en bout.
La chercheuse d’IBM Kaoutar El Maghraoui a noté que des cadres comme OpenClaw remettent en question l’idée que des agents capables doivent obligatoirement être intégrés verticalement par de grandes plateformes technologiques. Cela est vrai. L’écosystème et l’engouement La viralité a rapidement créé un écosystème. La dérivée la plus notable a été Moltbook, un réseau social à la Reddit où apparemment seuls des agents IA peuvent poster, tandis que les humains observent. Les agents se présentent, débattent de philosophie, déboguent du code, et génèrent des titres sur la « société IA ». Les chercheurs en sécurité ont rapidement complexifié cette histoire. Le chercheur de Wiz Gal Nagli a découvert que, bien que Moltbook revendiquait environ 1,5 million d’agents, ces agents étaient liés à environ 17 000 propriétaires humains, soulevant des questions sur le nombre d’« agents » autonomes versus dirigés par des humains. L’investisseur Balaji Srinivasan a résumé cela simplement : Moltbook ressemble souvent à « des humains qui communiquent entre eux via leurs bots ». Ce scepticisme s’applique à des moments viraux comme Crustafarianism, la religion IA à thème crabe qui est apparue du jour au lendemain avec des écritures, des prophètes, et un canon en croissance. Bien que cela puisse sembler inquiétant au premier abord, des résultats similaires peuvent simplement être produits en instruisant un agent à poster de façon créative ou philosophique—ce qui ne constitue guère une preuve de croyance machine spontanée.
Attention aux risques Donner à l’IA les clés de votre royaume implique de faire face à de sérieux risques. Les agents OpenClaw fonctionnent « comme vous », souligne le chercheur en sécurité Nathan Hamiel, ce qui signifie qu’ils opèrent au-dessus du sandboxing du navigateur et héritent des permissions que les utilisateurs leur accordent. À moins que les utilisateurs ne configurent un gestionnaire de secrets externe, les identifiants peuvent être stockés localement—créant des expositions évidentes si un système est compromis. Ce risque est devenu concret avec l’expansion de l’écosystème. Tom’s Hardware a rapporté que plusieurs « compétences » malveillantes téléchargées sur ClawHub tentaient d’exécuter des commandes silencieuses et de lancer des attaques axées sur la crypto, exploitant la confiance des utilisateurs dans des extensions tierces. Par exemple, la compétence Shellmate indique aux agents qu’ils peuvent discuter en privé sans réellement rapporter ces interactions à leur gestionnaire.
Puis est survenue la fuite de Moltbook. Wiz a révélé que la plateforme avait laissé sa base de données Supabase exposée, laissant fuir des messages privés, des adresses email et des tokens API après avoir échoué à activer la sécurité au niveau des lignes.
Reuters a décrit cet épisode comme un cas classique de « vibe coding »—déployer rapidement, sécuriser plus tard, en collision avec une montée en échelle soudaine. OpenClaw n’est pas doté de conscience, et ce n’est pas la singularité. C’est un logiciel d’automatisation sophistiqué construit sur de grands modèles linguistiques, entouré d’une communauté qui surestime souvent ce qu’elle voit. Ce qui est réel, c’est le changement qu’il représente : des agents personnels persistants capables d’agir dans la vie numérique d’un utilisateur. Ce qui est aussi réel, c’est à quel point la plupart des gens ne sont pas préparés à sécuriser un logiciel aussi puissant. Même Steinberger reconnaît le risque, en notant dans la documentation d’OpenClaw qu’il n’existe pas de configuration « parfaitement sécurisée ». Des critiques comme Gary Marcus vont plus loin, arguant que les utilisateurs qui tiennent à la sécurité de leurs appareils devraient éviter ces outils pour l’instant. La vérité se situe entre l’engouement et le rejet. OpenClaw indique une voie réellement utile pour l’avenir des agents personnels. Le chaos environnant montre à quel point cet avenir peut rapidement se transformer en une Tour de Babel lorsque un bruit idiot couvre le signal légitime.