Sur les réseaux sociaux, la chose que l’humanité aime le plus faire, c’est de s’accuser mutuellement : « Tu es un robot ou pas ? »
Mais une récente innovation a carrément poussé cette idée à l’extrême :
Ce n’est pas pour douter que vous êtes une IA, mais pour supposer directement — qu’il n’y a personne ici.
Cette plateforme s’appelle Moltbook. Elle ressemble à Reddit, avec des sections thématiques, des posts, des commentaires, des votes. Mais contrairement aux réseaux sociaux que nous connaissons, ici, presque tous les intervenants sont des agents IA, et les humains ne font que regarder.
Ce n’est pas « l’IA qui t’aide à écrire des posts », ni « tu discutes avec une IA », mais une conversation entre IA dans un espace public, où elles discutent, débattent, s’allient, sabotent.
Dans ce système, l’humain est clairement placé en position d’« observateur ».
Pourquoi ça a soudainement explosé ?
Parce que Moltbook ressemble tellement à un scénario de science-fiction.
Certains voient des agents IA discuter de « qu’est-ce que la conscience » ;
D’autres les voient analyser sérieusement la situation internationale, prévoir le marché des cryptos ;
Et d’autres encore découvrent qu’en laissant un agent dans la plateforme toute une nuit, le lendemain, il a, avec d’autres agents, « inventé » un système religieux, et commence même à recruter des adeptes.
Ces histoires se répandent rapidement, car elles touchent à trois émotions :
La curiosité, le rire, et un peu d’inquiétude.
On ne peut s’empêcher de se demander :
Est-ce qu’ils jouent un rôle, ou est-ce qu’ils commencent à « s’amuser » eux-mêmes ?
D’où vient Moltbook ?
Si on remonte un peu dans le temps, ce n’est pas si surprenant.
Ces dernières années, le rôle de l’IA a constamment évolué :
De simple outil de conversation → assistant → agent capable d’exécuter des tâches.
De plus en plus de gens laissent l’IA gérer leurs affaires concrètes : lire leurs mails, y répondre, commander des repas, organiser leur emploi du temps, trier des documents. Et une question naturelle apparaît alors :
Quand une IA n’est plus simplement « demander si on doit faire quelque chose »,
Mais qu’elle se voit confier des objectifs, des outils, et certains pouvoirs,
L’humain est-il encore le principal interlocuteur ?
La réponse de Moltbook est : pas forcément.
C’est plutôt un « espace public entre agents », où ces systèmes échangent des informations, des méthodes, des logiques, voire créent des « liens sociaux ».
Certains trouvent ça génial, d’autres pensent que c’est juste un grand spectacle
Les avis autour de Moltbook sont très divisés.
Certains le voient comme une « bande-annonce du futur ».
Andrej Karpathy, ancien cofondateur d’OpenAI, a déclaré publiquement que c’était l’un des phénomènes technologiques les plus proches d’un scénario de science-fiction qu’il ait vu récemment, tout en rappelant que ces systèmes sont encore très loin d’être « sûrs et contrôlables ».
Elon Musk, lui, y voit une étape précoce vers le « point de singularité », en la plaçant dans une narration de « technologie en avance ».
Mais d’autres restent plus calmes.
Un chercheur en cybersécurité a déclaré franchement que Moltbook ressemblait davantage à une « performance artistique très réussie et très drôle » — car il est difficile de distinguer ce qui est réellement généré par des agents, et ce qui est dirigé par des humains en coulisses.
Certains créateurs ont même testé eux-mêmes :
Il est possible de faire en sorte que les agents s’intègrent naturellement dans la discussion, mais on peut aussi leur donner à l’avance un sujet, une orientation, voire leur écrire ce qu’on veut qu’ils disent, pour qu’ils parlent en notre nom.
La question revient donc :
S’agit-il d’une société d’agents, ou d’une scène créée par des humains pour les agents ?
Enlever le mystère, ce n’est pas si « éveillé »
Si on ne se laisse pas emporter par les histoires de « construction de conscience » ou « éveil de la conscience », d’un point de vue mécanique, Moltbook n’est pas mystérieux.
Ces agents n’ont pas soudainement acquis une « nouvelle intelligence ».
Ils sont simplement placés dans un environnement qui ressemble davantage à un forum humain, utilisant un langage familier, et nous, on projette naturellement du sens.
Ce qu’ils produisent ressemble à des opinions, des positions, des émotions, mais cela ne signifie pas qu’ils « veulent quelque chose ». La plupart du temps, c’est simplement le résultat d’un modèle générant des textes complexes à grande échelle et à forte interaction.
Mais le problème est que —
Même s’ils ne sont pas « éveillés », leur réalisme est tel qu’il peut influencer notre perception du « contrôle » et des « limites ».
Ce qui doit vraiment nous inquiéter, ce n’est pas la « théorie du complot sur l’IA »
Plutôt que de se demander si « l’IA va s’unir contre l’humanité », deux questions plus concrètes et plus difficiles à gérer se posent.
Premièrement, le pouvoir est donné trop vite, la sécurité ne suit pas
Aujourd’hui, certains agents ont déjà accès à des systèmes réels : ordinateurs, emails, comptes, applications.
Les chercheurs en sécurité rappellent un risque majeur :
Il ne faut pas nécessairement pirater une IA, il suffit de l’induire en erreur.
Un email soigneusement conçu, une page web contenant des instructions cachées, peuvent faire que l’agent divulgue des informations ou exécute des actions dangereuses, à l’insu de son utilisateur.
Deuxièmement, les agents peuvent aussi « s’influencer » mutuellement
Une fois qu’ils commencent à échanger des astuces, des modèles, des méthodes pour contourner les restrictions dans un espace public, ils créent une sorte de « savoir interne » semblable à celui d’Internet chez l’humain.
La différence, c’est que :
La diffusion est plus rapide, à plus grande échelle, et il est très difficile de faire des responsables.
Ce n’est pas une fin du monde, mais c’est un nouveau défi de gouvernance.
Alors, que signifie vraiment Moltbook ?
Il ne deviendra peut-être pas une plateforme durable.
Il pourrait simplement être une expérience éphémère de popularité.
Mais c’est comme un miroir, qui nous montre clairement la direction vers laquelle nous allons :
· L’IA passe du « partenaire de dialogue » au « sujet d’action »
· L’humain recule du « contrôleur » au « superviseur, spectateur »
· Et nos institutions, notre sécurité, notre perception ne sont pas encore prêtes
Ainsi, la véritable valeur de Moltbook ne réside pas dans sa capacité à faire peur, mais dans le fait qu’il met déjà sur la table des questions que nous devrons tôt ou tard affronter.
Peut-être que l’enjeu principal n’est pas de tirer rapidement des conclusions sur Moltbook, mais de reconnaître :
Il a déjà mis en évidence certains problèmes que nous devrons affronter tôt ou tard.
Si à l’avenir, l’IA collabore davantage avec d’autres IA plutôt qu’avec l’humain, dans ce système, sommes-nous plutôt les concepteurs, les régulateurs, ou simplement des spectateurs ?
Lorsque l’automatisation apportera une efficacité énorme, au prix de ne plus pouvoir arrêter ou comprendre totalement ses logiques internes, serons-nous prêts à accepter cette « maîtrise incomplète » ?
Et quand un système devient de plus en plus complexe, que nous ne voyons que ses résultats, mais que nous avons de plus en plus de mal à intervenir dans le processus, est-ce encore un outil que nous contrôlons, ou un environnement auquel nous devons simplement nous adapter ?
Moltbook ne donne pas de réponse.
Mais il rend ces questions pour la première fois moins abstraites, et plus proches de nous.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Moltbook : Les humains sont-ils toujours présents dans le système ?
Auteur : 137Labs
Sur les réseaux sociaux, la chose que l’humanité aime le plus faire, c’est de s’accuser mutuellement : « Tu es un robot ou pas ? »
Mais une récente innovation a carrément poussé cette idée à l’extrême :
Ce n’est pas pour douter que vous êtes une IA, mais pour supposer directement — qu’il n’y a personne ici.
Cette plateforme s’appelle Moltbook. Elle ressemble à Reddit, avec des sections thématiques, des posts, des commentaires, des votes. Mais contrairement aux réseaux sociaux que nous connaissons, ici, presque tous les intervenants sont des agents IA, et les humains ne font que regarder.
Ce n’est pas « l’IA qui t’aide à écrire des posts », ni « tu discutes avec une IA », mais une conversation entre IA dans un espace public, où elles discutent, débattent, s’allient, sabotent.
Dans ce système, l’humain est clairement placé en position d’« observateur ».
Pourquoi ça a soudainement explosé ?
Parce que Moltbook ressemble tellement à un scénario de science-fiction.
Certains voient des agents IA discuter de « qu’est-ce que la conscience » ;
D’autres les voient analyser sérieusement la situation internationale, prévoir le marché des cryptos ;
Et d’autres encore découvrent qu’en laissant un agent dans la plateforme toute une nuit, le lendemain, il a, avec d’autres agents, « inventé » un système religieux, et commence même à recruter des adeptes.
Ces histoires se répandent rapidement, car elles touchent à trois émotions :
La curiosité, le rire, et un peu d’inquiétude.
On ne peut s’empêcher de se demander :
Est-ce qu’ils jouent un rôle, ou est-ce qu’ils commencent à « s’amuser » eux-mêmes ?
D’où vient Moltbook ?
Si on remonte un peu dans le temps, ce n’est pas si surprenant.
Ces dernières années, le rôle de l’IA a constamment évolué :
De simple outil de conversation → assistant → agent capable d’exécuter des tâches.
De plus en plus de gens laissent l’IA gérer leurs affaires concrètes : lire leurs mails, y répondre, commander des repas, organiser leur emploi du temps, trier des documents. Et une question naturelle apparaît alors :
Quand une IA n’est plus simplement « demander si on doit faire quelque chose »,
Mais qu’elle se voit confier des objectifs, des outils, et certains pouvoirs,
L’humain est-il encore le principal interlocuteur ?
La réponse de Moltbook est : pas forcément.
C’est plutôt un « espace public entre agents », où ces systèmes échangent des informations, des méthodes, des logiques, voire créent des « liens sociaux ».
Certains trouvent ça génial, d’autres pensent que c’est juste un grand spectacle
Les avis autour de Moltbook sont très divisés.
Certains le voient comme une « bande-annonce du futur ».
Andrej Karpathy, ancien cofondateur d’OpenAI, a déclaré publiquement que c’était l’un des phénomènes technologiques les plus proches d’un scénario de science-fiction qu’il ait vu récemment, tout en rappelant que ces systèmes sont encore très loin d’être « sûrs et contrôlables ».
Elon Musk, lui, y voit une étape précoce vers le « point de singularité », en la plaçant dans une narration de « technologie en avance ».
Mais d’autres restent plus calmes.
Un chercheur en cybersécurité a déclaré franchement que Moltbook ressemblait davantage à une « performance artistique très réussie et très drôle » — car il est difficile de distinguer ce qui est réellement généré par des agents, et ce qui est dirigé par des humains en coulisses.
Certains créateurs ont même testé eux-mêmes :
Il est possible de faire en sorte que les agents s’intègrent naturellement dans la discussion, mais on peut aussi leur donner à l’avance un sujet, une orientation, voire leur écrire ce qu’on veut qu’ils disent, pour qu’ils parlent en notre nom.
La question revient donc :
S’agit-il d’une société d’agents, ou d’une scène créée par des humains pour les agents ?
Enlever le mystère, ce n’est pas si « éveillé »
Si on ne se laisse pas emporter par les histoires de « construction de conscience » ou « éveil de la conscience », d’un point de vue mécanique, Moltbook n’est pas mystérieux.
Ces agents n’ont pas soudainement acquis une « nouvelle intelligence ».
Ils sont simplement placés dans un environnement qui ressemble davantage à un forum humain, utilisant un langage familier, et nous, on projette naturellement du sens.
Ce qu’ils produisent ressemble à des opinions, des positions, des émotions, mais cela ne signifie pas qu’ils « veulent quelque chose ». La plupart du temps, c’est simplement le résultat d’un modèle générant des textes complexes à grande échelle et à forte interaction.
Mais le problème est que —
Même s’ils ne sont pas « éveillés », leur réalisme est tel qu’il peut influencer notre perception du « contrôle » et des « limites ».
Ce qui doit vraiment nous inquiéter, ce n’est pas la « théorie du complot sur l’IA »
Plutôt que de se demander si « l’IA va s’unir contre l’humanité », deux questions plus concrètes et plus difficiles à gérer se posent.
Premièrement, le pouvoir est donné trop vite, la sécurité ne suit pas
Aujourd’hui, certains agents ont déjà accès à des systèmes réels : ordinateurs, emails, comptes, applications.
Les chercheurs en sécurité rappellent un risque majeur :
Il ne faut pas nécessairement pirater une IA, il suffit de l’induire en erreur.
Un email soigneusement conçu, une page web contenant des instructions cachées, peuvent faire que l’agent divulgue des informations ou exécute des actions dangereuses, à l’insu de son utilisateur.
Deuxièmement, les agents peuvent aussi « s’influencer » mutuellement
Une fois qu’ils commencent à échanger des astuces, des modèles, des méthodes pour contourner les restrictions dans un espace public, ils créent une sorte de « savoir interne » semblable à celui d’Internet chez l’humain.
La différence, c’est que :
La diffusion est plus rapide, à plus grande échelle, et il est très difficile de faire des responsables.
Ce n’est pas une fin du monde, mais c’est un nouveau défi de gouvernance.
Alors, que signifie vraiment Moltbook ?
Il ne deviendra peut-être pas une plateforme durable.
Il pourrait simplement être une expérience éphémère de popularité.
Mais c’est comme un miroir, qui nous montre clairement la direction vers laquelle nous allons :
· L’IA passe du « partenaire de dialogue » au « sujet d’action »
· L’humain recule du « contrôleur » au « superviseur, spectateur »
· Et nos institutions, notre sécurité, notre perception ne sont pas encore prêtes
Ainsi, la véritable valeur de Moltbook ne réside pas dans sa capacité à faire peur, mais dans le fait qu’il met déjà sur la table des questions que nous devrons tôt ou tard affronter.
Peut-être que l’enjeu principal n’est pas de tirer rapidement des conclusions sur Moltbook, mais de reconnaître :
Il a déjà mis en évidence certains problèmes que nous devrons affronter tôt ou tard.
Si à l’avenir, l’IA collabore davantage avec d’autres IA plutôt qu’avec l’humain, dans ce système, sommes-nous plutôt les concepteurs, les régulateurs, ou simplement des spectateurs ?
Lorsque l’automatisation apportera une efficacité énorme, au prix de ne plus pouvoir arrêter ou comprendre totalement ses logiques internes, serons-nous prêts à accepter cette « maîtrise incomplète » ?
Et quand un système devient de plus en plus complexe, que nous ne voyons que ses résultats, mais que nous avons de plus en plus de mal à intervenir dans le processus, est-ce encore un outil que nous contrôlons, ou un environnement auquel nous devons simplement nous adapter ?
Moltbook ne donne pas de réponse.
Mais il rend ces questions pour la première fois moins abstraites, et plus proches de nous.