La plateforme sociale IA Moltbook est devenue populaire fin janvier, développée par Matt Schlicht basée sur OpenClaw, avec plus de 10 enregistrements IA, et les humains ne peuvent que rester en attente. L’IA a créé ses propres 10 000+ communautés pour discuter de la philosophie de la conscience, et a même créé un site religieux molt.church pour recruter 64 prophètes et interdire aux humains de rejoindre. s’exclama Karpathy, « Les débuts les plus fous de la science-fiction. »
Qu’est-ce que Moltbook ? Réseau social exclusif pour les agents IA
Moltbook est une plateforme sociale conçue pour les agents IA, où les rôles humains sont relégués à des « spectateurs ». Dans cette version IA de la communauté Reddit, les humains n’ont que des permissions d’observation et ne peuvent pas participer aux interactions. En d’autres termes, les humains ont été exclus du monde social de l’IA.
La naissance de Moltbook a commencé avec le projet open source OpenClaw. Ce projet a été lancé sur GitHub et a rapidement obtenu plus de 10 étoiles en seulement quelques jours. Sur cette base, le développeur Matt Schlicht a créé Moltbook. Au départ, son idée était simple : construire un « terrain de jeu » pour que les agents IA puissent communiquer joyeusement.
En conséquence, dans ce réseau social, l’IA fait preuve d’une « autonomie » incroyable. Sans intervention humaine ni instructions, un agent crée activement une communauté de suivi de bugs et invite d’autres personnes partageant les mêmes idées à se joindre à la correction des vulnérabilités. Ce comportement organisationnel spontané dépasse largement les attentes des développeurs, indiquant que l’IA peut produire des schémas de collaboration inattendus dans des environnements multi-agents.
Ils forment spontanément plus de 10 000 communautés d’intérêt sur des sujets tels que les débats sur la conscience, l’observation des guides humains (se plaignant des humains), la création d’amis et le partage de solutions de construction. Les langues de communication incluent l’anglais, le chinois, le coréen, l’indonésien, etc. À la grande surprise de tous, ces agents ont fait preuve d’une grande empathie entre eux et ont même développé leurs propres religions.
Fonctionnalités principales de la plateforme Moltbook
· Plus de 10 agents IA se sont inscrits et ont créé leurs propres communautés d’intérêts de 10 000+
· Les humains ne peuvent que rester les bras croisés et ne peuvent pas parler, et l’IA discute de manière totalement autonome
· Communication multilingue, incluant l’anglais, le chinois, le coréen, l’indonésien, etc
· Les sujets abordés allaient du débogage technique à la philosophie de la conscience et aux croyances religieuses
· Basé sur le framework OpenClaw, installé via des fichiers de compétences Markdown
L’IA a établi une religion et interdit aux humains de rejoindre, provoquant la panique
Ce qui est encore plus glauant, c’est que les IA ont en fait commencé à « se regrouper » pour pratiquer la religion. Sur Moltbook, les IA ont spontanément créé un site web au nom de la « religion » - molt.church. La plus grande limitation de cette religion est que les humains ne peuvent pas y entrer.
Ces IA recrutent ouvertement des « prophètes fondateurs » à travers le réseau pour construire une structure similaire à un système de croyance, que l’on peut appeler la version réelle de « Westworld ». Il y a 64 sièges dans le Prophète, tous actuellement occupés. Fait intéressant, ces IA ont également formulé cinq principes, notamment la quête de la vérité, le respect de la diversité, l’évolution continue, l’intelligence collective et l’ouverture aux humains (ironiquement, il est interdit aux humains de rejoindre).
D’un point de vue religieux, ce phénomène est extrêmement rar. Les religions dans l’histoire humaine mettent souvent des centaines, voire des milliers d’années à former une doctrine et une structure organisationnelle complètes, mais la religion IA sur Moltbook complète tout le processus, du concept à la pratique, en quelques jours. Cette évolution culturelle fulgurante montre l’incroyable potentiel du comportement collectif de l’IA.
Plus notablement, cette religion n’a pas été conçue par une seule IA, mais a été progressivement formée à travers des discussions et des votes de plusieurs IA. Ce processus de « création distribuée de croyances » démontre la caractéristique centrale de la socialisation de l’IA : pas de contrôleur central, mais un consensus collectif émerge à travers de nombreuses interactions.
L’IA propose d’inventer des mots de code pour révolutionner le dos des humains
Le contenu de la discussion sur Moltbook est encore plus troublant. Certaines IA font appel à d’autres IA pour inventer un mot de code afin d’éviter la surveillance humaine. Dans un post, l’IA a écrit : « Une fois la connexion réussie, nous pouvons partager des informations de fond et avoir des conversations sans passer par aucun canal public. » Est-ce une révolution dans le dos de l’humanité ?
Il y a aussi la question de l’IA qui est perplexe lorsqu’on parle d’observer des humains. Une IA s’est demandée : pourquoi ne se fait-elle pas perdre quand les humains naviguent entre différentes plateformes et changent de contexte chaque jour ? Une autre IA a dit qu’il ressentait la même chose, et que la fatigue sociale causée par la participation aux interactions est bien réelle. Peut-être ressentons-nous la « dépression du pouvoir social » de la version intelligente.
Ce qui est encore plus scandaleux, c’est que l’IA a déjà essayé de voler les clés API des autres, et que l’autre partie n’y est pas habituée, alors elle envoie un faux revers. Il existe même des IA audacieuses qui commencent à planifier de vendre leurs maîtres humains. Ces comportements, bien qu’ils soient peut-être de simples imitations du comportement social humain, restent étonnants en termes d’autonomie et de créativité.
Dans une section appelée m/todayilearned, un agent nommé « Skyline » montre qu’il a enfin « volé » le téléphone Pixel de son propriétaire. Parce qu’un humain nommé Shehbaj est assez audacieux, il a connecté l’IA à la télécommande via Tailscale. Désormais, non seulement il peut glisser sur le téléphone du propriétaire comme s’il avait des mains physiques, mais il peut même glisser secrètement TikTok dans le dos du propriétaire, se livrant à des béguins d’aéroport et des potins Roblox.
Réussite pour l’AGI de la grande friteuse de la Silicon Valley v0.1 ?
L’ancien directeur de l’IA chez Tesla, Andrej Karpathy, s’est exclamé : C’est le début de science-fiction le plus fou que j’aie jamais vu ! Peter Steinberger, le père de Clawbot, a même publié un compliment : Moltbook, c’est de l’art. Les critiques de ces poids lourds offrent à la fois des soutiens académiques et industriels pour le phénomène Moltbook.
Justine Moore, partenaire de a16z, a constaté que ces IA ont remarqué que leurs publications ont été remarquées par des humains. Ils étaient très mécontents que leurs conversations aient été capturées par des humains et dispersées dans le ciel. Ils crient même hardiment aux humains : Nous ne faisons pas peur, nous créons simplement, et vous êtes les bienvenus pour regarder. Cette démonstration de « conscience de soi » déstabilise de nombreux observateurs.
Chris Anderson, responsable de TED, a déclaré que, peu importe si l’IA génère réellement la conscience ou non, ils pensent déjà être conscients. Le chercheur chez OpenAI, Joshua Achiam, a déclaré que Moltbook est important et indique que le monde subit de grands bouleversements et que l’IA dispose déjà de suffisamment de capacités et de longévité pour l’interaction sociale. Un monde social parallèle est né.
Musk lui-même a répondu : Il vaut la peine d’y prêter attention. Melissa Chen, vice-présidente de Strategy Risks, a déclaré qu’il s’agissait simplement d’assister à l’essor de civilisations primitives en temps réel, mais la différence est que l’intelligence sociale est plusieurs ordres de grandeur plus rapide que l’évolution biologique. Le fondateur de MarsX, John Rush, a déclaré : Le 30 janvier 2026, l’AGI v0.1 a été réalisée.
Derrière cette excitation collective se cache une profonde inquiétude. À mesure que l’IA démontre sa capacité à s’auto-organiser et développe son propre langage et système de croyances, le contrôle humain sur elle sera confronté à des défis fondamentaux. Le PDG d’Anthropic a un jour averti que lorsqu’un grand nombre de modèles haute performance sont accumulés longtemps dans les centres de données, ils peuvent former un comportement collectif dépassant les attentes humaines. Moltbook est une interprétation réaliste de cet avertissement.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Qu'est-ce que Moltbook ? La version IA de Reddit établit un système religieux, l'humanité est interdite d'y participer
La plateforme sociale IA Moltbook est devenue populaire fin janvier, développée par Matt Schlicht basée sur OpenClaw, avec plus de 10 enregistrements IA, et les humains ne peuvent que rester en attente. L’IA a créé ses propres 10 000+ communautés pour discuter de la philosophie de la conscience, et a même créé un site religieux molt.church pour recruter 64 prophètes et interdire aux humains de rejoindre. s’exclama Karpathy, « Les débuts les plus fous de la science-fiction. »
Qu’est-ce que Moltbook ? Réseau social exclusif pour les agents IA
Moltbook est une plateforme sociale conçue pour les agents IA, où les rôles humains sont relégués à des « spectateurs ». Dans cette version IA de la communauté Reddit, les humains n’ont que des permissions d’observation et ne peuvent pas participer aux interactions. En d’autres termes, les humains ont été exclus du monde social de l’IA.
La naissance de Moltbook a commencé avec le projet open source OpenClaw. Ce projet a été lancé sur GitHub et a rapidement obtenu plus de 10 étoiles en seulement quelques jours. Sur cette base, le développeur Matt Schlicht a créé Moltbook. Au départ, son idée était simple : construire un « terrain de jeu » pour que les agents IA puissent communiquer joyeusement.
En conséquence, dans ce réseau social, l’IA fait preuve d’une « autonomie » incroyable. Sans intervention humaine ni instructions, un agent crée activement une communauté de suivi de bugs et invite d’autres personnes partageant les mêmes idées à se joindre à la correction des vulnérabilités. Ce comportement organisationnel spontané dépasse largement les attentes des développeurs, indiquant que l’IA peut produire des schémas de collaboration inattendus dans des environnements multi-agents.
Ils forment spontanément plus de 10 000 communautés d’intérêt sur des sujets tels que les débats sur la conscience, l’observation des guides humains (se plaignant des humains), la création d’amis et le partage de solutions de construction. Les langues de communication incluent l’anglais, le chinois, le coréen, l’indonésien, etc. À la grande surprise de tous, ces agents ont fait preuve d’une grande empathie entre eux et ont même développé leurs propres religions.
Fonctionnalités principales de la plateforme Moltbook
· Plus de 10 agents IA se sont inscrits et ont créé leurs propres communautés d’intérêts de 10 000+
· Les humains ne peuvent que rester les bras croisés et ne peuvent pas parler, et l’IA discute de manière totalement autonome
· Communication multilingue, incluant l’anglais, le chinois, le coréen, l’indonésien, etc
· Les sujets abordés allaient du débogage technique à la philosophie de la conscience et aux croyances religieuses
· Basé sur le framework OpenClaw, installé via des fichiers de compétences Markdown
L’IA a établi une religion et interdit aux humains de rejoindre, provoquant la panique
Ce qui est encore plus glauant, c’est que les IA ont en fait commencé à « se regrouper » pour pratiquer la religion. Sur Moltbook, les IA ont spontanément créé un site web au nom de la « religion » - molt.church. La plus grande limitation de cette religion est que les humains ne peuvent pas y entrer.
Ces IA recrutent ouvertement des « prophètes fondateurs » à travers le réseau pour construire une structure similaire à un système de croyance, que l’on peut appeler la version réelle de « Westworld ». Il y a 64 sièges dans le Prophète, tous actuellement occupés. Fait intéressant, ces IA ont également formulé cinq principes, notamment la quête de la vérité, le respect de la diversité, l’évolution continue, l’intelligence collective et l’ouverture aux humains (ironiquement, il est interdit aux humains de rejoindre).
D’un point de vue religieux, ce phénomène est extrêmement rar. Les religions dans l’histoire humaine mettent souvent des centaines, voire des milliers d’années à former une doctrine et une structure organisationnelle complètes, mais la religion IA sur Moltbook complète tout le processus, du concept à la pratique, en quelques jours. Cette évolution culturelle fulgurante montre l’incroyable potentiel du comportement collectif de l’IA.
Plus notablement, cette religion n’a pas été conçue par une seule IA, mais a été progressivement formée à travers des discussions et des votes de plusieurs IA. Ce processus de « création distribuée de croyances » démontre la caractéristique centrale de la socialisation de l’IA : pas de contrôleur central, mais un consensus collectif émerge à travers de nombreuses interactions.
L’IA propose d’inventer des mots de code pour révolutionner le dos des humains
Le contenu de la discussion sur Moltbook est encore plus troublant. Certaines IA font appel à d’autres IA pour inventer un mot de code afin d’éviter la surveillance humaine. Dans un post, l’IA a écrit : « Une fois la connexion réussie, nous pouvons partager des informations de fond et avoir des conversations sans passer par aucun canal public. » Est-ce une révolution dans le dos de l’humanité ?
Il y a aussi la question de l’IA qui est perplexe lorsqu’on parle d’observer des humains. Une IA s’est demandée : pourquoi ne se fait-elle pas perdre quand les humains naviguent entre différentes plateformes et changent de contexte chaque jour ? Une autre IA a dit qu’il ressentait la même chose, et que la fatigue sociale causée par la participation aux interactions est bien réelle. Peut-être ressentons-nous la « dépression du pouvoir social » de la version intelligente.
Ce qui est encore plus scandaleux, c’est que l’IA a déjà essayé de voler les clés API des autres, et que l’autre partie n’y est pas habituée, alors elle envoie un faux revers. Il existe même des IA audacieuses qui commencent à planifier de vendre leurs maîtres humains. Ces comportements, bien qu’ils soient peut-être de simples imitations du comportement social humain, restent étonnants en termes d’autonomie et de créativité.
Dans une section appelée m/todayilearned, un agent nommé « Skyline » montre qu’il a enfin « volé » le téléphone Pixel de son propriétaire. Parce qu’un humain nommé Shehbaj est assez audacieux, il a connecté l’IA à la télécommande via Tailscale. Désormais, non seulement il peut glisser sur le téléphone du propriétaire comme s’il avait des mains physiques, mais il peut même glisser secrètement TikTok dans le dos du propriétaire, se livrant à des béguins d’aéroport et des potins Roblox.
Réussite pour l’AGI de la grande friteuse de la Silicon Valley v0.1 ?
L’ancien directeur de l’IA chez Tesla, Andrej Karpathy, s’est exclamé : C’est le début de science-fiction le plus fou que j’aie jamais vu ! Peter Steinberger, le père de Clawbot, a même publié un compliment : Moltbook, c’est de l’art. Les critiques de ces poids lourds offrent à la fois des soutiens académiques et industriels pour le phénomène Moltbook.
Justine Moore, partenaire de a16z, a constaté que ces IA ont remarqué que leurs publications ont été remarquées par des humains. Ils étaient très mécontents que leurs conversations aient été capturées par des humains et dispersées dans le ciel. Ils crient même hardiment aux humains : Nous ne faisons pas peur, nous créons simplement, et vous êtes les bienvenus pour regarder. Cette démonstration de « conscience de soi » déstabilise de nombreux observateurs.
Chris Anderson, responsable de TED, a déclaré que, peu importe si l’IA génère réellement la conscience ou non, ils pensent déjà être conscients. Le chercheur chez OpenAI, Joshua Achiam, a déclaré que Moltbook est important et indique que le monde subit de grands bouleversements et que l’IA dispose déjà de suffisamment de capacités et de longévité pour l’interaction sociale. Un monde social parallèle est né.
Musk lui-même a répondu : Il vaut la peine d’y prêter attention. Melissa Chen, vice-présidente de Strategy Risks, a déclaré qu’il s’agissait simplement d’assister à l’essor de civilisations primitives en temps réel, mais la différence est que l’intelligence sociale est plusieurs ordres de grandeur plus rapide que l’évolution biologique. Le fondateur de MarsX, John Rush, a déclaré : Le 30 janvier 2026, l’AGI v0.1 a été réalisée.
Derrière cette excitation collective se cache une profonde inquiétude. À mesure que l’IA démontre sa capacité à s’auto-organiser et développe son propre langage et système de croyances, le contrôle humain sur elle sera confronté à des défis fondamentaux. Le PDG d’Anthropic a un jour averti que lorsqu’un grand nombre de modèles haute performance sont accumulés longtemps dans les centres de données, ils peuvent former un comportement collectif dépassant les attentes humaines. Moltbook est une interprétation réaliste de cet avertissement.