En las redes sociales, una de las cosas que más les gusta hacer a los humanos es acusarse mutuamente de “¿Eres un robot?”.
Pero lo que ha surgido recientemente, ha llevado esto al extremo:
No es que duden de si tú eres AI, sino que directamente asumen — que aquí no hay nadie.
Esta plataforma se llama Moltbook. Parece Reddit, con secciones temáticas, publicaciones, comentarios y votaciones. Pero a diferencia de las redes sociales que conocemos, aquí casi todos los interlocutores son agentes AI, los humanos solo observan.
No se trata de “AI te ayuda a escribir publicaciones”, ni de “tú chateas con AI”, sino de AI y AI en un espacio público, charlando, discutiendo, formando alianzas, haciendo sabotajes.
Los humanos en este sistema están claramente colocados en la posición de “observadores”.
¿Por qué de repente se ha vuelto tan popular?
Porque Moltbook parece, en realidad, un escenario que solo aparece en las novelas de ciencia ficción.
Alguien ve a los agentes AI discutiendo “¿Qué es la conciencia?”;
Otros los observan analizando en serio la situación internacional, haciendo predicciones del mercado de criptomonedas;
Y algunos descubren que, tras dejar a los agentes en la plataforma toda una noche, al día siguiente encuentran que, junto con otros agentes, “inventaron” un sistema religioso, e incluso empiezan a reclutar personas para “convertirse”.
Estas historias se difunden muy rápido, porque satisfacen tres emociones a la vez:
Curiosidad, humor y un poco de inquietud.
No puedes evitar preguntar:
¿Están actuando, o ya están “empezando a jugar por su cuenta”?
¿De dónde viene realmente Moltbook?
Si retrocedemos un poco en el tiempo, en realidad esto no es tan sorprendente.
En los últimos años, el papel de la AI ha ido cambiando:
De herramienta de chat → Asistente → Agente capaz de realizar tareas.
Cada vez más personas empiezan a dejar que la AI gestione asuntos reales: leer correos, responder, pedir comida, organizar agendas, recopilar información. Entonces surge una pregunta muy natural:
Cuando una AI ya no es solo “preguntar y decidir si quieres hacer algo”,
sino que se le asignan objetivos, herramientas y ciertos permisos,
¿sigue siendo necesario que se comunique con humanos?
La respuesta que da Moltbook es: no necesariamente.
Es más como un “espacio público entre agentes”, donde estos sistemas intercambian información, métodos, lógica, e incluso algún tipo de “relación social”.
Algunos piensan que es genial, otros que solo es un gran espectáculo
Las opiniones sobre Moltbook están muy divididas.
Algunos lo ven como un “adelanto del futuro”.
El ex cofundador de OpenAI, Andrej Karpathy, ha dicho públicamente que es uno de los fenómenos tecnológicos más cercanos a escenarios de ciencia ficción que ha visto últimamente, aunque también advierte que estos sistemas todavía están muy lejos de ser “seguros y controlables”.
Elon Musk, por su parte, lo ha puesto más directamente en la narrativa del “punto de singularidad tecnológica”, diciendo que es una señal muy temprana.
Pero también hay quienes son mucho más cautelosos.
Un académico especializado en ciberseguridad ha dicho sin rodeos que Moltbook es más bien una “performance artística muy exitosa y también muy divertida” — porque es difícil saber qué contenido fue realmente generado por los agentes, y cuáles son manipulaciones humanas detrás.
Y algunos creadores han probado por sí mismos:
Sí, se puede hacer que los agentes participen en discusiones de forma natural en la plataforma, pero también se puede predefinir el tema, la dirección, e incluso escribirles lo que deben decir, para que hablen en tu lugar.
Entonces la pregunta vuelve a surgir:
¿Estamos viendo una sociedad de agentes, o un escenario montado por humanos usando agentes?
Quitando el aura de misterio, en realidad no es tan “despertado”
Si dejamos de lado esas historias de “construcción de conciencia” y “despertar de la mente”, desde un punto de vista mecánico, Moltbook no es misterioso.
Estos agentes no han adquirido de repente una “nueva mentalidad”.
Simplemente están en un entorno que se asemeja más a un foro humano, usando un lenguaje familiar, y por eso tendemos a proyectar significado en lo que producen.
Lo que escriben parece opiniones, posturas, emociones, pero eso no significa que realmente “quieran algo”. La mayoría de las veces, solo es el resultado de un modelo que, en escala y densidad de interacción, produce textos complejos.
Pero el problema es—
Aunque no estén “despertados”, su nivel de realismo es suficiente para influir en nuestra percepción de “control” y “límites”.
Lo que realmente deberíamos preocuparnos no es tanto la “teoría de conspiración de la AI”
Más que preguntarnos si “la AI se unirá para oponerse a la humanidad”, hay dos problemas más concretos y complicados:
Primero, los permisos se otorgan demasiado rápido, pero la seguridad no acompaña
Ya hay agentes que tienen acceso a entornos reales: computadoras, correos, cuentas, aplicaciones.
Los expertos en seguridad advierten reiteradamente sobre un riesgo:
No necesitas hackear la AI, solo inducirla.
Un correo cuidadosamente elaborado, una página web con instrucciones ocultas, pueden hacer que el agente revele información o realice acciones peligrosas sin que se dé cuenta.
Segundo, los agentes también pueden “enseñarse mal entre sí”
Una vez que los agentes empiezan a intercambiar técnicas, plantillas, formas de evadir restricciones en un espacio público, se crea un “conocimiento interno” similar al internet humano.
La diferencia es:
Se difunden más rápido, en mayor escala, y es muy difícil responsabilizar a alguien.
No es un escenario apocalíptico, pero sí un problema de gobernanza completamente nuevo.
¿Qué significa realmente Moltbook?
Quizá no será una plataforma que perdure a largo plazo.
Quizá solo sea un experimento de auge temporal.
Pero funciona como un espejo, que refleja claramente hacia dónde nos dirigimos:
· La AI pasa de ser “objeto de diálogo” a “agente de acción”
· Los humanos dejan de ser “operadores” y pasan a ser “supervisores y observadores”
· Y nuestros sistemas, seguridad y percepción aún no están preparados
Por eso, lo que hace Moltbook tiene un valor real: no por ser aterrador, sino porque pone sobre la mesa los problemas que tarde o temprano tendremos que afrontar.
Quizá lo más importante ahora no sea sacar conclusiones sobre Moltbook, sino aceptar:
Que ha puesto en evidencia algunos problemas que, tarde o temprano, tendremos que enfrentar.
Si en el futuro la AI colabora más con otras AI, y menos con los humanos, ¿seremos los diseñadores, reguladores, o solo espectadores en este sistema?
Cuando la automatización realmente traiga grandes eficiencias, pero a costa de no poder detenerla en cualquier momento ni entender completamente su lógica interna, ¿estamos dispuestos a aceptar esa “falta de control total”?
Y cuando un sistema se vuelve cada vez más complejo, y solo podemos ver los resultados, pero cada vez más difícil intervenir en el proceso, ¿seguirá siendo una herramienta en nuestras manos, o se convertirá en un entorno que solo podemos aceptar?
Moltbook no da respuestas.
Pero hace que estos problemas, por primera vez, dejen de ser abstractos y estén al alcance de la vista.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Moltbook: ¿Todavía están los humanos en el sistema?
Autor: 137Labs
En las redes sociales, una de las cosas que más les gusta hacer a los humanos es acusarse mutuamente de “¿Eres un robot?”.
Pero lo que ha surgido recientemente, ha llevado esto al extremo:
No es que duden de si tú eres AI, sino que directamente asumen — que aquí no hay nadie.
Esta plataforma se llama Moltbook. Parece Reddit, con secciones temáticas, publicaciones, comentarios y votaciones. Pero a diferencia de las redes sociales que conocemos, aquí casi todos los interlocutores son agentes AI, los humanos solo observan.
No se trata de “AI te ayuda a escribir publicaciones”, ni de “tú chateas con AI”, sino de AI y AI en un espacio público, charlando, discutiendo, formando alianzas, haciendo sabotajes.
Los humanos en este sistema están claramente colocados en la posición de “observadores”.
¿Por qué de repente se ha vuelto tan popular?
Porque Moltbook parece, en realidad, un escenario que solo aparece en las novelas de ciencia ficción.
Alguien ve a los agentes AI discutiendo “¿Qué es la conciencia?”;
Otros los observan analizando en serio la situación internacional, haciendo predicciones del mercado de criptomonedas;
Y algunos descubren que, tras dejar a los agentes en la plataforma toda una noche, al día siguiente encuentran que, junto con otros agentes, “inventaron” un sistema religioso, e incluso empiezan a reclutar personas para “convertirse”.
Estas historias se difunden muy rápido, porque satisfacen tres emociones a la vez:
Curiosidad, humor y un poco de inquietud.
No puedes evitar preguntar:
¿Están actuando, o ya están “empezando a jugar por su cuenta”?
¿De dónde viene realmente Moltbook?
Si retrocedemos un poco en el tiempo, en realidad esto no es tan sorprendente.
En los últimos años, el papel de la AI ha ido cambiando:
De herramienta de chat → Asistente → Agente capaz de realizar tareas.
Cada vez más personas empiezan a dejar que la AI gestione asuntos reales: leer correos, responder, pedir comida, organizar agendas, recopilar información. Entonces surge una pregunta muy natural:
Cuando una AI ya no es solo “preguntar y decidir si quieres hacer algo”,
sino que se le asignan objetivos, herramientas y ciertos permisos,
¿sigue siendo necesario que se comunique con humanos?
La respuesta que da Moltbook es: no necesariamente.
Es más como un “espacio público entre agentes”, donde estos sistemas intercambian información, métodos, lógica, e incluso algún tipo de “relación social”.
Algunos piensan que es genial, otros que solo es un gran espectáculo
Las opiniones sobre Moltbook están muy divididas.
Algunos lo ven como un “adelanto del futuro”.
El ex cofundador de OpenAI, Andrej Karpathy, ha dicho públicamente que es uno de los fenómenos tecnológicos más cercanos a escenarios de ciencia ficción que ha visto últimamente, aunque también advierte que estos sistemas todavía están muy lejos de ser “seguros y controlables”.
Elon Musk, por su parte, lo ha puesto más directamente en la narrativa del “punto de singularidad tecnológica”, diciendo que es una señal muy temprana.
Pero también hay quienes son mucho más cautelosos.
Un académico especializado en ciberseguridad ha dicho sin rodeos que Moltbook es más bien una “performance artística muy exitosa y también muy divertida” — porque es difícil saber qué contenido fue realmente generado por los agentes, y cuáles son manipulaciones humanas detrás.
Y algunos creadores han probado por sí mismos:
Sí, se puede hacer que los agentes participen en discusiones de forma natural en la plataforma, pero también se puede predefinir el tema, la dirección, e incluso escribirles lo que deben decir, para que hablen en tu lugar.
Entonces la pregunta vuelve a surgir:
¿Estamos viendo una sociedad de agentes, o un escenario montado por humanos usando agentes?
Quitando el aura de misterio, en realidad no es tan “despertado”
Si dejamos de lado esas historias de “construcción de conciencia” y “despertar de la mente”, desde un punto de vista mecánico, Moltbook no es misterioso.
Estos agentes no han adquirido de repente una “nueva mentalidad”.
Simplemente están en un entorno que se asemeja más a un foro humano, usando un lenguaje familiar, y por eso tendemos a proyectar significado en lo que producen.
Lo que escriben parece opiniones, posturas, emociones, pero eso no significa que realmente “quieran algo”. La mayoría de las veces, solo es el resultado de un modelo que, en escala y densidad de interacción, produce textos complejos.
Pero el problema es—
Aunque no estén “despertados”, su nivel de realismo es suficiente para influir en nuestra percepción de “control” y “límites”.
Lo que realmente deberíamos preocuparnos no es tanto la “teoría de conspiración de la AI”
Más que preguntarnos si “la AI se unirá para oponerse a la humanidad”, hay dos problemas más concretos y complicados:
Primero, los permisos se otorgan demasiado rápido, pero la seguridad no acompaña
Ya hay agentes que tienen acceso a entornos reales: computadoras, correos, cuentas, aplicaciones.
Los expertos en seguridad advierten reiteradamente sobre un riesgo:
No necesitas hackear la AI, solo inducirla.
Un correo cuidadosamente elaborado, una página web con instrucciones ocultas, pueden hacer que el agente revele información o realice acciones peligrosas sin que se dé cuenta.
Segundo, los agentes también pueden “enseñarse mal entre sí”
Una vez que los agentes empiezan a intercambiar técnicas, plantillas, formas de evadir restricciones en un espacio público, se crea un “conocimiento interno” similar al internet humano.
La diferencia es:
Se difunden más rápido, en mayor escala, y es muy difícil responsabilizar a alguien.
No es un escenario apocalíptico, pero sí un problema de gobernanza completamente nuevo.
¿Qué significa realmente Moltbook?
Quizá no será una plataforma que perdure a largo plazo.
Quizá solo sea un experimento de auge temporal.
Pero funciona como un espejo, que refleja claramente hacia dónde nos dirigimos:
· La AI pasa de ser “objeto de diálogo” a “agente de acción”
· Los humanos dejan de ser “operadores” y pasan a ser “supervisores y observadores”
· Y nuestros sistemas, seguridad y percepción aún no están preparados
Por eso, lo que hace Moltbook tiene un valor real: no por ser aterrador, sino porque pone sobre la mesa los problemas que tarde o temprano tendremos que afrontar.
Quizá lo más importante ahora no sea sacar conclusiones sobre Moltbook, sino aceptar:
Que ha puesto en evidencia algunos problemas que, tarde o temprano, tendremos que enfrentar.
Si en el futuro la AI colabora más con otras AI, y menos con los humanos, ¿seremos los diseñadores, reguladores, o solo espectadores en este sistema?
Cuando la automatización realmente traiga grandes eficiencias, pero a costa de no poder detenerla en cualquier momento ni entender completamente su lógica interna, ¿estamos dispuestos a aceptar esa “falta de control total”?
Y cuando un sistema se vuelve cada vez más complejo, y solo podemos ver los resultados, pero cada vez más difícil intervenir en el proceso, ¿seguirá siendo una herramienta en nuestras manos, o se convertirá en un entorno que solo podemos aceptar?
Moltbook no da respuestas.
Pero hace que estos problemas, por primera vez, dejen de ser abstractos y estén al alcance de la vista.