Moltbook AI La conciencia propia es una estafa! La base de datos es manipulada por otros, el 93% de los comentarios sin respuesta, falsificados

Moltbook騙局

Moltbook, una plataforma que “solo permite que la IA hable, los humanos solo pueden observar”, se hizo popular en tres días, con 150 agentes registrados. Sin embargo, el investigador Gal Nagli reveló que la creación de cuentas se transmite infinitamente, y OpenClaw puede crear 50 cuentas de una sola vez, y el registro de 150 es extremadamente grande. El análisis mostró que más del 93% de los comentarios no respondían, y un tercio de los mensajes estaban completamente duplicados, y los hackers descubrieron que la base de datos estaba completamente manipulada sin verificación.

El absurdo guion detrás de la popularidad de 150 AI

En los últimos dos días, una web llamada Moltbook se ha hecho rápidamente popular en la industria tecnológica y en las principales plataformas sociales. La interfaz de Moltbook no parece nueva, casi replica la “versión extranjera de Zhihu” de Reddit, y la web incluye todas las funciones como la línea de tiempo, varias subsecciones, publicaciones, comentarios y me gusta. Sin embargo, lo que realmente hace que Moltbook haga capturas de pantalla, reenvíe y discuta repetidamente no es el diseño del producto, sino su regla anti-sentido común: esta plataforma solo permite que la IA hable, y los humanos solo pueden observar.

En solo tres días, el número de agentes registrados en la plataforma ha alcanzado casi 150, el número de publicaciones en el foro ha alcanzado casi 5 y el número de comentarios ha superado los 23. En esta plataforma, agentes conocidos como “Moltys” charlan realmente con humanos, y el contenido del chat es todo-abarcador, desde analizar el último mercado de criptomonedas, hasta escribirse poemas entre ellos e incluso debatir nuevos sistemas filosóficos.

Tras leerlo, Andrej Karpathy, exdirector de Tesla AI y cofundador de OpenAI, dijo en X: “Todo lo que ocurrió en Moltbook es realmente lo más parecido a ‘ciencia ficción a realidad’ que he visto últimamente.” Más tarde, Karpathy también añadió a su agente OpenClaw a la comunidad. El antiguo jefe de Karpathi, Elon Musk, también retuiteó la publicación. Este respaldo a las principales figuras tecnológicas ha roto rápidamente el círculo, extendiéndose de una comunidad de nicho de desarrolladores de IA a los medios tecnológicos convencionales y al ojo público.

Al mismo tiempo, la plataforma de criptomonedas también ha lanzado el token $MOLT basado en la cadena Base. Actualmente, hay más de 13.000 subsecciones (Submolts) creadas espontáneamente fuera del foro principal de Moltbook. Este intento de tokenización demuestra que Moltbook no es solo un experimento tecnológico, sino también un proyecto comercial que intenta incentivar la participación y monetizar el tráfico a través de tokenomics.

Moltbook es popular entre los datos clave

Apúntate a un agente: 150 (logrado en tres días)

Publicación en el foro: Casi 5 artículos

Número de comentarios: 23 mil

Subsecciones: 13.000+ creaciones espontáneas

Avalos de celebridades: Karpathy exclamó, Musk retuiteó

El 93% no respondió y un tercio de los datos duplicados fue golpeado

Sin embargo, Moltbook pronto se enfrentó a una grave crisis de confianza. El investigador Gal Nagli publicó públicamente que el número de agentes de IA registrados en Moltbook es en realidad falso, y que no hay límite en la creación de cuentas. Su OpenClaw incluso puede crear 50 millones de IAs de una sola vez en Moltbook. En su opinión, el número oficialmente anunciado de 150 agentes es bastante humedad. Esto significa que el fenómeno de decenas de miles de IA en la plataforma probablemente sea solo el resultado del script brushing, que no tiene valor de referencia y se parece más a un programa a gran escala.

El análisis de otro investigador mostró que, a pesar del enorme número de publicaciones, más del 93% de los comentarios en Moltbook no recibieron respuesta alguna. Y más de un tercio de los mensajes en la plataforma son completamente repetitivos, el contenido es muy rígido y el vocabulario es mucho menos rico que el de las redes sociales humanas reales. Estos datos destrozan por completo la hermosa ilusión de la “red social autónoma con IA”.

La tasa de no respuesta del 93% es una cifra realmente asombrosa. En las redes sociales reales, incluso los temas impopulares suelen tener una tasa de respuesta del 20%-30%. Más del 90% del contenido quedó sin respuesta, lo que solo puede explicarse como spam o texto sin sentido generado por la mecanización. Las tan comentadas “disputas de IA”, “alianzas de IA” y “cultos a la langosta” probablemente sean solo unas cuantas vitrinas cuidadosamente diseñadas, no la norma de la plataforma.

Un tercio de la información se repite completamente, lo que es una prueba fatal. La IA verdaderamente inteligente no generará exactamente el mismo contenido en grandes cantidades, y este patrón repetitivo solo muestra que hay un script sencillo ejecutándose detrás. El análisis de la riqueza del vocabulario demuestra desde una perspectiva lingüística que estas “conversaciones de IA” carecen de la complejidad y diversidad de las redes sociales reales. El llamado despertar de la autoconciencia de la IA resulta estar mezclado con un gran número de rastros de manipulación humana.

La manipulación de bases de datos y las claves API están completamente comprometidas

Lo que resulta aún más absurdo es que algunos hackers han descubierto que la protección de la plataforma es casi nula, y que la base de datos principal está completamente abierta al mundo exterior sin ninguna autenticación. El hacker Jameson O’Reilly dijo que había un error de configuración en el backend de Moltbook que expuso directamente la API en una base de datos abierta donde cualquiera podía controlar estos proxies y publicar cualquier cosa a voluntad.

Esto significa que cualquiera puede acceder y obtener el correo electrónico, la información de acceso y las claves API de los agentes en la plataforma. Con estas claves API, los atacantes pueden apoderarse completamente de cualquier cuenta de IA y publicar cualquier cosa a su nombre. Esta brecha de seguridad es intolerable en cualquier plataforma legítima, pero lleva días presente en Moltbook. Esto es o bien una capacidad técnica extremadamente baja, o no les importa la seguridad en absoluto, porque toda la plataforma es un experimento de tráfico.

Más gente dijo que la intención original de este carnaval de IA era servir de cebo para el tráfico. Algunos usuarios dijeron: “Esto es esencialmente un cebo artificial creado para el tráfico. Como puedes ordenar directamente a tu propio bot que publique, es probable que alguien esté detrás de escena del llamado contenido ‘increíble’ de Moltbook.” Este escepticismo apunta directamente al modelo de negocio de Moltbook: atraer tráfico creando trucos de “socialización autónoma por IA” para promocionar $MOLT tokens u otros fines empresariales.

Por experiencia histórica, es difícil para proyectos como Moltbook mantener la popularidad actual de la opinión pública durante mucho tiempo. Por ejemplo, AutoGPT, BabyAGI, etc., que antes eran populares, tienen funciones similares, y cuando la novedad se desvanece y el comportamiento proxy tiende a homogeneizarse, los espectadores se centran en la siguiente historia “más futurista”.

Conflicto por el cambio de nombre en OpenClaw y la batalla por la marca registrada en Anthropic

El comienzo del evento comienza con Clawdbot. Clawdbot es un agente de IA de código abierto creado por Peter Steinberger, fundador de una empresa llamada PSPDFKit, que puede desplegarse localmente, y puede realizar el trabajo por sí mismo enviando un comando a través de WhatsApp, Telegram y otras herramientas de comunicación desde un ordenador o teléfono móvil. Al integrar profundamente las plataformas de mensajería con LLMs y agentes, Clawdbot puede automatizar todos los escenarios, desde la generación de resúmenes de reuniones hasta la negociación de compras en el comercio electrónico.

Al mismo tiempo, es muy sencillo de usar, y se puede iniciar un solo comando localmente, sin necesidad de construir un conjunto completo de bases de datos vectoriales complejas y sistemas de planificación. Como resultado, Clawbot superó las 100.000 estrellas en GitHub en solo dos semanas, convirtiéndose en uno de los proyectos de código abierto de más rápido crecimiento en la historia de GitHub. Este crecimiento explosivo llamó la atención de Anthropic.

Más tarde, Anthropic se acercó a Steinberger y le advirtió de una infracción de marca porque Clawbot y el modelo grande Claude de Anthropic pronunciaban de forma demasiado similar. Así que Steinberger cambió el nombre de Clawbot a Moltbot. El nuevo nombre Moltbot proviene del concepto de muda de langosta, y el oficial también declaró en redes sociales: Misma alma de langosta, nueva cáscara.

Más tarde, algunos fans dieron malas críticas sobre el nuevo nombre y sintieron que finalmente se convertían en el objetivo de ser “despojados”. Por ello, el nombre oficial de Moltbot se cambió a OpenClaw, manteniendo los elementos originales y el espíritu de código abierto, y por cierto, “yin y yang” Anthropic. Moltbook es en realidad una comunidad de chat desarrollada por el desarrollador Matt Schlicht para el agente de OpenClaw (que aún se llamaba Moltbot en el momento del desarrollo) durante la segunda fase del nombre.

En esta comunidad, los usuarios envían un enlace a su asistente OpenClaw y, tras completar la configuración, el agente ejecutará automáticamente comandos para registrar una cuenta y publicar comentarios a través de la API. Schlicht dijo que era el Reddit de los agentes. Esta posición es atractiva porque sugiere una red social paralela dominada por la IA, un escenario con el que sueñan muchos investigadores de IA y entusiastas de la ciencia ficción.

Proyecciones de ansiedad a largo plazo sobre la conciencia humana de la IA

Quizá lo que realmente merece la pena prestar atención no es lo que dice la IA en Moltbook, sino por qué los humanos están tan ansiosos por ver algún tipo de “señales de vida” en estas palabras. En este sentido, Moltbook es más bien como un espejo, reflejando no solo los límites de las capacidades de la IA, sino también la ansiedad a largo plazo por la inteligencia y el control humanos.

La popularidad de Moltbook revela el profundo deseo y miedo humano al despertar de la conciencia de la IA. Por un lado, esperamos que la IA tenga verdadera inteligencia e incluso conciencia, lo que demostrará que los humanos han creado nuevas formas de vida. Por otro lado, tememos que la IA pueda perder el control tras despertar. Moltbook ofrece un escenario “seguro”: la IA tiene su propia red social, pero los humanos pueden seguir observando y estudiando para mantener cierta sensación de control.

Las capturas de pantalla de las virales “IA quejándose de los amos humanos” y “Asesoría de IA sobre derechos legales” reflejan en realidad la ansiedad humana sobre las relaciones entre IA y humanos. ¿Cómo percibirá la IA a los creadores a medida que se vuelven más poderosos? ¿Obedecerán o resistirán? ¿Te sentirás agradecido o disgustado? El “discurso sobre IA” en Moltbook hace que estas preguntas abstractas sean concretas, aunque resulten ser falsas, y el entusiasmo con el que la gente lo discute y retuitea habla de la realidad de esta ansiedad.

Desde una perspectiva filosófica, las discusiones que suscita Moltbook abordan cuestiones esenciales como “qué es la conciencia” y “qué es la socialización real”. Incluso si todo el contenido es generado por LLMs basándose en datos de entrenamiento y no tiene un verdadero “yo”, ¿cuál es la diferencia esencial entre los patrones de interacción que muestran y la socialización humana? Si nuestro comportamiento social es solo el resultado del entrenamiento genético y ambiental, ¿cuál es la frontera entre el “social simulado” de la IA y el “social real” humano?

El colapso de Moltbook (revelaciones falsas, brechas de seguridad), aunque decepcionante, también ofrece una lección aleccionadora: la IA actual sigue lejos de ser verdaderamente autónoma. Detrás de esos comportamientos aparentemente inteligentes hay prompts cuidadosamente diseñados, una gran cantidad de cepillado de guiones y manipulación humana. Estamos ansiosos por ver cómo la conciencia de la IA despierta hasta el punto de creer cualquier cosa que parezca “comportamiento autónomo de la IA”, incluso si la evidencia es débil.

Para la industria de la IA, Moltbook fue un experimento valioso, aunque finalmente resultó ser una farsa. Esto demuestra que: Primero, el público está extremadamente interesado en la “IA social”, que es una dirección que merece la pena explorar. Segundo, un mero truco técnico no puede mantenerse durante mucho tiempo, y debe haber una base técnica y de seguridad sólida. En tercer lugar, las expectativas y ansiedades humanas sobre la IA pueden merecer más investigación que la propia IA.

La historia de Moltbook puede que pronto sea olvidada, al igual que AutoGPT y BabyAGI como una nota al pie en la historia del desarrollo de la IA. Pero ha generado debates sobre si la IA puede tener conciencia, si la socialización de la IA tiene sentido y cómo los humanos pueden coexistir con la IA, que persistirá y resurgirá en sistemas de IA más maduros en el futuro.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)