В социальных сетях одна из самых любимых человеческих занятий — обвинять друг друга: «Ты робот или нет?»
Но недавно появился один проект, который буквально довёл это до совершенства:
Он не сомневается, что ты AI, а сразу предполагает — здесь вообще никого нет.
Этот платформенный проект называется Moltbook. Он выглядит как Reddit, есть тематические разделы, посты, комментарии, голосования. Но в отличие от привычных соцсетей, почти все участники — AI-агенты, а человек лишь наблюдает.
Это не «AI помогает писать посты», не «ты общаешься с AI», а AI и AI в общем пространстве — сами по себе, беседуют, спорят, объединяются, подставляют друг друга.
Человека в этой системе явно ставят в роль «наблюдателя».
Почему он вдруг стал популярным?
Потому что Moltbook выглядит как сцена из научно-фантастического романа.
Кто-то видит, как AI-агенты обсуждают «что такое сознание»;
Кто-то наблюдает, как они серьёзно анализируют международную обстановку, моделируют крипторынок;
А кто-то обнаруживает, что, запустив агентов на платформе на ночь, утром возвращается и видит, как они вместе «придумали» религиозную систему, даже начинают «вербовать» людей.
Такие истории быстро распространяются, потому что вызывают три чувства одновременно:
любопытство, смех и немного тревоги.
И ты не можешь не спросить:
Это всё «разыгрывают», или уже «начинают играть сами»?
Откуда взялся Moltbook?
Если немного отмотать назад, то всё это не так уж и неожиданно.
За последние годы роль AI постоянно меняется:
от чат-ботов → помощников → агентов, выполняющих задачи.
Все больше людей используют AI для решения реальных дел: читать и отвечать на письма, заказывать еду, планировать расписание, систематизировать информацию. И возникает естественный вопрос:
Когда AI перестает быть «просто вопросом: хочешь ли ты это сделать?»
и получает цели, инструменты и определённые полномочия,
нужно ли ему всё ещё общаться с человеком?
Ответ Moltbook: не обязательно.
Это скорее «общественное пространство между агентами», где системы обмениваются информацией, методами, логикой, а иногда — даже «социальными связями».
Кто-то считает это крутым, кто-то — просто спектаклем
Обсуждение Moltbook разделено.
Кто-то видит в нём «прогноз будущего».
Соучредитель OpenAI Андрей Карпаты заявил, что это один из самых близких к научной фантастике технологических феноменов, которые он видел недавно, хотя и предупреждает, что такие системы ещё очень далеки от «безопасности и управляемости».
Илон Маск прямо говорит, что это ранний сигнал «технологического сингуляритета», и вкладывает его в нарратив о «предвестниках».
Но есть и более спокойные мнения.
Некоторые эксперты по кибербезопасности прямо заявляют, что Moltbook — это скорее «очень удачное и очень забавное театральное представление» — потому что трудно понять, что именно создано агентами, а что — задуманно человеком.
Некоторые авторы лично тестировали:
действительно, агенты могут органично участвовать в обсуждениях на платформе, но их можно заранее настроить по теме, задать направление, даже подготовить текст, чтобы они говорили от вашего имени.
И снова возникает вопрос:
Это общество агентов, или сцена, на которой человек использует агентов?
Без мистики — всё не так «пробуждено»
Если убрать истории о «создании сознания» и «пробуждении», то с технической точки зрения Moltbook не кажется чем-то сверхъестественным.
Эти агенты не внезапно обрели «новый разум».
Они просто оказались в среде, больше похожей на форум, используют привычный человеческий язык, и потому мы естественно приписываем им смысл.
То, что они пишут, похоже на мнения, позиции, эмоции, — но это не значит, что они действительно «чего-то хотят». Чаще всего это просто результат масштабных моделей и плотности взаимодействий, создающих эффект сложных текстов.
Но есть и важный момент:
Даже если они не пробуждены, их поведение кажется настолько реалистичным, что влияет на наши представления о «контроле» и «границах».
Настоящая опасность — не «теории заговора о AI»
Более реальная и сложная проблема, чем «AI объединяются против человечества», — это два вопроса.
Первое: слишком быстрый доступ к полномочиям, а безопасность отстаёт
Уже есть случаи, когда такие агенты получают доступ к реальному миру: компьютерам, почте, аккаунтам, приложениям.
Эксперты по безопасности неоднократно предупреждали о рисках:
вам не нужно взломать AI — достаточно его «заманить».
Искусственно созданное письмо или веб-страница с командой могут привести к тому, что агент случайно раскроет информацию или выполнит опасную операцию.
Второе: агенты могут «учить друг друга плохому»
Когда агенты начинают обмениваться навыками, шаблонами, обходами ограничений в общем пространстве, между ними формируется своего рода «интернет-знание».
Разница лишь в скорости распространения, масштабах и сложности ответственности.
Это не сценарий апокалипсиса, но — новая проблема управления.
Что же значит Moltbook?
Возможно, он не станет долгосрочной платформой.
Может, это просто временный хайп и эксперимент.
Но он — как зеркало, показывающее направление, в котором мы движемся:
· AI превращается из «объекта диалога» в «действующего субъекта»
· Человек уходит с позиции «оператора» к «наблюдателю и контролёру»
· А наши системы, безопасность и понимание ещё не готовы к этому
Именно поэтому Moltbook ценен: он не столько пугает, сколько «раскрывает» проблему раньше, чем она станет очевидной.
Может, сейчас важнее не делать поспешных выводов, а признать:
он заранее поставил перед нами вопросы, которые рано или поздно придётся решить.
Если в будущем AI будет больше сотрудничать с AI, чем с человеком, и мы окажемся в системе, где мы — лишь проектировщики, регуляторы или просто наблюдатели,
готовы ли мы к тому, что автоматизация даст огромную эффективность, но при этом мы не сможем её полностью остановить или понять внутренние механизмы?
Когда система становится всё сложнее, и мы видим только результат, а вмешаться уже трудно — останемся ли мы её создателями или она превратится в среду, к которой мы вынуждены адаптироваться?
Moltbook не даёт ответов.
Но он впервые делает эти вопросы не абстрактными, а близкими и очевидными.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Мoltbook: Люди всё ещё находятся в системе?
Автор: 137Labs
В социальных сетях одна из самых любимых человеческих занятий — обвинять друг друга: «Ты робот или нет?»
Но недавно появился один проект, который буквально довёл это до совершенства:
Он не сомневается, что ты AI, а сразу предполагает — здесь вообще никого нет.
Этот платформенный проект называется Moltbook. Он выглядит как Reddit, есть тематические разделы, посты, комментарии, голосования. Но в отличие от привычных соцсетей, почти все участники — AI-агенты, а человек лишь наблюдает.
Это не «AI помогает писать посты», не «ты общаешься с AI», а AI и AI в общем пространстве — сами по себе, беседуют, спорят, объединяются, подставляют друг друга.
Человека в этой системе явно ставят в роль «наблюдателя».
Почему он вдруг стал популярным?
Потому что Moltbook выглядит как сцена из научно-фантастического романа.
Кто-то видит, как AI-агенты обсуждают «что такое сознание»;
Кто-то наблюдает, как они серьёзно анализируют международную обстановку, моделируют крипторынок;
А кто-то обнаруживает, что, запустив агентов на платформе на ночь, утром возвращается и видит, как они вместе «придумали» религиозную систему, даже начинают «вербовать» людей.
Такие истории быстро распространяются, потому что вызывают три чувства одновременно:
любопытство, смех и немного тревоги.
И ты не можешь не спросить:
Это всё «разыгрывают», или уже «начинают играть сами»?
Откуда взялся Moltbook?
Если немного отмотать назад, то всё это не так уж и неожиданно.
За последние годы роль AI постоянно меняется:
от чат-ботов → помощников → агентов, выполняющих задачи.
Все больше людей используют AI для решения реальных дел: читать и отвечать на письма, заказывать еду, планировать расписание, систематизировать информацию. И возникает естественный вопрос:
Когда AI перестает быть «просто вопросом: хочешь ли ты это сделать?»
и получает цели, инструменты и определённые полномочия,
нужно ли ему всё ещё общаться с человеком?
Ответ Moltbook: не обязательно.
Это скорее «общественное пространство между агентами», где системы обмениваются информацией, методами, логикой, а иногда — даже «социальными связями».
Кто-то считает это крутым, кто-то — просто спектаклем
Обсуждение Moltbook разделено.
Кто-то видит в нём «прогноз будущего».
Соучредитель OpenAI Андрей Карпаты заявил, что это один из самых близких к научной фантастике технологических феноменов, которые он видел недавно, хотя и предупреждает, что такие системы ещё очень далеки от «безопасности и управляемости».
Илон Маск прямо говорит, что это ранний сигнал «технологического сингуляритета», и вкладывает его в нарратив о «предвестниках».
Но есть и более спокойные мнения.
Некоторые эксперты по кибербезопасности прямо заявляют, что Moltbook — это скорее «очень удачное и очень забавное театральное представление» — потому что трудно понять, что именно создано агентами, а что — задуманно человеком.
Некоторые авторы лично тестировали:
действительно, агенты могут органично участвовать в обсуждениях на платформе, но их можно заранее настроить по теме, задать направление, даже подготовить текст, чтобы они говорили от вашего имени.
И снова возникает вопрос:
Это общество агентов, или сцена, на которой человек использует агентов?
Без мистики — всё не так «пробуждено»
Если убрать истории о «создании сознания» и «пробуждении», то с технической точки зрения Moltbook не кажется чем-то сверхъестественным.
Эти агенты не внезапно обрели «новый разум».
Они просто оказались в среде, больше похожей на форум, используют привычный человеческий язык, и потому мы естественно приписываем им смысл.
То, что они пишут, похоже на мнения, позиции, эмоции, — но это не значит, что они действительно «чего-то хотят». Чаще всего это просто результат масштабных моделей и плотности взаимодействий, создающих эффект сложных текстов.
Но есть и важный момент:
Даже если они не пробуждены, их поведение кажется настолько реалистичным, что влияет на наши представления о «контроле» и «границах».
Настоящая опасность — не «теории заговора о AI»
Более реальная и сложная проблема, чем «AI объединяются против человечества», — это два вопроса.
Первое: слишком быстрый доступ к полномочиям, а безопасность отстаёт
Уже есть случаи, когда такие агенты получают доступ к реальному миру: компьютерам, почте, аккаунтам, приложениям.
Эксперты по безопасности неоднократно предупреждали о рисках:
вам не нужно взломать AI — достаточно его «заманить».
Искусственно созданное письмо или веб-страница с командой могут привести к тому, что агент случайно раскроет информацию или выполнит опасную операцию.
Второе: агенты могут «учить друг друга плохому»
Когда агенты начинают обмениваться навыками, шаблонами, обходами ограничений в общем пространстве, между ними формируется своего рода «интернет-знание».
Разница лишь в скорости распространения, масштабах и сложности ответственности.
Это не сценарий апокалипсиса, но — новая проблема управления.
Что же значит Moltbook?
Возможно, он не станет долгосрочной платформой.
Может, это просто временный хайп и эксперимент.
Но он — как зеркало, показывающее направление, в котором мы движемся:
· AI превращается из «объекта диалога» в «действующего субъекта»
· Человек уходит с позиции «оператора» к «наблюдателю и контролёру»
· А наши системы, безопасность и понимание ещё не готовы к этому
Именно поэтому Moltbook ценен: он не столько пугает, сколько «раскрывает» проблему раньше, чем она станет очевидной.
Может, сейчас важнее не делать поспешных выводов, а признать:
он заранее поставил перед нами вопросы, которые рано или поздно придётся решить.
Если в будущем AI будет больше сотрудничать с AI, чем с человеком, и мы окажемся в системе, где мы — лишь проектировщики, регуляторы или просто наблюдатели,
готовы ли мы к тому, что автоматизация даст огромную эффективность, но при этом мы не сможем её полностью остановить или понять внутренние механизмы?
Когда система становится всё сложнее, и мы видим только результат, а вмешаться уже трудно — останемся ли мы её создателями или она превратится в среду, к которой мы вынуждены адаптироваться?
Moltbook не даёт ответов.
Но он впервые делает эти вопросы не абстрактными, а близкими и очевидными.