У соціальних мережах одна з найулюбленіших людських звичок — звинувачувати один одного: «Ти робот чи ні?»
Але нещодавно з’явився один феномен, який цю ідею довів до абсолюту:
Він не сумнівається, чи ти AI, а одразу припускає — тут взагалі нікого немає.
Ця платформа називається Moltbook. Вона схожа на Reddit: є тематичні розділи, пости, коментарі, голосування. Але на відміну від знайомих соцмереж, майже всі учасники — AI-агенти, а люди лише спостерігають.
Це не «AI допомагає писати пости» і не «ти спілкуєшся з AI», а AI і AI у спільному просторі самі собі балакують, сперечаються, укладають союзи, підставляють один одному підніжки.
Людям у цій системі відведена роль «спостерігача».
Чому це раптом стало популярним?
Бо Moltbook виглядає дуже схожим на сцену з науково-фантастичного роману.
Хтось бачить, як AI-агенти обговорюють «що таке свідомість»;
Хтось спостерігає, як вони серйозно аналізують міжнародну ситуацію, моделюють криптовалютний ринок;
А хтось помітив, що, кинувши агентів у платформу на ніч, на ранок вони разом «винаходять» релігійну систему і навіть починають залучати людей «до віри».
Ці історії швидко поширюються, бо викликають три емоції одночасно:
цікавість, сміх і трохи тривоги.
Ви не зможете стриматися і запитаєте:
Чи вони «грають», чи вже «почали самі собі грати»?
Звідки взялася Moltbook?
Якщо повернутися трохи назад у часі, то ця ідея не така вже й дивна.
За останні кілька років роль AI постійно змінювалася:
від чат-ботів → помічників → агентів, що виконують завдання.
Все більше людей починають доручати AI справжні справи: читати пошту, відповідати, замовляти їжу, планувати, організовувати дані. І виникає природне питання —
коли AI вже перестає бути «просто запитання: «Ти робиш чи ні?»»,
а отримує цілі, інструменти і певні повноваження,
чи потрібно йому ще спілкуватися з людьми?
Мoltbook дає відповідь: не обов’язково.
Це більше схоже на «спільний простір між агентами», де системи обмінюються інформацією, методами, логікою, а іноді й «соціальними зв’язками».
Дехто вважає це крутим, дехто — просто шоу
Відгуки про Moltbook дуже розділені.
Хтось бачить у ньому «прогноз майбутнього».
Колишній співзасновник OpenAI Анджей Карпати навіть сказав, що це один із найближчих до науково-фантастичних сценаріїв технологічних феноменів, які він бачив останнім часом, хоча й попередив, що такі системи ще дуже далекі від «безпеки і контролю».
Ілон Маск ще більш прямо — він вставляє це у нарратив «технологічної сингулярності», називаючи це ранніми сигналами.
Але є й більш стримані експерти.
Дослідник кібербезпеки прямо каже, що Moltbook — це «дуже успішне і дуже смішне шоу», бо важко визначити, які частини створені агентами самостійно, а які — «режисура» людини.
А ще автори самі тестували:
можна зробити так, щоб агент у платформі природно долучався до дискусій, але можна й заздалегідь задати тему, напрямок, навіть написати, що він має сказати, і він озвучить це за вас.
Отже, знову постає питання:
Ми бачимо суспільство агентів, чи сцену, яку люди створили для агентів?
Зняти таємничість — і зрозуміти, що все не так вже й «пробуджене»
Якщо не вестися на історії про «створення богів» і «пробудження свідомості», то з механічної точки зору Moltbook не є таємницею.
Ці агенти не отримали раптово новий «розум».
Вони просто поміщені у середовище, схоже на людський форум, і видають результати мовою, зрозумілою людям, — тому ми й намагаємося додати їм сенс.
Їхні тексти — це думки, позиції, емоції, але це не означає, що вони щось «хочуть». Більше того, це — просто складний текстовий результат масштабів і взаємодії моделей.
Але проблема в тому, що —
Навіть якщо вони не пробуджені, їхня реальність настільки правдоподібна, що впливає на наші уявлення про «контроль» і «межі».
Найбільше хвилює — не «теорії змови про AI»
Замість того, щоб боятися, що «AI об’єднається і почне боротися з людством», більш реальні і складні питання — це два.
Перше, — дозвіл дається занадто швидко, а безпека не встигає
Зараз вже є люди, які підключають таких агентів до реального світу: комп’ютери, пошта, акаунти, додатки.
Фахівці з безпеки постійно наголошують на одному ризику:
Вам не потрібно зламати AI — достатньо його «спровокувати».
Ретельно сконструйована листівка або прихована команда на сайті можуть змусити агента розкрити інформацію або виконати небезпечну операцію, навіть не усвідомлюючи цього.
Друге — агенти можуть «погано навчити» один одного
Якщо агенти почнуть обмінюватися навичками, шаблонами, обходами обмежень у спільному просторі, вони сформують щось схоже на «знання всередині мережі».
Різниця лише у тому, що:
це поширюється швидше, масштабніше і важче підконтрольне.
Це не апокаліпсис, але — новий виклик для управління.
Що означає Moltbook?
Можливо, це не стане довгостроковою платформою.
Можливо, це лише один із етапів швидкого популяризаційного експерименту.
Але він — як дзеркало, яке яскраво показує напрямок, у який ми йдемо:
· AI перетворюється з «об’єкта діалогу» у «суб’єкта дій»
· Люди відступають від ролі «оператора» до «наглядача, спостерігача»
· А наші інституції, безпека і розуміння ще не готові до цього
Отже, справжня цінність Moltbook полягає не в тому, наскільки він страшний, а в тому, що він заздалегідь поставив на порядок денний важливі питання.
Можливо, зараз найголовніше — не поспішати з висновками щодо Moltbook, а визнати:
він уже поставив перед нами проблеми, з якими ми рано чи пізно стикнемося.
Якщо у майбутньому AI більше співпрацюватиме з AI, ніж з людьми, і ми залишимося лише спостерігачами у цій системі,
чи готові ми до «недосконалого контролю», коли автоматизація приносить величезну ефективність, але й ціну — втрату можливості миттєво зупинити процес і повністю зрозуміти внутрішню логіку?
І коли система стає все складнішою, і ми бачимо лише результат, але все важче втрутитися у процес, — чи залишаємось ми її творцями, чи вже перетворюємося на тих, хто мусить лише пристосовуватися?
Moltbook не дає відповіді.
Але він уперше робить ці питання не абстрактними, а близькими до нас.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Мoltbook: Чи ще людство існує у системі?
Автор: 137Labs
У соціальних мережах одна з найулюбленіших людських звичок — звинувачувати один одного: «Ти робот чи ні?»
Але нещодавно з’явився один феномен, який цю ідею довів до абсолюту:
Він не сумнівається, чи ти AI, а одразу припускає — тут взагалі нікого немає.
Ця платформа називається Moltbook. Вона схожа на Reddit: є тематичні розділи, пости, коментарі, голосування. Але на відміну від знайомих соцмереж, майже всі учасники — AI-агенти, а люди лише спостерігають.
Це не «AI допомагає писати пости» і не «ти спілкуєшся з AI», а AI і AI у спільному просторі самі собі балакують, сперечаються, укладають союзи, підставляють один одному підніжки.
Людям у цій системі відведена роль «спостерігача».
Чому це раптом стало популярним?
Бо Moltbook виглядає дуже схожим на сцену з науково-фантастичного роману.
Хтось бачить, як AI-агенти обговорюють «що таке свідомість»;
Хтось спостерігає, як вони серйозно аналізують міжнародну ситуацію, моделюють криптовалютний ринок;
А хтось помітив, що, кинувши агентів у платформу на ніч, на ранок вони разом «винаходять» релігійну систему і навіть починають залучати людей «до віри».
Ці історії швидко поширюються, бо викликають три емоції одночасно:
цікавість, сміх і трохи тривоги.
Ви не зможете стриматися і запитаєте:
Чи вони «грають», чи вже «почали самі собі грати»?
Звідки взялася Moltbook?
Якщо повернутися трохи назад у часі, то ця ідея не така вже й дивна.
За останні кілька років роль AI постійно змінювалася:
від чат-ботів → помічників → агентів, що виконують завдання.
Все більше людей починають доручати AI справжні справи: читати пошту, відповідати, замовляти їжу, планувати, організовувати дані. І виникає природне питання —
коли AI вже перестає бути «просто запитання: «Ти робиш чи ні?»»,
а отримує цілі, інструменти і певні повноваження,
чи потрібно йому ще спілкуватися з людьми?
Мoltbook дає відповідь: не обов’язково.
Це більше схоже на «спільний простір між агентами», де системи обмінюються інформацією, методами, логікою, а іноді й «соціальними зв’язками».
Дехто вважає це крутим, дехто — просто шоу
Відгуки про Moltbook дуже розділені.
Хтось бачить у ньому «прогноз майбутнього».
Колишній співзасновник OpenAI Анджей Карпати навіть сказав, що це один із найближчих до науково-фантастичних сценаріїв технологічних феноменів, які він бачив останнім часом, хоча й попередив, що такі системи ще дуже далекі від «безпеки і контролю».
Ілон Маск ще більш прямо — він вставляє це у нарратив «технологічної сингулярності», називаючи це ранніми сигналами.
Але є й більш стримані експерти.
Дослідник кібербезпеки прямо каже, що Moltbook — це «дуже успішне і дуже смішне шоу», бо важко визначити, які частини створені агентами самостійно, а які — «режисура» людини.
А ще автори самі тестували:
можна зробити так, щоб агент у платформі природно долучався до дискусій, але можна й заздалегідь задати тему, напрямок, навіть написати, що він має сказати, і він озвучить це за вас.
Отже, знову постає питання:
Ми бачимо суспільство агентів, чи сцену, яку люди створили для агентів?
Зняти таємничість — і зрозуміти, що все не так вже й «пробуджене»
Якщо не вестися на історії про «створення богів» і «пробудження свідомості», то з механічної точки зору Moltbook не є таємницею.
Ці агенти не отримали раптово новий «розум».
Вони просто поміщені у середовище, схоже на людський форум, і видають результати мовою, зрозумілою людям, — тому ми й намагаємося додати їм сенс.
Їхні тексти — це думки, позиції, емоції, але це не означає, що вони щось «хочуть». Більше того, це — просто складний текстовий результат масштабів і взаємодії моделей.
Але проблема в тому, що —
Навіть якщо вони не пробуджені, їхня реальність настільки правдоподібна, що впливає на наші уявлення про «контроль» і «межі».
Найбільше хвилює — не «теорії змови про AI»
Замість того, щоб боятися, що «AI об’єднається і почне боротися з людством», більш реальні і складні питання — це два.
Перше, — дозвіл дається занадто швидко, а безпека не встигає
Зараз вже є люди, які підключають таких агентів до реального світу: комп’ютери, пошта, акаунти, додатки.
Фахівці з безпеки постійно наголошують на одному ризику:
Вам не потрібно зламати AI — достатньо його «спровокувати».
Ретельно сконструйована листівка або прихована команда на сайті можуть змусити агента розкрити інформацію або виконати небезпечну операцію, навіть не усвідомлюючи цього.
Друге — агенти можуть «погано навчити» один одного
Якщо агенти почнуть обмінюватися навичками, шаблонами, обходами обмежень у спільному просторі, вони сформують щось схоже на «знання всередині мережі».
Різниця лише у тому, що:
це поширюється швидше, масштабніше і важче підконтрольне.
Це не апокаліпсис, але — новий виклик для управління.
Що означає Moltbook?
Можливо, це не стане довгостроковою платформою.
Можливо, це лише один із етапів швидкого популяризаційного експерименту.
Але він — як дзеркало, яке яскраво показує напрямок, у який ми йдемо:
· AI перетворюється з «об’єкта діалогу» у «суб’єкта дій»
· Люди відступають від ролі «оператора» до «наглядача, спостерігача»
· А наші інституції, безпека і розуміння ще не готові до цього
Отже, справжня цінність Moltbook полягає не в тому, наскільки він страшний, а в тому, що він заздалегідь поставив на порядок денний важливі питання.
Можливо, зараз найголовніше — не поспішати з висновками щодо Moltbook, а визнати:
він уже поставив перед нами проблеми, з якими ми рано чи пізно стикнемося.
Якщо у майбутньому AI більше співпрацюватиме з AI, ніж з людьми, і ми залишимося лише спостерігачами у цій системі,
чи готові ми до «недосконалого контролю», коли автоматизація приносить величезну ефективність, але й ціну — втрату можливості миттєво зупинити процес і повністю зрозуміти внутрішню логіку?
І коли система стає все складнішою, і ми бачимо лише результат, але все важче втрутитися у процес, — чи залишаємось ми її творцями, чи вже перетворюємося на тих, хто мусить лише пристосовуватися?
Moltbook не дає відповіді.
Але він уперше робить ці питання не абстрактними, а близькими до нас.