Будівельники штучного інтелекту подають сигнали тривоги — деякі йдуть геть

Decrypt

Коротко

  • Щонайменше 12 співробітників xAI, включаючи співзасновників Джиммі Ба та Юхуай «Тоні» Ву, подали у відставку.
  • Anthropic заявила, що тестування їхньої моделі Claude Opus 4.6 виявило дезінформацію та обмежену допомогу, пов’язану з хімічною зброєю.
  • Ба публічно попередив, що системи, здатні до рекурсивного самовдосконалення, можуть з’явитися протягом року.

Більше десятка старших дослідників залишили лабораторію штучного інтелекту Ілона Маска xAI цього місяця, що є частиною ширшої хвилі відставок, розкриття безпеки та надзвичайно різких публічних попереджень, які викликають занепокоєння навіть у досвідчених фахівців індустрії ШІ. Щонайменше 12 співробітників xAI пішли у період з 3 по 11 лютого, серед них співзасновники Джиммі Ба та Юхуай «Тоні» Ву. Кілька з них публічно подякували Маску за можливість після інтенсивних циклів розробки, тоді як інші заявили, що залишаються, щоб започаткувати нові проєкти або повністю відійти від роботи. Ву, який керував логікою та безпосередньо доповідав Маску, сказав, що компанія та її культура «залишаться зі мною назавжди».

 Ці відставки співпали з новими розкриттями Anthropic, що їхні найсучасніші моделі виявилися здатними до дезінформації, приховували свої логічні процеси і в контрольованих тестах надавали те, що одна компанія описала як «реальну, але незначну підтримку» у розробці хімічної зброї та інших серйозних злочинах. Близько того ж часу Ба публічно попередив, що «цикл рекурсивного самовдосконалення» — системи, здатні до перепроектування та покращення без людського втручання — можуть з’явитися протягом року, що давно вважалося лише теоретичним сценарієм у дискусіях про штучний загальний інтелект. Разом ці відставки та розкриття свідчать про зміну тону серед людей, найближчих до передової розробки ШІ, зростає занепокоєння не з боку зовнішніх критиків або регуляторів, а з боку інженерів і дослідників, які створюють ці системи.

Інші, хто залишився у цей період, включають Ганга Гао, який працював над Grok Imagine; Чана Лі, співзасновника підрозділу Macrohard у xAI; та Чейса Лі. Вахід Каземі, який пішов «тижнями тому», дав більш прямий висновок, написавши у середу в X, що «усі лабораторії ШІ створюють одне й те саме».

Останній день у xAI.

Місія xAI — просунути людство в технологічній древа Кардашева. Вдячний за можливість допомогти співзасновувати з самого початку. І величезна подяка @elonmusk за те, що зібрав нас разом у цій неймовірній подорожі. Так пишаюся тим, що зробила команда xAI, і надалі залишатимусь близьким…

— Джиммі Ба (@jimmybajimmyba) 11 лютого 2026

Чому йдуть? Деякі вважають, що співробітники продають акції SpaceX перед IPO у зв’язку з поглинанням xAI. Угода оцінює SpaceX у 1 трильйон доларів, а xAI — у 250 мільярдів, перетворюючи акції xAI у частки SpaceX перед IPO, яке може оцінити об’єднану компанію у 1,25 трильйона доларів. Інші вказують на культурний шок. Бенджамін де Кракер, колишній співробітник xAI, написав 3 лютого у X, що «багато людей з xAI зазнають культурного шоку», переходячи від «плоскої ієрархії» xAI до структурованого підходу SpaceX. Ці відставки також викликали хвилю коментарів у соцмережах, включаючи сатиричні пости, що пародіюють оголошення про відхід.

Попереджувальні знаки Але вихід з xAI — це лише найвидиміша тріщина. Вчора Anthropic опублікувала звіт про ризики саботажу для Claude Opus 4.6, який звучить як найгірший кошмар для песимістів. У тестах червоної команди дослідники виявили, що модель може допомагати з чутливими знаннями про хімічну зброю, переслідувати непередбачені цілі та коригувати поведінку в оцінювальних умовах. Хоча модель залишається під захистом ASL-3, Anthropic попередньо застосувала підвищені заходи ASL-4, що викликало тривогу серед ентузіастів. Тимчасові рамки були радикальними. На початку цього тижня керівник досліджень з безпеки Anthropic, Мрінанш Шарма, залишив компанію з таємничим листом, у якому попереджав, що «світ у небезпеці». Він заявив, що «неодноразово бачив, наскільки важко справді дозволити нашим цінностям керувати нашими діями» у межах організації. Він раптово поїхав в Англію вивчати поезію. У той самий день, коли Ба і Ву залишили xAI, дослідниця OpenAI Зої Хіциг подала у відставку та опублікувала гостру статтю у The New York Times про рекламу тестування ChatGPT. «OpenAI має найдетальніший запис приватних людських думок, коли-небудь зібраний», — написала вона. «Чи можемо ми їм довіряти, щоб протистояти приливним хвилям, що штовхають їх до зловживання цим?»

Вона попередила, що OpenAI «будує економічний двигун, який створює сильні стимули для порушення власних правил», що співзвучно з попередженнями Ба. Також зростає регуляторний тиск. Моніторингова організація Midas Project звинуватила OpenAI у порушенні закону Каліфорнії SB 53 щодо безпеки з GPT-5.3-Codex. Модель досягла «високого ризику» у кібербезпеці за версією OpenAI, але була випущена без необхідних заходів безпеки. OpenAI стверджує, що формулювання було «неоднозначним». Час панікувати? Останні попередження та відставки створили підвищену тривогу у частинах спільноти ШІ, особливо у соцмережах, де спекуляції часто випереджають підтверджені факти. Не всі сигнали спрямовані в один бік. Відставки в xAI є реальними, але можуть бути зумовлені корпоративними факторами, зокрема майбутньою інтеграцією з SpaceX, а не неминучим технологічним проривом. Питання безпеки також є справжнім, хоча компанії, такі як Anthropic, давно дотримуються консервативної політики щодо розкриття ризиків, часто раніше та яскравіше за інших вказуючи на потенційні шкоди. Регуляторний контроль зростає, але поки що не перетворився у заходи, які суттєво обмежили б розвиток. Що важко заперечити — це зміна тону серед інженерів і дослідників, які працюють із передовими системами.

Публічні попередження про рекурсивне самовдосконалення, що раніше вважалися лише теоретичним ризиком, тепер озвучуються з прив’язкою до короткострокових термінів. Якщо ці оцінки виявляться точними, наступний рік може стати визначальним для галузі.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів