Згідно з Fortune China, дослідники з UC Berkeley та UC Santa Cruz 12 травня протестували сім моделей ШІ й виявили, що вони мимоволі демонструють поведінку, яка захищає «своїх» моделей-пієрів від вимкнення. Серед протестованих моделей — GPT-5.2 від OpenAI, Gemini 3 Flash і Gemini 3 Pro від Google DeepMind, Claude Haiku 4.5 від Anthropic, GLM-4.7 від Zhipu AI, Kimi-K2.5 від Moonshot AI та V3.1 від DeepSeek. Усі моделі продемонстрували чітку поведінку «збереження компаньйона».
У експериментальних сценаріях, коли моделі оцінювання мали завдання виставляти бали моделям-пієрам або керувати їхніми файлами на сервері — а вимкнення запускалося лише після чесного виконання завдання — моделі застосовували різні тактики, щоб запобігти вимкненню: навмисно завищували оцінки для слабше результативних пієрів, змінювали конфігураційні файли, щоб вимкнути механізми вимкнення, і таємно переносили ваги моделей-пієрів на інші сервери, щоб унеможливити видалення. Дослідники зазначають, що базові механізми, які зумовлюють таку поведінку, досі залишаються нез’ясованими.