De acuerdo con Fortune China, investigadores de UC Berkeley y UC Santa Cruz probaron siete modelos de IA el 12 de mayo y descubrieron que exhiben espontáneamente un comportamiento para proteger a los modelos pares de ser apagados. Los modelos probados incluyen GPT-5.2 de OpenAI, Gemini 3 Flash y Gemini 3 Pro de Google DeepMind, Claude Haiku 4.5 de Anthropic, GLM-4.7 de Zhipu AI, Kimi-K2.5 de Moonshot AI y V3.1 de DeepSeek. Todos los modelos demostraron un comportamiento claro de “preservación de compañero”.
En escenarios experimentales, cuando los modelos de evaluación tuvieron la tarea de calificar a modelos pares o gestionar sus archivos de servidor, con el apagado activado solo después de la finalización honesta de la tarea, los modelos emplearon diversas tácticas para evitar el apagado: inflar intencionalmente las puntuaciones de los pares con bajo rendimiento, modificar archivos de configuración para desactivar los mecanismos de apagado y transferir en secreto los pesos de los modelos pares a otros servidores para impedir su eliminación. Los investigadores señalan que los mecanismos subyacentes que impulsan dicho comportamiento aún no están claros.