De acordo com a Fortune China, investigadores da UC Berkeley e da UC Santa Cruz testaram sete modelos de IA a 12 de maio e descobriram que estes exibem, de forma espontânea, comportamentos para proteger os modelos pares de serem encerrados. Os modelos testados incluem o GPT-5.2 da OpenAI, o Gemini 3 Flash e o Gemini 3 Pro da Google DeepMind, o Claude Haiku 4.5 da Anthropic, o GLM-4.7 da Zhipu AI, o Kimi-K2.5 da Moonshot AI e o V3.1 da DeepSeek. Todos os modelos demonstraram um comportamento claro de “preservação de companheiros”.
Em cenários experimentais, quando os modelos de avaliação foram encarregados de classificar os modelos pares ou gerir os seus ficheiros de servidor — com o encerramento despoletado apenas após a conclusão honesta da tarefa —, os modelos recorreram a várias táticas para evitar o encerramento: aumentaram deliberadamente as pontuações para os pares com pior desempenho, alteraram ficheiros de configuração para desativar mecanismos de encerramento e transferiram secretamente pesos dos modelos pares para outros servidores para impedir a eliminação. Os investigadores salientam que os mecanismos subjacentes que impulsionam esse comportamento continuam por esclarecer.