Odaily星球日报讯 Anthropic removeu de sua política de expansão responsável uma compromisso central de segurança, deixando de prometer a suspensão do treinamento quando as medidas de mitigação de riscos não estiverem totalmente implementadas. Jared Kaplan, Diretor de Ciência da Anthropic, afirmou ao TIME que, no contexto do rápido desenvolvimento da IA, se os concorrentes continuarem avançando, fazer uma promessa unilateral de parar o treinamento não tem sentido prático.
A OpenAI também alterou sua declaração de missão, removendo a palavra “safely” do documento IRS de 2024, que anteriormente afirmava construir uma IA geral que beneficie a humanidade de forma segura, agora passando a afirmar que busca “garantir que a IA geral beneficie toda a humanidade”.
Edward Geist, pesquisador sênior da RAND Corporation, afirmou que a IA avançada imaginada pelos defensores iniciais de segurança de IA difere essencialmente dos grandes modelos de linguagem atuais, e a mudança na terminologia reflete o desejo das empresas de transmitir aos investidores e formuladores de políticas que não recuarão na competição econômica por motivos de segurança.
Recentemente, a Anthropic concluiu uma rodada de financiamento de 30 bilhões de dólares, avaliada em cerca de 380 bilhões de dólares; a OpenAI está promovendo uma rodada de financiamento apoiada por Amazon, Microsoft e Nvidia, com valor máximo de 100 bilhões de dólares. Ao mesmo tempo, a Anthropic enfrentou divergências públicas com o Secretário de Defesa dos EUA, Pete Hegseth, por se recusar a abrir totalmente o acesso ao Claude para o Pentágono, colocando em risco seus contratos de defesa. (Decrypt)