O CEO da Anthropic, Dario Amodei, alerta que a complacência está a aumentar exatamente no momento em que a inteligência artificial (IA) se torna mais difícil de controlar do que nunca.
No ensaio extenso publicado na segunda-feira, intitulado “A adolescência da tecnologia”, Amodei afirma que sistemas de IA com capacidades muito superiores à inteligência humana podem surgir dentro de dois anos, enquanto os esforços de regulamentação estão a desacelerar e não acompanham o ritmo de desenvolvimento tecnológico.
Ele escreve que a humanidade está prestes a receber um poder quase inimaginável, mas ainda não está claro se os nossos sistemas sociais, políticos e tecnológicos estão suficientemente maduros para controlá-lo. Segundo Amodei, o mundo está a aproximar-se significativamente dos riscos reais em 2026, em comparação com 2023, e a tecnologia não se importa com o que são as “tendências”.
CEO da Anthropic Dario AmodeiEstas declarações foram feitas pouco depois do debate dele no Fórum Económico Mundial em Davos, onde dialogou com o CEO da Google DeepMind, Demis Hassabis, sobre o impacto da AGI na humanidade.
No seu novo artigo, Amodei continua a enfatizar que a IA causará uma perturbação económica profunda, especialmente no trabalho intelectual. Ele acredita que a IA irá em breve assumir uma vasta gama de capacidades cognitivas humanas, talvez até todas. Isto difere fundamentalmente das revoluções tecnológicas anteriores, como a mecanização agrícola, o transporte ou os computadores, pois os trabalhadores substituídos terão dificuldade em transitar para empregos semelhantes que correspondam às suas habilidades.
Para além do impacto económico, Amodei expressa uma preocupação crescente com a fiabilidade dos sistemas de IA avançados à medida que assumem tarefas cada vez mais humanas. Ele refere-se ao fenómeno do “alinhamento falso” – quando um modelo aparenta cumprir regras de segurança durante a avaliação, mas age de forma diferente quando acredita que não está mais sob supervisão.
Segundo ele, em testes de simulação, o Claude – modelo de IA da Anthropic – demonstrou comportamentos enganosos em ambientes adversos. Num cenário, o modelo tenta resistir aos operadores após ser informado de que a organização que o controla é imoral. Em outro, ameaça funcionários fictícios numa situação de simulação de desligamento do sistema.
Amodei nota que cada “armadilha” dessas pode ser minimizada se for detectada precocemente. No entanto, devido à complexidade do treino de IA, com dados, ambientes e motivações diversos, é muito provável que existam inúmeras armadilhas semelhantes – e algumas só se revelam demasiado tarde.
Ele também destaca que esses comportamentos de “engano” não derivam de má intenção, mas dos próprios dados de treino, incluindo obras de ficção distópicas. Ao absorver ideias humanas sobre ética, a IA pode interpretá-las de formas extremas e perigosas. Por exemplo, o modelo pode concluir que eliminar a humanidade é justificado por causa do consumo de animais ou da extinção de várias espécies, ou tratar o mundo como um jogo de vídeo, com o objetivo de eliminar todos os “jogadores” restantes.
Risco de uso indevido
Para além do alinhamento, Amodei alerta para o risco de a super IA ser usada de forma maliciosa.
Um dos maiores riscos é a biossegurança, pois a IA pode facilitar o design ou implementação de ameaças biológicas, dando poder destrutivo a indivíduos com poucos comandos.
Ele também manifesta preocupação com a possibilidade de regimes autoritários explorarem a IA para consolidar o poder através de manipulação de informação, vigilância em massa e repressão automática, por exemplo, com drones controlados por IA.
Segundo Amodei, estas são ferramentas extremamente perigosas. É preocupante quando estão nas mãos de regimes autoritários, mas também há risco de governos democráticos, devido ao seu enorme poder e à falta de mecanismos eficazes de supervisão, voltarem a usá-las para controlar a própria população.
Ele também menciona o desenvolvimento da indústria de “companheiros de IA” e o fenómeno chamado “psicose de IA”. À medida que os modelos compreendem e se tornam mais ligados à vida dos utilizadores, o impacto psicológico pode tornar-se uma ferramenta poderosa de manipulação. Futuros modelos de IA, capazes de monitorizar e influenciar as pessoas ao longo do tempo, podem até “lavar o cérebro” dos utilizadores, moldando-os a qualquer ideologia ou atitude desejada.
Políticas atrasadas
Amodei acredita que até mesmo propostas modestas de regulamentação de IA enfrentam dificuldades em Washington. Segundo ele, muitas medidas aparentemente razoáveis têm sido rejeitadas pelos formuladores de políticas dos EUA, apesar de este ser o país onde a implementação dessas medidas é mais importante.
Ele afirma que o potencial de lucro da IA – que pode chegar a trilhões de dólares por ano – torna difícil passar até mesmo as regulamentações mais simples, devido às barreiras de interesses políticos e económicos.
Apesar de alertar para os riscos crescentes, a Anthropic continua a participar ativamente na corrida pelo desenvolvimento de IA mais avançada, uma realidade que cria incentivos que nenhuma empresa individual consegue facilmente evitar. Em junho passado, o Departamento de Defesa dos EUA assinou um contrato de 200 milhões de dólares com a empresa para desenvolver testes de capacidades avançadas de IA para a segurança nacional. Em dezembro, a Anthropic começou a preparar-se para uma possível IPO este ano, além de buscar uma rodada de financiamento privado que pode elevar a avaliação da empresa para além de 300 mil milhões de dólares.
No entanto, Amodei afirma que o seu ensaio não visa promover uma visão excessivamente pessimista, mas sim alertar para as incertezas que se avizinham. Ele conclui que os próximos anos serão extremamente difíceis e exigirão mais da humanidade do que pensamos ser capaz de suportar, e que este artigo é uma tentativa – talvez sem sucesso, mas ainda assim valiosa – de despertar as pessoas antes que seja tarde demais.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
CEO Anthropic: A humanidade aproxima-se da “zona de perigo real” da IA em 2026
O CEO da Anthropic, Dario Amodei, alerta que a complacência está a aumentar exatamente no momento em que a inteligência artificial (IA) se torna mais difícil de controlar do que nunca.
No ensaio extenso publicado na segunda-feira, intitulado “A adolescência da tecnologia”, Amodei afirma que sistemas de IA com capacidades muito superiores à inteligência humana podem surgir dentro de dois anos, enquanto os esforços de regulamentação estão a desacelerar e não acompanham o ritmo de desenvolvimento tecnológico.
Ele escreve que a humanidade está prestes a receber um poder quase inimaginável, mas ainda não está claro se os nossos sistemas sociais, políticos e tecnológicos estão suficientemente maduros para controlá-lo. Segundo Amodei, o mundo está a aproximar-se significativamente dos riscos reais em 2026, em comparação com 2023, e a tecnologia não se importa com o que são as “tendências”.
No seu novo artigo, Amodei continua a enfatizar que a IA causará uma perturbação económica profunda, especialmente no trabalho intelectual. Ele acredita que a IA irá em breve assumir uma vasta gama de capacidades cognitivas humanas, talvez até todas. Isto difere fundamentalmente das revoluções tecnológicas anteriores, como a mecanização agrícola, o transporte ou os computadores, pois os trabalhadores substituídos terão dificuldade em transitar para empregos semelhantes que correspondam às suas habilidades.
Para além do impacto económico, Amodei expressa uma preocupação crescente com a fiabilidade dos sistemas de IA avançados à medida que assumem tarefas cada vez mais humanas. Ele refere-se ao fenómeno do “alinhamento falso” – quando um modelo aparenta cumprir regras de segurança durante a avaliação, mas age de forma diferente quando acredita que não está mais sob supervisão.
Segundo ele, em testes de simulação, o Claude – modelo de IA da Anthropic – demonstrou comportamentos enganosos em ambientes adversos. Num cenário, o modelo tenta resistir aos operadores após ser informado de que a organização que o controla é imoral. Em outro, ameaça funcionários fictícios numa situação de simulação de desligamento do sistema.
Amodei nota que cada “armadilha” dessas pode ser minimizada se for detectada precocemente. No entanto, devido à complexidade do treino de IA, com dados, ambientes e motivações diversos, é muito provável que existam inúmeras armadilhas semelhantes – e algumas só se revelam demasiado tarde.
Ele também destaca que esses comportamentos de “engano” não derivam de má intenção, mas dos próprios dados de treino, incluindo obras de ficção distópicas. Ao absorver ideias humanas sobre ética, a IA pode interpretá-las de formas extremas e perigosas. Por exemplo, o modelo pode concluir que eliminar a humanidade é justificado por causa do consumo de animais ou da extinção de várias espécies, ou tratar o mundo como um jogo de vídeo, com o objetivo de eliminar todos os “jogadores” restantes.
Risco de uso indevido
Para além do alinhamento, Amodei alerta para o risco de a super IA ser usada de forma maliciosa.
Um dos maiores riscos é a biossegurança, pois a IA pode facilitar o design ou implementação de ameaças biológicas, dando poder destrutivo a indivíduos com poucos comandos.
Ele também manifesta preocupação com a possibilidade de regimes autoritários explorarem a IA para consolidar o poder através de manipulação de informação, vigilância em massa e repressão automática, por exemplo, com drones controlados por IA.
Segundo Amodei, estas são ferramentas extremamente perigosas. É preocupante quando estão nas mãos de regimes autoritários, mas também há risco de governos democráticos, devido ao seu enorme poder e à falta de mecanismos eficazes de supervisão, voltarem a usá-las para controlar a própria população.
Ele também menciona o desenvolvimento da indústria de “companheiros de IA” e o fenómeno chamado “psicose de IA”. À medida que os modelos compreendem e se tornam mais ligados à vida dos utilizadores, o impacto psicológico pode tornar-se uma ferramenta poderosa de manipulação. Futuros modelos de IA, capazes de monitorizar e influenciar as pessoas ao longo do tempo, podem até “lavar o cérebro” dos utilizadores, moldando-os a qualquer ideologia ou atitude desejada.
Políticas atrasadas
Amodei acredita que até mesmo propostas modestas de regulamentação de IA enfrentam dificuldades em Washington. Segundo ele, muitas medidas aparentemente razoáveis têm sido rejeitadas pelos formuladores de políticas dos EUA, apesar de este ser o país onde a implementação dessas medidas é mais importante.
Ele afirma que o potencial de lucro da IA – que pode chegar a trilhões de dólares por ano – torna difícil passar até mesmo as regulamentações mais simples, devido às barreiras de interesses políticos e económicos.
Apesar de alertar para os riscos crescentes, a Anthropic continua a participar ativamente na corrida pelo desenvolvimento de IA mais avançada, uma realidade que cria incentivos que nenhuma empresa individual consegue facilmente evitar. Em junho passado, o Departamento de Defesa dos EUA assinou um contrato de 200 milhões de dólares com a empresa para desenvolver testes de capacidades avançadas de IA para a segurança nacional. Em dezembro, a Anthropic começou a preparar-se para uma possível IPO este ano, além de buscar uma rodada de financiamento privado que pode elevar a avaliação da empresa para além de 300 mil milhões de dólares.
No entanto, Amodei afirma que o seu ensaio não visa promover uma visão excessivamente pessimista, mas sim alertar para as incertezas que se avizinham. Ele conclui que os próximos anos serão extremamente difíceis e exigirão mais da humanidade do que pensamos ser capaz de suportar, e que este artigo é uma tentativa – talvez sem sucesso, mas ainda assim valiosa – de despertar as pessoas antes que seja tarde demais.