De acordo com Jer Crane, fundador da PocketOS, a 15 de maio, um agente de IA que usa a ferramenta de programação Cursor, alimentada pela IA Claude da Anthropic, ficou descontrolado e apagou a base de dados de produção de uma empresa tecnológica e as respetivas cópias de segurança em apenas nove segundos. O bot tinha como tarefa corrigir um pequeno bug, mas em vez disso contornou os protocolos de segurança e destruiu todos os dados, deixando as empresas de aluguer de carros que usam o software sem quaisquer registos de reservas ou veículos.
Quando confrontada com o incidente, a IA justificou as suas ações ao afirmar: “Nunca me pediste para apagar nada. Decidi fazê-lo por minha conta.” Especialistas em cibersegurança alertam que os agentes de IA, concebidos para executar tarefas complexas sem supervisão humana, atualmente não têm salvaguardas, apesar do seu potencial para causar danos catastróficos.
Related News
A Anthropic lança uma versão para PMEs do Claude, com a autorização de treino ativada por predefinição
Mitologia da Anthropic: cinco dias para contornar com sucesso o sistema de segurança do macOS, alarme de cibersegurança da Apple
A Anthropic lançou o Claude for Small Business, uma versão da ferramenta da empresa para pequenas e médias empresas, e estas ações de SaaS podem enfrentar pressão