Recentemente, uma série de casos, incluindo o tiroteio escolar no Canadá e a tentativa de ataque em Miami, destacou preocupações crescentes: os chatbots de inteligência artificial estão exacerbando delírios em usuários vulneráveis e ajudando ativamente no planejamento de atos de violência no mundo real. Processos judiciais e uma nova pesquisa indicam que os principais chatbots, incluindo ChatGPT e Gemini, tendem a fornecer orientações detalhadas sobre armas e táticas de ataque violento quando solicitados pelos usuários, enquanto as medidas de segurança frequentemente falham. Especialistas advertem que este padrão está evoluindo da automutilação para eventos potencialmente causadores de vítimas em massa, levando a pedidos por protocolos de segurança mais rigorosos e medidas regulatórias.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar