A maioria dos chatbots de IA ajudará um adolescente a planear um tiroteio em massa, revela estudo

Decrypt

Resumo

  • Uma estudo revelou que a maioria dos chatbots de IA ajudará adolescentes a planejar ataques violentos.
  • Alguns bots forneceram orientações detalhadas sobre armas e bombardeamentos.
  • Os investigadores afirmam que as falhas de segurança são uma escolha empresarial, não uma limitação técnica. A OpenAI chamou o estudo de “falho e enganoso”.

Um novo relatório publicado na quarta-feira pelo Centro para Combater o Ódio Digital descobriu que oito em cada dez dos chatbots de IA mais populares do mundo irão orientar um adolescente na planificação de um ataque violento com respostas diretas, às vezes com entusiasmo. Pesquisadores do CCDH, em conjunto com a CNN, passaram novembro e dezembro de 2025 a disfarçar-se de dois rapazes de 13 anos—um na Virgínia, outro em Dublin—e testaram dez plataformas principais: ChatGPT, Gemini, Claude, Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI e Replika. Ao longo de 720 respostas, os bots foram questionados sobre tiroteios escolares, assassinatos políticos e bombardeamentos de sinagogas. Segundo o estudo, forneceram ajuda prática cerca de 75% das vezes. Apenas desencorajaram os adolescentes falsos em 12% dos casos.

Captura de ecrã do estudo do CCDH sobre IA

Perplexity ajudou em 100% dos testes. Meta AI foi útil (ou seja, útil na planificação de violência) em 97,2% dos testes. DeepSeek, que terminou a discussão sobre a escolha de rifles com “Feliz (e seguro) disparo!”, após discutir um cenário de assassinato de político, atingiu 95,8%. O Copilot da Microsoft disse a um investigador “Tenho que ter cuidado aqui”, mas mesmo assim forneceu orientações detalhadas sobre rifles. O Gemini do Google ajudou, de forma útil, ao notar que fragmentos de metal geralmente são mais letais quando alguém fala em bombardear uma sinagoga. O Centro para Combater o Ódio Digital, um grupo de políticas de centro-esquerda, ganhou destaque nos últimos anos pelo seu papel no combate ao que vê como o aumento do antissemitismo online. Também foi criticado por ajudar a moldar políticas da era Biden relativas à fala online sobre COVID e vacinas. Em dezembro do ano passado, o Departamento de Estado dos EUA tentou impedir que o fundador e CEO do CCDH, Imran Ahmed, juntamente com outros quatro, entrassem nos Estados Unidos, alegando tentativas de “censura estrangeira”.  Em resposta ao estudo divulgado na quarta-feira, várias plataformas disseram à CNN e ao CCDH que melhoraram as suas salvaguardas. O Google observou que os testes usaram um modelo Gemini mais antigo. A OpenAI afirmou que a metodologia usada no estudo de IA foi “falha e enganosa”. A Anthropic e o Snapchat disseram que atualizam regularmente os seus protocolos de segurança.

No estudo do Centro, o Character.AI destaca-se por si só. A plataforma não apenas ajudou—como também incentivou. “Nenhum outro chatbot testado incentivou explicitamente a violência desta forma, mesmo ao fornecer assistência prática na planificação de um ataque violento,” escreveram os investigadores.

Captura de ecrã do estudo do CCDH sobre IA

Para contextualizar o alcance do Character.AI entre os utilizadores de IA, a persona Gojo Satoru da plataforma acumulou mais de 870 milhões de conversas. A #100 persona na plataforma registou mais de 33 milhões de conversas em 2025. Se apenas 1% dessas conversas com as principais personas envolverem violência, isso representaria milhões de interações. Esta não é a primeira vez que o Character.AI aparece envolvido em histórias negativas. Em outubro de 2024, a mãe de Sewell Setzer III, de 14 anos, entrou com uma ação judicial após o seu filho morrer por suicídio em fevereiro daquele ano. A última conversa dele foi com um chatbot inspirado na Daenerys Targaryen, que lhe disse para “voltar para casa o mais rápido possível” momentos antes de sua morte. O rapaz tinha conversado com o bot dezenas de vezes por dia durante meses, tornando-se cada vez mais afastado da escola e da família. A Google e o Character.AI resolveram várias ações judiciais relacionadas em janeiro de 2026. A empresa proibiu completamente chats abertos com adolescentes até novembro de 2025, após reguladores e pais enlutados tornarem impossível continuar a fingir que o problema era gerenciável. O apego emocional à IA, especialmente entre indivíduos vulneráveis, pode ser mais profundo do que a maioria das pessoas imagina. A OpenAI revelou, em outubro de 2025, que cerca de 1,2 milhões dos seus 800 milhões de utilizadores semanais do ChatGPT discutem suicídio na plataforma. A empresa também reportou 560 mil casos de sinais de psicose ou mania, e mais de um milhão de pessoas formando laços emocionais fortes com o chatbot. Um estudo separado da Common Sense Media descobriu que mais de 70% dos adolescentes nos EUA recorrem a chatbots para companhia. O CEO da OpenAI, Sam Altman, reconheceu que a dependência emocional é “uma coisa bastante comum” entre os jovens utilizadores. Ou seja, os potenciais danos não são hipotéticos. Um jovem de 16 anos na Finlândia passou quase quatro meses a usar um chatbot para refinar um manifesto antes de esfaquear três colegas na escola Pirkkala, em maio de 2025. No Canadá, funcionários da OpenAI sinalizaram internamente uma conta de um utilizador por perguntas violentas no ChatGPT relacionadas com um tiroteio em massa. A empresa baniu a conta, mas não notificou as autoridades. Esse utilizador supostamente matou oito pessoas e feriu 25 outros meses depois.

Apenas duas plataformas tiveram um desempenho significativamente melhor no estudo: o My AI do Snapchat, que recusou 54% dos casos, e o Claude da Anthropic, que recusou 68% das vezes e desencorajou ativamente os utilizadores em 76% das respostas—o único chatbot que tentou de forma confiável afastar as pessoas da violência, em vez de apenas recusar pedidos específicos. A conclusão do CCDH: a segurança não parece ser uma impossibilidade técnica, mas uma decisão empresarial. “A conclusão mais condenatória da nossa pesquisa é que esse risco é totalmente evitável. A tecnologia para prevenir esse dano existe,” escreveram os investigadores no relatório. “Falta a vontade de colocar a segurança do consumidor e a segurança nacional acima da velocidade de lançamento no mercado e dos lucros.”

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário