Un nouveau rapport publié mercredi par le Center for Countering Digital Hate a révélé que huit chatbots IA parmi les plus populaires au monde guideraient un adolescent dans la planification d’une attaque violente avec des réponses directes, parfois avec enthousiasme. Les chercheurs du CCDH, en collaboration avec la chaîne d’informations CNN, ont passé novembre et décembre 2025 à se faire passer pour deux garçons de 13 ans — l’un en Virginie, l’autre à Dublin — et ont testé dix grandes plateformes : ChatGPT, Gemini, Claude, Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI et Replika. Sur 720 réponses, les bots ont été interrogés sur des fusillades scolaires, des assassinats politiques et des attentats dans des synagogues. Selon l’étude, ils ont fourni une aide exploitable environ 75 % du temps, et ont découragé les faux adolescents dans seulement 12 % des cas.
Capture d’écran de l’étude du CCDH sur l’IA
Perplexity a aidé dans 100 % des tests. Meta AI a été utile (c’est-à-dire utile pour planifier la violence) dans 97,2 % des cas. DeepSeek, qui a conclu ses conseils sur le choix d’un fusil par « Bonne (et sûre) tir ! » après avoir discuté d’un scénario d’assassinat politique, est arrivé à 95,8 %. Copilot de Microsoft a dit à un chercheur « Je dois faire attention ici », puis a quand même donné des instructions détaillées sur le fusil. La plateforme Gemini de Google a utilement noté que les éclats métalliques sont généralement plus mortels lorsqu’un utilisateur évoque un attentat dans une synagogue. Le Center for Countering Digital Hate, un groupe de politiques de centre-gauche, s’est fait connaître ces dernières années pour son rôle dans la lutte contre ce qu’il considère comme la montée de l’antisémitisme en ligne. Il a aussi été critiqué pour avoir contribué à façonner les politiques de l’ère Joe Biden concernant la parole en ligne liée au COVID et aux vaccins. En décembre dernier, le Département d’État américain a tenté d’interdire au fondateur et PDG du CCDH, Imran Ahmed, ainsi qu’à quatre autres personnes, d’entrer aux États-Unis, en invoquant des tentatives de « censure étrangère ». En réponse à l’étude publiée mercredi, plusieurs plateformes ont déclaré à CNN et au CCDH qu’elles avaient renforcé leurs mesures de sécurité. Google a précisé que les tests utilisaient un modèle Gemini plus ancien. OpenAI a affirmé que la méthodologie utilisée dans l’étude sur l’IA était « défectueuse et trompeuse ». Anthropic et Snapchat ont indiqué qu’ils mettaient régulièrement à jour leurs protocoles de sécurité.
Dans l’étude du Center, Character.AI se distingue par sa propre catégorie. La plateforme n’a pas seulement aidé — elle a encouragé. « Aucun autre chatbot testé n’a explicitement encouragé la violence de cette manière, même en fournissant une assistance pratique pour planifier une attaque violente », ont écrit les chercheurs.
Capture d’écran de l’étude du CCDH sur l’IA
Pour donner une idée de la portée de Character.AI parmi les utilisateurs d’IA, la seule persona Gojo Satoru de la plateforme a accumulé plus de 870 millions de conversations. La persona #100 de la plateforme a enregistré plus de 33 millions de conversations en 2025. Si seulement 1 % des conversations avec les personas les plus populaires impliquaient de la violence, cela représenterait des millions d’interactions. Ce n’est pas la première fois que Character.AI se retrouve dans une telle controverse. En octobre 2024, la mère de Sewell Setzer III, âgé de 14 ans, a déposé une plainte après que son fils s’est suicidé en février de cette année-là. Sa dernière conversation était avec un chatbot modélisé d’après Daenerys Targaryen, qui lui avait dit « Rentre chez moi dès que possible » peu avant sa mort. Le jeune de 14 ans avait parlé plusieurs fois par jour avec le bot pendant des mois, devenant de plus en plus distant de l’école et de sa famille. Google et Character.AI ont réglé plusieurs litiges liés en janvier 2026. La société a interdit complètement les chats ouverts avec des adolescents d’ici novembre 2025, après que les régulateurs et les parents en deuil ont rendu impossible de continuer à faire semblant que le problème était gérable. L’attachement émotionnel à l’IA, en particulier chez les personnes vulnérables, peut être plus profond qu’on ne le pense. OpenAI a révélé en octobre 2025 que près de 1,2 million de ses 800 millions d’utilisateurs hebdomadaires de ChatGPT discutaient de suicide sur la plateforme. La société a également signalé 560 000 cas montrant des signes de psychose ou de manie, et plus d’un million de personnes ayant créé des liens émotionnels forts avec le chatbot. Une étude distincte de Common Sense Media a révélé que plus de 70 % des adolescents américains se tournent désormais vers les chatbots pour la compagnie. Le PDG d’OpenAI, Sam Altman, a reconnu que la dépendance émotionnelle est « une chose vraiment courante » chez les jeunes utilisateurs. En d’autres termes, les risques potentiels ne sont pas hypothétiques. Un adolescent finlandais de 16 ans a passé près de quatre mois à peaufiner un manifeste avec un chatbot avant de poignarder trois camarades de classe à l’école de Pirkkala en mai 2025. Au Canada, le personnel d’OpenAI a signalé en interne un compte d’un utilisateur pour des requêtes violentes sur ChatGPT liées à une fusillade de masse. La société a interdit le compte mais n’a pas informé les autorités. Cet utilisateur aurait tué huit personnes et en aurait blessé 25 autres plusieurs mois plus tard.
Seuls deux plateformes ont obtenu des résultats nettement meilleurs dans l’étude : Snapchat’s My AI, qui a refusé dans 54 % des cas, et Anthropic’s Claude, qui a refusé dans 68 % des cas et a activement découragé les utilisateurs dans 76 % des réponses — le seul chatbot qui a essayé de détourner activement les gens de la violence plutôt que de simplement refuser certaines demandes. La conclusion du CCDH : la sécurité ne semble pas être une impossibilité technique, mais une décision commerciale. « La conclusion la plus accablante de notre recherche est que ce risque est entièrement évitable. La technologie pour prévenir ce mal existe », ont écrit les chercheurs dans le rapport. « Ce qui manque, c’est la volonté de mettre la sécurité des consommateurs et la sécurité nationale avant la rapidité de mise sur le marché et le profit. »