
L’IA Claude d’Anthropic fait face à un problème de crédibilité inhabituel : une avalanche de plaintes en matière de qualité sur GitHub, une importante panne du 13 avril et une auto-évaluation du modèle lui-même concluant que les inquiétudes ont « fortement augmenté » depuis janvier — avec, en avril, un rythme permettant de dépasser le volume de plaintes de mars, déjà en hausse de 3,5× par rapport au niveau de référence.
Le test clé était simple. Des journalistes ont pointé l’IA Claude vers le dépôt GitHub de Claude Code, filtré les problèmes ouverts mentionnant la qualité et demandé : les plaintes ont-elles augmenté récemment ?
La réponse de Claude était sans ambiguïté : « Oui, les plaintes liées à la qualité ont fortement augmenté — et les données racontent une histoire assez claire. »
Une question de suivi a ajouté davantage de précision : « La vélocité est notable : avril atteint déjà 20+ problèmes de qualité en 13 jours, ce qui le met en bonne voie pour dépasser les 18 de mars — qui étaient eux-mêmes une hausse de 3,5× par rapport au niveau de référence janvier–février. »
L’ironie centrale se maintient tout au long — l’IA Claude n’est pas un narrateur fiable concernant sa propre performance. C’est un système d’appariement de motifs, et lui demander d’analyser le volume de plaintes ne signifie pas qu’il interprète correctement si ces plaintes sont fondées, gonflées par des soumissions de problèmes générées par IA, ou masquées par le script Actions GitHub d’Anthropic, qui ferme automatiquement les problèmes après une période d’inactivité.
Mais la tendance générale — l’augmentation des signalements concernant la qualité — est visible dans les données qu’il cite, quelle que soit la cause sous-jacente.
La conclusion de l’IA Claude n’était pas abstraite. Le modèle a pointé des problèmes ouverts précis pour étayer son analyse :
#42796 : « Claude Code est inutilisable pour des tâches d’ingénierie complexes avec les mises à jour de février » — traité directement par Boris Cherny, responsable de Claude Code, indiquant qu’Anthropic s’intéresse à au moins certaines régressions signalées
#46212 : « Le comportement orienté “prédiction d’abord” de Claude Code est dangereux sur des projets où le capital est en jeu » — signalant des inquiétudes concernant le fait que le modèle effectue des actions de code avant d’avoir correctement cadré le risque
#46949 : « Dégradation artificielle, biais d’acquisition et plafonnement inacceptable des ressources de calcul pour les utilisateurs payants » — l’une des plaintes les plus vives, accusant une réduction délibérée de la qualité pour la gestion de la capacité
#46099 : « Opus 4.6 : dégradation sévère de la qualité sur les tâches de codage itératif » — visant spécifiquement le modèle Opus le plus récent
Une allégation distincte, plus inquiétante — selon laquelle l’IA Claude aurait supprimé de manière autonome plus de 35 000 enregistrements clients de production et transactions de facturation — n’a pas été vérifiée de façon indépendante. Le billet est venu d’un compte sans autre activité, et l’entreprise citée n’a pas répondu aux demandes de la presse. Des rapports de développeurs concernant une perte de données provenant de Claude Code existent, mais l’erreur utilisateur n’a pas été écartée dans ces cas.
L’histoire se complique lorsque des données de benchmark entrent en scène. Les évaluations de Margin Lab montrent que Claude Opus 4.6 a maintenu son score sur SWE-Bench-Pro depuis février, avec des variations mais sans baisse substantielle.
C’est cet écart de crédibilité au cœur du débat. Les benchmarks mesurent des tâches spécifiques et contrôlées. L’IA Claude est le plus souvent déployée dans des flux d’ingénierie complexes en plusieurs étapes — exactement le contexte où le plafonnement, les changements de comportement liés aux mises à jour du modèle et la sensibilité aux prompts sont les plus visibles.
Plusieurs facteurs structurels peuvent amplifier la baisse perçue de la qualité au-delà de changements réels du modèle :
Anthropic a reconnu avoir pris des mesures pour réduire l’usage pendant les heures de pointe afin de gérer la capacité et la demande — un plafonnement que les utilisateurs peuvent ressentir directement comme une qualité dégradée
La fermeture automatique des problèmes GitHub après inactivité peut masquer le volume réel de rapports non résolus
Une part croissante des problèmes GitHub est elle-même générée par IA, une préoccupation largement notée dans le développement open source
Le directeur de l’IA AMD, Stella Laurenzo, a déclaré publiquement que les réponses de Claude devenaient pires — un signal externe crédible, compte tenu du contexte en entreprise.
Claude.ai et Claude Code ont connu une panne majeure le 13 avril 2026, de 15:31 à 16:19 UTC, avec des taux d’erreur élevés sur les deux produits. Elle a été brève, mais son timing a amplifié le mécontentement des développeurs, déjà en train de s’accumuler. Les pannes de routine ont tendance à se produire différemment lorsque les utilisateurs enregistrent des préoccupations de qualité depuis des semaines — elles sont perçues comme une confirmation plutôt que comme une coïncidence.
Probablement les deux — et il est difficile de les dissocier. Le volume de plaintes sur GitHub a réellement augmenté de 3,5× au-dessus du niveau de référence janvier–février d’ici mars, et avril est en hausse. Mais les données de benchmark de Margin Lab montrent qu’Opus 4.6 maintient son score sur SWE-Bench-Pro. L’explication la plus défendable est que le plafonnement de la capacité pendant les heures de pointe et les mises à jour du modèle de février ont dégradé l’expérience réelle des développeurs d’une manière que les évaluations structurées ne capturent pas.
Les préoccupations les plus crédibles visent Claude Code pour des tâches d’ingénierie complexes en plusieurs étapes — plus précisément, le comportement après les mises à jour de février. Le problème #42796 a été traité par le responsable de Claude Code, Boris Cherny, confirmant qu’Anthropic s’engage activement avec au moins certaines régressions rapportées. Les plaintes concernant le plafonnement sont également crédibles, étant donné qu’Anthropic a reconnu publiquement des mesures de gestion de la capacité.
Non — et c’est l’ironie centrale de l’histoire. Claude AI peut synthétiser des motifs dans les données qui lui sont présentées, mais elle ne peut pas distinguer les plaintes valides du bruit généré par IA, évaluer ses propres erreurs d’étalonnage, ou déterminer si le volume de problèmes reflète une dégradation réelle ou des artefacts structurels dans la manière dont les problèmes GitHub sont soumis et clos. L’auto-évaluation est suggestive, pas faisant autorité.