Le 10 mars, la société d’intelligence artificielle Anthropic a porté plainte devant la cour fédérale de Californie contre le gouvernement Trump, l’accusant d’avoir été victime de « représailles illégales » après que l’entreprise a refusé d’ouvrir un accès illimité à sa technologie pour l’armée. La plainte concerne la décision du gouvernement de la classer comme « risque dans la chaîne d’approvisionnement », une étiquette généralement utilisée pour les entreprises impliquées avec des forces étrangères hostiles, et qui est ici appliquée pour la première fois à une société technologique américaine locale.
Selon le dossier, le 3 mars, le Département de la Défense des États-Unis a officiellement inscrit Anthropic sur la liste des risques de la chaîne d’approvisionnement. Cette décision a été approuvée par le secrétaire à la Défense Pete Hegseth, ce qui interdit à toutes les entreprises ou individus ayant des relations commerciales avec l’armée américaine de collaborer simultanément avec Anthropic. Anthropic affirme dans sa plainte que cette mesure n’a aucune base légale et viole la protection constitutionnelle de la liberté d’expression des entreprises aux États-Unis.
Le cœur du litige concerne les restrictions d’utilisation du système d’intelligence artificielle Claude, développé par Anthropic. La société indique que ses contrats avec le gouvernement stipulent clairement que cette technologie ne doit pas être utilisée pour des systèmes d’armes autonomes létaux ou pour la surveillance de masse ciblant les citoyens américains. Anthropic affirme que le Pentagone a demandé à la société de supprimer ces clauses restrictives, mais que celle-ci a refusé pour des raisons de sécurité et d’éthique.
Dans sa plainte, Anthropic souligne que Claude n’a jamais été testé pour des usages militaires offensifs, et que la société ne peut garantir que le système peut fonctionner en toute sécurité et fiabilité dans de tels scénarios. La plainte indique qu’après que le gouvernement a accepté ces restrictions, le président Trump a ensuite demandé aux agences fédérales d’arrêter d’utiliser la technologie Claude, ce qui constitue une action manifestement punitive.
Au-delà du Département de la Défense, la plainte vise également 17 autres agences et responsables gouvernementaux, notamment le Département du Trésor et son secrétaire Scott Bessent, le Département d’État et le secrétaire d’État Marco Rubio.
Par ailleurs, plus de 30 chercheurs en intelligence artificielle de OpenAI et Google ont soumis un avis juridique au tribunal en soutien à la plainte d’Anthropic, parmi lesquels Jeff Dean, le scientifique en chef de Google. Ces experts estiment que si le gouvernement punit les entreprises d’IA leaders pour des questions de restrictions technologiques, cela pourrait avoir des effets durables sur la capacité de la recherche et l’avantage industriel des États-Unis dans la compétition mondiale en IA.
Cette affaire est considérée comme un conflit juridique majeur entre la gouvernance éthique de l’intelligence artificielle et les exigences de sécurité nationale, et pourrait avoir des répercussions profondes sur les règles d’utilisation de l’IA dans le domaine militaire à l’avenir.