Le 2 mars, selon le Wall Street Journal, quelques heures seulement après que le président américain Donald Trump a ordonné aux agences fédérales de cesser d’utiliser les produits d’intelligence artificielle d’Anthropic, l’armée américaine a continué à utiliser la plateforme Claude de la société lors de frappes aériennes à grande échelle contre l’Iran. Selon des personnes familières avec le sujet, le Commandement central américain utilisait Claude pour l’évaluation du renseignement, l’identification de cibles et la simulation de scénarios de combat lors des opérations, ce qui a rapidement suscité des discussions sur le rôle de l’intelligence artificielle dans la guerre moderne.
Auparavant, l’administration Trump et Anthropic étaient en désaccord sur la régulation des systèmes d’IA dans l’usage militaire. Le PDG de l’entreprise, Dario Amodei, a refusé de lever les restrictions de sécurité imposées à Claude sur la surveillance de masse et les armes automatisées, estimant que ces exigences violaient les principes de l’entreprise. Trump a ensuite publiquement critiqué l’entreprise sur Truth Social et a ordonné aux agences gouvernementales de « cesser immédiatement » d’utiliser ses produits. Le secrétaire à la Défense des États-Unis, Pete Hegseth, a ensuite classé Anthropic comme un « risque de chaîne d’approvisionnement pour la sécurité nationale » et a interdit aux sous-traitants du Pentagone de continuer à travailler avec lui.
Cependant, des initiés de l’industrie ont souligné qu’une fois que le modèle d’intelligence artificielle est profondément intégré au système de renseignement militaire, il devient difficile de mettre en œuvre des ajustements politiques immédiatement. Midhun Krishna M, cofondateur de TknOps.io, a déclaré que le déploiement des systèmes d’IA dans les réseaux de renseignement implique une rééducation, une recertification et plusieurs séries de tests, donc même si la suppression progressive est annoncée, le processus de remplacement pourrait durer des mois, voire plus longtemps.
Parallèlement, le paysage concurrentiel des entreprises d’IA évolue également. Le PDG d’OpenAI, Sam Altman, a annoncé un nouvel accord de coopération avec le Pentagone pour fournir un support technique aux réseaux militaires classifiés. Cependant, il a également averti que le fait de lister une entreprise américaine d’IA comme menace à la sécurité pourrait créer un précédent dangereux.
Il convient de noter que près de 500 employés d’OpenAI et de Google ont ensuite publié une lettre ouverte remettant en question la stratégie du Pentagone en matière de coopération en matière d’IA, craignant que le gouvernement n’intensifie la concurrence et la division entre les entreprises d’intelligence artificielle. Alors que l’IA devient une partie importante du système militaire moderne, la course aux armements américaine et sa controverse réglementaire continuent de s’intensifier.