Selon BlockBeats news du 15 février, selon le site AXIOS, un haut responsable gouvernemental a révélé que le Pentagone envisage de mettre fin à son partenariat avec Anthropic parce que la société d’IA insiste pour imposer certaines restrictions à l’utilisation de ses modèles par l’armée. Il est rapporté que le Pentagone exhorte quatre grands laboratoires d’intelligence artificielle à permettre à l’armée d’utiliser ses outils « à des fins légitimes », y compris dans les domaines les plus sensibles tels que la recherche et le développement d’armes, la collecte de renseignements et les opérations sur le champ de bataille.
La société Anthropic n’a pas encore accepté ces conditions, dont le Pentagone en a assez après des mois de négociations difficiles. Anthropic insiste sur le fait que deux zones doivent rester interdites : la surveillance de masse de la population américaine et les systèmes d’armes entièrement autonomes. Le haut responsable administratif a indiqué qu’il existait une grande ambiguïté quant à ce qui devait ou ne devait pas relever de telles catégories.
De plus, il n’est pas possible que le Pentagone négocie avec Anthropic pour chaque cas d’usage spécifique, ni que Claude bloque accidentellement certaines applications. « Tout est possible », a déclaré le responsable, y compris réduire temporairement le partenariat avec Anthropic ou mettre fin à la coopération complètement. « Mais si nous pensons que c’est la bonne chose à faire, alors nous devons trouver le bon remplaçant pour eux. » (Jin Shi)