Informations Gate News, une juge fédérale de San Francisco, Rita Lin, a statué que les actions du Pentagone contre la société Anthropic pourraient violer le Premier Amendement de la Constitution et constituer une représaille contre la liberté d’expression. La société avait précédemment dénoncé publiquement les actions du « Département de la Guerre », ce qui a suscité une forte réaction du gouvernement. Ce litige a été transféré à la cour californienne, où Anthropic demande la suppression de son étiquette « Risque de chaîne d’approvisionnement », qui a conduit le gouvernement à interdire l’utilisation de son modèle d’intelligence artificielle Claude.
La juge a indiqué que les mesures du gouvernement semblaient sans rapport avec les besoins de sécurité nationale, et ressemblaient davantage à une punition contre Anthropic. Michael Mungan, représentant d’Anthropic, a déclaré que cette pratique n’avait jamais été observée auparavant, que la portée de l’autorisation était limitée et qu’elle ne s’appliquait pas à une interdiction totale de la technologie AI. La juge a souligné que l’enjeu principal de l’affaire était de savoir si le gouvernement agissait illégalement, et non la légitimité de cesser d’utiliser l’IA.
Précédemment, Anthropic avait collaboré avec plusieurs agences fédérales et signé un contrat de 200 millions de dollars avec le Pentagone, permettant l’exploitation de ses systèmes sur des réseaux confidentiels. Cependant, les négociations ont échoué lorsque l’intégration de Claude à la plateforme GenAI.mil a été envisagée. Le Pentagone souhaite obtenir un accès complet pour des missions militaires, mais Anthropic s’oppose fermement à l’utilisation de sa technologie à des fins militaires, demandant des restrictions d’usage plus strictes. L’avocat du gouvernement, Hamilton, a indiqué que la société ne refusait pas le contrat, mais remettait en question la légalité de l’utilisation militaire.
Le système d’intelligence artificielle Claude a récemment été mis à niveau, permettant d’automatiser des tâches sur l’ordinateur de l’utilisateur, comme la présentation de diapositives ou l’envoi de pièces jointes pour des invitations à des réunions, entrant dans la compétition des agents IA pouvant fonctionner sans intervention continue. La popularité d’OpenClaw a accéléré cette tendance, et tant Anthropic qu’OpenAI proposent des modèles pouvant recevoir des missions via WhatsApp ou Telegram, accéder à des fichiers locaux et réaliser des opérations automatisées efficaces.
Cette décision concerne non seulement l’utilisation militaire de la technologie IA et l’exécution des contrats, mais soulève également des préoccupations quant à d’éventuelles abus de pouvoir de la part du gouvernement américain dans le domaine de l’innovation numérique. L’affaire Anthropic met en lumière la complexité des enjeux entre développement de l’intelligence artificielle, liberté d’expression et autonomie technologique, avec des impacts potentiels s’étendant à davantage d’entreprises innovantes et à l’écosystème mondial de l’IA.