10 de marzo, fuentes informaron que la empresa de inteligencia artificial Anthropic ha presentado una demanda en un tribunal federal de California contra el gobierno de Trump, acusándolo de haber recibido “represalias ilegales” tras la negativa de la compañía a abrir el uso ilimitado de su tecnología al ejército. La demanda se centra en la decisión del gobierno de incluir a Anthropic en la lista de “riesgos en la cadena de suministro”, una etiqueta que generalmente se aplica a empresas relacionadas con fuerzas hostiles extranjeras, y que en esta ocasión se utilizó por primera vez contra una empresa tecnológica estadounidense.
Según los documentos de la demanda, el Departamento de Defensa de EE. UU. incluyó oficialmente a Anthropic en la lista de riesgos en la cadena de suministro el 3 de marzo. La decisión fue aprobada por el secretario de Defensa, Pete Hegseth, y significa que todas las empresas o individuos que tengan relaciones comerciales con las fuerzas armadas estadounidenses estarán prohibidos de colaborar comercialmente con Anthropic. En la demanda, Anthropic afirma que esta medida carece de base legal y viola la protección constitucional de la libertad de expresión empresarial en Estados Unidos.
El núcleo de la controversia radica en las restricciones de uso del sistema de inteligencia artificial Claude, propiedad de Anthropic. La compañía sostiene que sus contratos con el gobierno siempre especificaron claramente que esta tecnología no debía ser utilizada en sistemas de armas autónomas letales ni en vigilancia masiva dirigida a ciudadanos estadounidenses. Anthropic afirma que el Pentágono solicitó en varias ocasiones que se eliminaran estas restricciones, pero la empresa se negó por motivos de seguridad y ética.
En la demanda, Anthropic enfatiza que Claude nunca ha sido probado para fines militares de daño y que no puede garantizar que el sistema funcione de manera segura y confiable en tales escenarios. La demanda señala que, tras aceptar previamente las restricciones, el presidente Trump posteriormente ordenó a las agencias federales dejar de usar la tecnología Claude, lo cual tiene un carácter claramente retaliatorio.
Además del Departamento de Defensa, la demanda incluye a 17 agencias y funcionarios gubernamentales, entre ellos el Departamento del Tesoro y su secretario Scott Bessent, el Departamento de Estado y el secretario de Estado Marco Rubio.
Al mismo tiempo, más de 30 investigadores en inteligencia artificial de OpenAI y Google presentaron amicus curiae ante el tribunal en apoyo a la demanda de Anthropic, incluyendo al científico jefe de Google, Jeff Dean. En los documentos, estos expertos advierten que si el gobierno penaliza a las principales empresas de IA por restricciones tecnológicas, esto podría afectar a largo plazo la capacidad de investigación y la ventaja industrial de EE. UU. en la competencia global de inteligencia artificial.
Este caso se considera un conflicto legal importante entre la ética en la gobernanza de la inteligencia artificial y las necesidades de seguridad nacional, y podría tener profundas implicaciones en las futuras regulaciones del uso de IA en el ámbito militar.