Anthropic no levantará las medidas de seguridad de IA en medio de la disputa en curso con el Pentágono: CEO

Decrypt

En resumen

  • Dario Amodei dice que Anthropic no eliminará las prohibiciones sobre vigilancia masiva doméstica y armas completamente autónomas.
  • El Pentágono ha amenazado con cancelar contratos y tomar posibles acciones bajo la Ley de Producción de Defensa.
  • El enfrentamiento sigue a informes de que las fuerzas armadas de EE. UU. usaron a Claude para capturar al expresidente venezolano Nicolás Maduro.

El CEO de Anthropic, Dario Amodei, dijo el jueves que la compañía no eliminará las salvaguardas de su modelo de IA Claude, escalando una disputa con el Departamento de Defensa de EE. UU. sobre cómo puede usarse la tecnología en sistemas militares clasificados. La declaración se produce mientras el Departamento de Defensa revisa su relación con Anthropic y evalúa posibles consecuencias, incluyendo la cancelación del contrato de 200 millones de dólares de la compañía y la posible invocación de la Ley de Producción de Defensa. “No podemos, en buena conciencia, acceder a su solicitud”, escribió Amodei, refiriéndose a la demanda del Pentágono en enero de que los contratistas de IA permitan el uso de sus sistemas para “cualquier uso legal”. 

Aunque desde entonces el Pentágono ha requerido que los proveedores de IA adopten un lenguaje estándar de “cualquier uso legal” en futuros acuerdos, Anthropic seguía siendo la única empresa de IA de frontera que resistía entregar el control de su IA al ejército. El miércoles, Axios informó por primera vez que el Pentágono había emitido un ultimátum exigiendo un uso militar sin restricciones de Claude. La fecha límite sería este viernes. “Es prerrogativa del Departamento seleccionar a los contratistas más alineados con su visión”, continuó Amodei. “Pero dado el valor sustancial que la tecnología de Anthropic aporta a nuestras fuerzas armadas, esperamos que reconsideren.” En su declaración, Amodei enmarcó la postura de la compañía como alineada con los objetivos de seguridad nacional de EE. UU.

“Creo profundamente en la importancia existencial de usar la IA para defender a Estados Unidos y otras democracias, y para derrotar a nuestros adversarios autocráticos”, dijo. Agregó que Claude “se despliega ampliamente en el Departamento de Guerra y otras agencias de seguridad nacional para análisis de inteligencia, modelado y simulación, planificación operativa, operaciones cibernéticas y más.” Guerra contra la IA El conflicto se desarrolla en medio de preocupaciones más amplias sobre cómo se comportan los sistemas avanzados de IA en escenarios militares de alto riesgo. En un estudio reciente del King’s College London, GPT-5.2 de OpenAI, Claude Sonnet 4 de Anthropic y Gemini 3 Flash de Google desplegaron armas nucleares en el 95% de las crisis geopolíticas simuladas. Durante un discurso en la Starbase de SpaceX en Texas en enero, el Secretario de Defensa, Pete Hegseth, dijo que las fuerzas armadas de EE. UU. planean desplegar los modelos de IA más avanzados. Ese mismo mes, surgieron informes de que Claude fue utilizado durante una operación de EE. UU. para capturar al expresidente venezolano Nicolás Maduro. Amodei negó que Anthropic cuestionara alguna operación militar específica. “Anthropic entiende que el Departamento de Guerra, no las empresas privadas, toma las decisiones militares”, afirmó. “Nunca hemos objetado operaciones militares particulares ni intentado limitar el uso de nuestra tecnología de manera ad hoc.” A pesar de esto, Amodei dijo que usar estos sistemas para vigilancia masiva doméstica o armas autónomas es incompatible con los valores democráticos y presenta riesgos graves.

“Hoy en día, los sistemas de IA de frontera simplemente no son lo suficientemente confiables para impulsar armas completamente autónomas”, afirmó. “No proporcionaremos conscientemente un producto que ponga en riesgo a los combatientes y civiles estadounidenses.” También abordó la amenaza del Pentágono de designar a Anthropic como un “riesgo en la cadena de suministro” y de invocar la Ley de Producción de Defensa. “Estas dos amenazas son inherentemente contradictorias: una nos etiqueta como un riesgo de seguridad; la otra considera a Claude como esencial para la seguridad nacional”, dijo. Aunque Amodei ha afirmado que la compañía no cumplirá con la solicitud del Pentágono, al mismo tiempo, Anthropic ha revisado su Política de Escalamiento Responsable, eliminando la promesa de detener el entrenamiento de sistemas avanzados sin garantías de salvaguardas. Robert Weissman, copresidente de Public Citizen, dijo que la postura del Pentágono indica una presión más amplia sobre la industria tecnológica. “El Pentágono está intimidando públicamente a Anthropic, y la parte pública es intencional, porque quieren presionar a esta empresa en particular y enviar un mensaje a toda la tecnología grande y a todas las corporaciones de que estamos dispuestos a hacer y tomar lo que queramos y que no se interpongan en nuestro camino”, dijo Weissman a Decrypt. Weissman describió las salvaguardas de Anthropic como “modestas” y destinadas a prevenir “una vigilancia indebida del pueblo estadounidense o facilitar el desarrollo y despliegue de robots asesinos, armas habilitadas por IA que podrían lanzar ataques letales sin la aprobación humana.” “Esas son las salvaguardas más sensatas y modestas que se pueden imaginar en relación con esta poderosa tecnología.”

Respecto a la amenaza del Pentágono de designar a Anthropic como un “riesgo en la cadena de suministro”, Weissman la calificó como una penalización potencialmente aplastante por parte del gobierno, y argumentó que esto presionaría a otras empresas de IA a evitar imponer límites similares. “Las personas podrían usar Claude, pero ninguna de las empresas de IA, particularmente Anthropic, tiene modelos de negocio basados en el uso individual; buscan uso empresarial”, afirmó. “Esta es una penalización potencialmente aplastante por parte del gobierno.” Aunque el Pentágono aún no ha confirmado si procederá con su amenaza de cancelar el contrato o invocar la Ley de Producción de Defensa, Weissman dijo que el Pentágono está enviando una señal a las empresas de IA de que espera acceso sin restricciones a su tecnología una vez desplegada en sistemas gubernamentales. “El mensaje del Pentágono es: ‘No vamos a tolerar esto, y esperamos poder usar la tecnología como se inventó para cualquier propósito que queramos’”, afirmó Weissman. El Departamento de Defensa y Anthropic no respondieron de inmediato a las solicitudes de Decrypt.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios