
El director del Consejo Nacional de Economía (NEC) de la Casa Blanca, Kevin Hassett, dijo en una entrevista con Fox Business el 7 de mayo que la administración de Trump está analizando exigir mediante una orden ejecutiva que los modelos de IA pasen una revisión de seguridad del gobierno antes de su publicación pública, y lo comparó con el proceso de aprobación previa de la FDA para medicamentos. Pero, según informó Politico el 8 de mayo, funcionarios superiores de la Casa Blanca afirmaron después que esos comentarios fueron «citados fuera de contexto».
El 4 de mayo de 2026, The New York Times informó que la Casa Blanca estaba debatiendo crear un mecanismo de revisión previa a la publicación de modelos de IA, momento en el que lo calificaron como «en consideración». El 7 de mayo de 2026, Kevin Hassett, en una entrevista con Fox Business, dijo públicamente: «Estamos estudiando si podemos, mediante una orden ejecutiva, exigir que una IA que podría generar vulnerabilidades en el futuro se ponga en uso solo después de demostrar que es segura, como con los medicamentos de la FDA».
A altas horas de la noche del 7 de mayo de 2026, la jefa de gabinete de la Casa Blanca, Susie Wiles, publicó en la plataforma X que el gobierno «no se encarga de elegir ganadores y perdedores», y afirmó que la implementación de despliegues seguros de tecnologías potentes debería ser impulsada por «innovadores destacados de Estados Unidos, no por burocracias». Según el registro de su cuenta oficial, la publicación anterior era el cuarto contenido emitido desde la creación de la cuenta de Wiles.
Según Politico, citando a tres personas con conocimiento del tema bajo condición de anonimato, la Casa Blanca está debatiendo permitir que las agencias de inteligencia realicen una evaluación preliminar antes del lanzamiento público de modelos de IA. Uno de los funcionarios del gobierno de Estados Unidos dijo en el reporte que uno de los objetivos de esta medida es «asegurar que el sector de inteligencia estudie y use esas herramientas antes de que rivales como Rusia y China comprendan las nuevas capacidades».
El Centro de Normas e Innovación de IA (CAISI), dependiente del Departamento de Comercio, anunció esta semana que ya ha firmado acuerdos de evaluación de seguridad de IA con Google DeepMind, Microsoft y xAI, ampliando el alcance a OpenAI y Anthropic, que ya estaban incluidas con anterioridad. El marco de evaluaciones voluntarias de CAISI está en vigor desde 2024.
El subsecretario de Defensa, Emil Michael, en una conferencia sobre IA en Washington el 8 de mayo de 2026, expresó públicamente su apoyo a la preevaluación gubernamental antes del lanzamiento de modelos de IA, y en su intervención citó el sistema Mythos de Anthropic como caso de referencia, diciendo que esos modelos «tarde o temprano aparecerán» y que el gobierno debe establecer mecanismos de respuesta.
De acuerdo con lo informado por Politico, el secretario de Defensa, Pete Hegseth, incluyó a Anthropic en una lista de riesgos en marzo de 2026 alegando riesgos de cadena de suministro, y prohibió que sus modelos se utilicen en contratos del Departamento de Defensa. Posteriormente, Trump pidió por separado que las agencias federales dejaran de usar productos de Anthropic en un plazo de seis meses. Al mismo tiempo, el mes pasado Anthropic reveló que su sistema de IA Mythos tiene capacidades potentes para descubrir vulnerabilidades de software que superan el umbral de seguridad para una publicación pública; después, varias agencias federales presentaron solicitudes para integrarlo. El 8 de mayo de 2026, OpenAI anunció que realizará una vista previa limitada de GPT-5.5-Cyber, una nueva herramienta para detectar y reparar vulnerabilidades de la red.
Daniel Castro, presidente del Information Technology and Innovation Foundation (ITIF), dijo en el reporte de Politico: «Si se puede negar la aprobación antes de salir al mercado, eso es un problema enorme para cualquier empresa. Si un competidor obtiene la aprobación y otro no, la diferencia de semanas o meses en el acceso al mercado tendrá un impacto enorme». Los patrocinadores de ITIF incluyen Anthropic, Microsoft y Meta.
En el mismo reporte, un alto funcionario de la Casa Blanca dijo: «Sí, hay uno o dos que están muy entusiasmados con la regulación del gobierno, pero son solo una minoría». El funcionario pidió anonimato alegando necesidad de describir debates sensibles de política.
Según informó Politico, el 7 de mayo de 2026, Kevin Hassett, en una entrevista con Fox Business, planteó públicamente que el gobierno está analizando una orden ejecutiva para exigir que los modelos de IA pasen una revisión de seguridad del gobierno antes de su publicación, y lo comparó con el proceso de aprobación de medicamentos de la FDA.
Según informó Politico el 8 de mayo de 2026, funcionarios superiores de la Casa Blanca dijeron que los comentarios de Hassett fueron «un poco citados fuera de contexto» y que la dirección de la política de la Casa Blanca es establecer asociaciones con las empresas, no impulsar la regulación gubernamental. La jefa de gabinete de la Casa Blanca, Susie Wiles, volvió a publicar para reiterar que el gobierno no interviene en la elección del mercado.
De acuerdo con el anuncio de CAISI de esta semana, los acuerdos añadidos cubren a Google DeepMind, Microsoft y xAI, además de OpenAI y Anthropic, que ya estaban cubiertas previamente. El marco de evaluaciones voluntarias está en vigor desde 2024.
Artículos relacionados
DeepMind AlphaEvolve récords entre disciplinas: la multiplicación de matrices de 4×4 supera el récord de Strassen de 1969 y el entrenamiento de Gemini es 1% más rápido
OpenAI Codex llega a la extensión para Chrome: puede probar una Web App en el navegador, obtener Contexto entre páginas y funcionar en paralelo
OpenAI lanza GPT-Realtime-2: introduce el razonamiento de GPT-5 en agentes de voz y eleva el contexto a 128K
Visité en persona laboratorios de IA en China: un investigador revela que la brecha entre chips y datos es la clave de la diferencia entre China y EE. UU.
a16z lidera la ronda de financiación $16M para la startup sueca de IA Pit