Filtración de un debate sobre el mecanismo de preauditoría de IA de la Casa Blanca; al día siguiente, los comentarios de Hassett fueron negados por la oficina oficial

白宮AI預審機制討論

El director del Consejo Nacional de Economía (NEC) de la Casa Blanca, Kevin Hassett, dijo en una entrevista con Fox Business el 7 de mayo que la administración de Trump está analizando exigir mediante una orden ejecutiva que los modelos de IA pasen una revisión de seguridad del gobierno antes de su publicación pública, y lo comparó con el proceso de aprobación previa de la FDA para medicamentos. Pero, según informó Politico el 8 de mayo, funcionarios superiores de la Casa Blanca afirmaron después que esos comentarios fueron «citados fuera de contexto».

Cronología del caso: El informe del New York Times saca a la luz las contradicciones de la política en la Casa Blanca

El 4 de mayo de 2026, The New York Times informó que la Casa Blanca estaba debatiendo crear un mecanismo de revisión previa a la publicación de modelos de IA, momento en el que lo calificaron como «en consideración». El 7 de mayo de 2026, Kevin Hassett, en una entrevista con Fox Business, dijo públicamente: «Estamos estudiando si podemos, mediante una orden ejecutiva, exigir que una IA que podría generar vulnerabilidades en el futuro se ponga en uso solo después de demostrar que es segura, como con los medicamentos de la FDA».

A altas horas de la noche del 7 de mayo de 2026, la jefa de gabinete de la Casa Blanca, Susie Wiles, publicó en la plataforma X que el gobierno «no se encarga de elegir ganadores y perdedores», y afirmó que la implementación de despliegues seguros de tecnologías potentes debería ser impulsada por «innovadores destacados de Estados Unidos, no por burocracias». Según el registro de su cuenta oficial, la publicación anterior era el cuarto contenido emitido desde la creación de la cuenta de Wiles.

Según Politico, citando a tres personas con conocimiento del tema bajo condición de anonimato, la Casa Blanca está debatiendo permitir que las agencias de inteligencia realicen una evaluación preliminar antes del lanzamiento público de modelos de IA. Uno de los funcionarios del gobierno de Estados Unidos dijo en el reporte que uno de los objetivos de esta medida es «asegurar que el sector de inteligencia estudie y use esas herramientas antes de que rivales como Rusia y China comprendan las nuevas capacidades».

Instituciones implicadas y marco de políticas

CAISI amplía el acuerdo de evaluaciones voluntarias de seguridad

El Centro de Normas e Innovación de IA (CAISI), dependiente del Departamento de Comercio, anunció esta semana que ya ha firmado acuerdos de evaluación de seguridad de IA con Google DeepMind, Microsoft y xAI, ampliando el alcance a OpenAI y Anthropic, que ya estaban incluidas con anterioridad. El marco de evaluaciones voluntarias de CAISI está en vigor desde 2024.

Apoyo público del subsecretario de Defensa al mecanismo de preevaluación

El subsecretario de Defensa, Emil Michael, en una conferencia sobre IA en Washington el 8 de mayo de 2026, expresó públicamente su apoyo a la preevaluación gubernamental antes del lanzamiento de modelos de IA, y en su intervención citó el sistema Mythos de Anthropic como caso de referencia, diciendo que esos modelos «tarde o temprano aparecerán» y que el gobierno debe establecer mecanismos de respuesta.

Antecedentes de políticas de la administración Trump y Anthropic

De acuerdo con lo informado por Politico, el secretario de Defensa, Pete Hegseth, incluyó a Anthropic en una lista de riesgos en marzo de 2026 alegando riesgos de cadena de suministro, y prohibió que sus modelos se utilicen en contratos del Departamento de Defensa. Posteriormente, Trump pidió por separado que las agencias federales dejaran de usar productos de Anthropic en un plazo de seis meses. Al mismo tiempo, el mes pasado Anthropic reveló que su sistema de IA Mythos tiene capacidades potentes para descubrir vulnerabilidades de software que superan el umbral de seguridad para una publicación pública; después, varias agencias federales presentaron solicitudes para integrarlo. El 8 de mayo de 2026, OpenAI anunció que realizará una vista previa limitada de GPT-5.5-Cyber, una nueva herramienta para detectar y reparar vulnerabilidades de la red.

Posturas de la industria contra el mecanismo de revisión obligatoria

Daniel Castro, presidente del Information Technology and Innovation Foundation (ITIF), dijo en el reporte de Politico: «Si se puede negar la aprobación antes de salir al mercado, eso es un problema enorme para cualquier empresa. Si un competidor obtiene la aprobación y otro no, la diferencia de semanas o meses en el acceso al mercado tendrá un impacto enorme». Los patrocinadores de ITIF incluyen Anthropic, Microsoft y Meta.

En el mismo reporte, un alto funcionario de la Casa Blanca dijo: «Sí, hay uno o dos que están muy entusiasmados con la regulación del gobierno, pero son solo una minoría». El funcionario pidió anonimato alegando necesidad de describir debates sensibles de política.

Preguntas frecuentes

¿Cuándo y dónde formuló Kevin Hassett comentarios sobre la preevaluación de la IA?

Según informó Politico, el 7 de mayo de 2026, Kevin Hassett, en una entrevista con Fox Business, planteó públicamente que el gobierno está analizando una orden ejecutiva para exigir que los modelos de IA pasen una revisión de seguridad del gobierno antes de su publicación, y lo comparó con el proceso de aprobación de medicamentos de la FDA.

¿Cuál es el fundamento con el que la Casa Blanca niega los comentarios de Hassett?

Según informó Politico el 8 de mayo de 2026, funcionarios superiores de la Casa Blanca dijeron que los comentarios de Hassett fueron «un poco citados fuera de contexto» y que la dirección de la política de la Casa Blanca es establecer asociaciones con las empresas, no impulsar la regulación gubernamental. La jefa de gabinete de la Casa Blanca, Susie Wiles, volvió a publicar para reiterar que el gobierno no interviene en la elección del mercado.

¿Qué acuerdos de evaluación de seguridad de IA agregó CAISI esta semana?

De acuerdo con el anuncio de CAISI de esta semana, los acuerdos añadidos cubren a Google DeepMind, Microsoft y xAI, además de OpenAI y Anthropic, que ya estaban cubiertas previamente. El marco de evaluaciones voluntarias está en vigor desde 2024.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

DeepMind AlphaEvolve récords entre disciplinas: la multiplicación de matrices de 4×4 supera el récord de Strassen de 1969 y el entrenamiento de Gemini es 1% más rápido

Google DeepMind 7 de mayo (hora de EE. UU.) publicó un informe de resultados multidisciplinarios de AlphaEvolve. El blog oficial de DeepMind resume los avances concretos de AlphaEvolve desde su lanzamiento: encontrar un método mejor para la multiplicación de matrices complejas 4×4 que el algoritmo de Strassen de 1969 (48 multiplicaciones escalares puras), colaborar con matemáticos como Terence Tao para resolver varios problemas matemáticos difíciles de Erdős, ahorrar 0,7% de recursos globales de cómputo para los centros de datos de Google, aumentar la velocidad en 23% de los kernels clave con los que se entrena Gemini y reducir en 1% el tiempo total de entrenamiento de Gemini. Arquitectura: Exploración de amplitud con Gemini Flash + Gemini

ChainNewsAbmediaHace13m

OpenAI Codex llega a la extensión para Chrome: puede probar una Web App en el navegador, obtener Contexto entre páginas y funcionar en paralelo

OpenAI 7 de mayo (hora de EE. UU.) anunció la función de extensión de Chrome de Codex, que permite que los agentes de codificación de Codex operen directamente dentro del navegador Chrome en macOS y Windows. La documentación oficial de Codex de OpenAI detalla que la extensión permite a Codex probar una web app sin hacerse cargo del navegador del usuario, obtener context a través de múltiples pestañas, usar Chrome DevTools y realizar otras tareas en paralelo. OpenAI también informó que los usuarios activos semanales de Codex superan los 4 millones, lo que representa un crecimiento de 8 veces desde principios de año. Cosas que se pueden hacer dentro del navegador: probar web app, obtener context entre páginas, usar DevTools Extensión de Chrome

ChainNewsAbmediaHace16m

OpenAI lanza GPT-Realtime-2: introduce el razonamiento de GPT-5 en agentes de voz y eleva el contexto a 128K

OpenAI 7 de mayo (hora de EE. UU.) en una conferencia para desarrolladores presentó tres nuevos modelos de voz en tiempo real: GPT-Realtime-2, GPT-Realtime-Translate, GPT-Realtime-Whisper, todos abiertos para desarrolladores a través de la Realtime API. El anuncio oficial de OpenAI señala que GPT-Realtime-2 es el primero de OpenAI con capacidades de GPT-5

ChainNewsAbmediaHace17m

Visité en persona laboratorios de IA en China: un investigador revela que la brecha entre chips y datos es la clave de la diferencia entre China y EE. UU.

El reportero Nathan Lambert, tras una visita en profundidad a varios laboratorios de IA en China, señala que la ventaja central del país reside en la cultura, el talento y una mentalidad pragmática: la investigación se centra primero en mejorar la calidad de los modelos, los estudiantes se convierten en contribuyentes clave y hay menos luchas internas en la colaboración entre equipos; pero existen brechas en chips, datos y creatividad, lo que, junto con la limitación del poder de cómputo externo por parte de Estados Unidos y una calidad de datos baja, impulsa a construir entornos de entrenamiento propios. Las empresas abren el código, pero conservan la tecnología central para sus propias afinaciones. Si Estados Unidos endurece el ecosistema abierto, podría afectar la posición de liderazgo global.

ChainNewsAbmediaHace26m

a16z lidera la ronda de financiación $16M para la startup sueca de IA Pit

Según Bloomberg, la startup sueca de IA Pit recaudó 16 millones de dólares en una ronda de financiación liderada por Andreessen Horowitz, con la participación de Lakestar y de ejecutivos de importantes empresas de IA y tecnología. Las familias suecas Stena y Lundin también se sumaron a la ronda. Pit ya tiene proyectos piloto con Voi,

GateNewsHace30m
Comentar
0/400
Sin comentarios