Según BlockBeats news, el 2 de marzo, el CEO de OpenAI, Sam Altman, lanzó ayer una sesión pública de preguntas y respuestas en X para responder a las preguntas de la comunidad sobre la firma de OpenAI con el Departamento de Defensa de EE. UU., y la publicación original recibió más de 6,6 millones de visualizaciones y más de 7.500 respuestas. En cuanto a por qué la transacción se hizo tan apresurada, Altman explicó que OpenAI solo había negociado una cooperación no clasificada con el Departamento de Defensa de EE. UU. en los últimos meses y había rechazado contratos en el ámbito confidencial (posteriormente asumidos por Anthropic), pero tras la prohibición de Anthropic, el Departamento de Defensa de EE. UU. aceleró repentinamente el despliegue clasificado, y la razón de la firma apresurada de OpenAI fue “desescalar la situación”. También dijo que había negociado para garantizar que condiciones equivalentes estuvieran abiertas a todos los demás laboratorios de IA.
Cuando le preguntaron por qué no defendió a Anthropic, Altman dijo que incluir a Anthropic como un “riesgo de cadena de suministro” era “muy malo para la industria, para el país y para Anthropic”, “Esta es una muy mala decisión por parte del Departamento de Defensa de EE.UU., y espero que la retiren”, pero también dijo que Anthropic “parece preocuparse más por prohibiciones específicas en el contrato que por citar leyes actuales, y puede querer más control operativo que nosotros” en las negociaciones.
Respecto a la propia línea roja de OpenAI, Altman dijo: “Si se nos pide hacer algo inconstitucional o ilegal, nos retiraremos. Por favor, ven a la prisión a visitarme.” Al hablar de la vigilancia en el extranjero, Altman admitió que “no le gusta” la vigilancia militar estadounidense sobre extranjeros, diciendo que el principio de IA que más le importa es la “democratización” y que la vigilancia puede ir en contra de esto, pero “no creo que me corresponda a mí decidir.”
En su conclusión, Altman plantea una pregunta que está “oculta tras muchas preguntas” pero que nadie plantea directamente: ¿Y si el gobierno de EE. UU. intenta nacionalizar OpenAI u otros proyectos de IA? Dijo que “desde hace tiempo cree que construir la AGI probablemente debería ser un proyecto gubernamental.”