
O director do Conselho Económico Nacional (NEC) da Casa Branca, Kevin Hassett, afirmou numa entrevista à Fox Business a 7 de maio que o Governo de Trump está a estudar a emissão de uma ordem executiva para exigir que os modelos de IA passem por uma revisão de segurança do Governo antes de serem disponibilizados publicamente, comparando o processo ao modelo da FDA para a aprovação prévia à comercialização de medicamentos. Contudo, segundo a Politico a 8 de maio, altos responsáveis da Casa Branca disseram posteriormente que esses comentários foram «tirados do contexto».
A 4 de maio de 2026, o The New York Times noticiou que a Casa Branca estava a discutir a criação de um mecanismo de revisão prévia à publicação de modelos de IA, então descrito como «em consideração». A 7 de maio de 2026, Kevin Hassett, em entrevista à Fox Business, declarou publicamente: «Estamos a estudar se podemos, por meio de uma ordem executiva, exigir que a IA que poderá vir a apresentar vulnerabilidades só seja colocada em uso depois de demonstrar a sua segurança — como os fármacos da FDA».
A 7 de maio de 2026, já tarde da noite, Susie Wiles, chefe de gabinete da Casa Branca, publicou no X que o Governo «não tem a responsabilidade de escolher os vencedores e os perdedores», acrescentando que a implementação segura de tecnologias fortes deveria ser impulsionada «por inovadores notáveis dos EUA, e não por organismos burocráticos». De acordo com o registo oficial da sua conta, a publicação acima mencionada foi o quarto conteúdo divulgado desde que Wiles criou a conta.
Citados pela Politico três informadores anónimos, a Casa Branca está a discutir fazer com que as agências de informação façam uma avaliação preliminar antes da publicação pública dos modelos de IA. Um responsável do Governo dos EUA disse na notícia que, entre os objetivos, está «garantir que o sector de informações estude e use essas ferramentas antes de os adversários como a Rússia e a China compreenderem as novas capacidades».
O Centro de Normas e Inovação de IA (CAISI), que integra o Departamento do Comércio, anunciou esta semana que celebrou acordos de avaliação de segurança de IA com a Google DeepMind, a Microsoft e a xAI, alargando o âmbito aos anteriores já incluídos, nomeadamente a OpenAI e a Anthropic. O quadro de avaliação voluntária da CAISI é aplicado desde 2024.
O sub-secreário de Defesa Emil Michael, a 8 de maio de 2026, numa conferência de IA em Washington, manifestou publicamente apoio à pré-avaliação governamental antes da publicação de modelos de IA e, no seu discurso, citou o sistema Mythos da Anthropic como caso de referência, afirmando que tais modelos «mais cedo ou mais tarde vão surgir» e que o Governo precisa de criar mecanismos de resposta.
Segundo a Politico, o secretário da Defesa Pete Hegseth, em março de 2026, colocou a Anthropic numa lista de riscos com base em riscos para a cadeia de abastecimento e proibiu que os seus modelos fossem usados em contratos do Departamento de Defesa. Depois disso, Trump exigiu separadamente que as agências federais deixassem de usar produtos da Anthropic no prazo de seis meses. Entretanto, no mês passado, a Anthropic revelou que o seu sistema de IA Mythos tem capacidades fortes de exploração de vulnerabilidades de software, para além do limite de segurança da disponibilização pública, e várias agências federais apresentaram pedidos de ligação em seguida. A OpenAI, a 8 de maio de 2026, anunciou que vai disponibilizar uma pré-visualização limitada da GPT-5,5-Cyber, uma nova ferramenta que consegue detetar e corrigir vulnerabilidades de rede.
O presidente do Information Technology and Innovation Foundation (ITIF), Daniel Castro, disse na reportagem da Politico: «Se a pré-aprovação puder ser recusada antes do lançamento, isso é um grande problema para qualquer empresa. Se um concorrente for aprovado e outro não, a diferença de semanas ou meses no acesso ao mercado terá um impacto enorme.» Os financiadores do ITIF incluem a Anthropic, a Microsoft e a Meta.
Um alto responsável da Casa Branca, na mesma reportagem, afirmou: «Há de facto um ou dois que estão muito entusiasmados com a regulamentação governamental, mas são apenas uma minoria.» O responsável pediu para não ser identificado, alegando necessidade de descrever discussões sensíveis sobre políticas.
De acordo com a Politico, Kevin Hassett apresentou publicamente o tema numa entrevista à Fox Business a 7 de maio de 2026, indicando que o Governo está a estudar uma ordem executiva para exigir que os modelos de IA passem por uma revisão de segurança governamental antes de serem divulgados, comparando com o processo de aprovação de fármacos da FDA.
Segundo a Politico a 8 de maio de 2026, altos responsáveis da Casa Branca disseram que os comentários de Hassett foram «um pouco tirados do contexto» e que a direção da política do Governo é estabelecer parcerias com empresas, e não impor regulamentação governamental. A chefe de gabinete, Susie Wiles, voltou a escrever para reforçar que o Governo não intervém na escolha do mercado.
De acordo com o comunicado da CAISI esta semana, os acordos agora adicionados abrangem a Google DeepMind, a Microsoft e a xAI, além dos anteriormente já cobertos: a OpenAI e a Anthropic. O quadro de avaliação voluntária é aplicado desde 2024.
Related Articles
A RLWRLD lança o modelo de IA RLDX-1 para mãos robóticas industriais
DeepMind AlphaEvolve desempenho interdomínios: multiplicação de matrizes 4×4 que renova o recorde de Strassen de 1969, treino do Gemini mais rápido em 1%
OpenAI Codex lança uma extensão para o Chrome: permite testar Web Apps no navegador, aceder ao Context entre páginas e funcionar em paralelo
A OpenAI lança o GPT-Realtime-2: leva a inferência do GPT-5 para agentes de voz e eleva o contexto para 128K
Visita presencial a laboratórios de IA na China: investigadores revelam que a “lacuna entre chips e dados” é a chave da diferença EUA-China
A16z lidera $16M ronda de financiamento para a startup sueca de IA Pit