A discussão sobre um mecanismo de pré-aprovação de IA da Casa Branca é divulgada, e as declarações de Hassett são negadas oficialmente no dia seguinte

白宮AI預審機制討論

O director do Conselho Económico Nacional (NEC) da Casa Branca, Kevin Hassett, afirmou numa entrevista à Fox Business a 7 de maio que o Governo de Trump está a estudar a emissão de uma ordem executiva para exigir que os modelos de IA passem por uma revisão de segurança do Governo antes de serem disponibilizados publicamente, comparando o processo ao modelo da FDA para a aprovação prévia à comercialização de medicamentos. Contudo, segundo a Politico a 8 de maio, altos responsáveis da Casa Branca disseram posteriormente que esses comentários foram «tirados do contexto».

Evolução do caso: O NYT chega à exposição pública de contradições na política da Casa Branca

A 4 de maio de 2026, o The New York Times noticiou que a Casa Branca estava a discutir a criação de um mecanismo de revisão prévia à publicação de modelos de IA, então descrito como «em consideração». A 7 de maio de 2026, Kevin Hassett, em entrevista à Fox Business, declarou publicamente: «Estamos a estudar se podemos, por meio de uma ordem executiva, exigir que a IA que poderá vir a apresentar vulnerabilidades só seja colocada em uso depois de demonstrar a sua segurança — como os fármacos da FDA».

A 7 de maio de 2026, já tarde da noite, Susie Wiles, chefe de gabinete da Casa Branca, publicou no X que o Governo «não tem a responsabilidade de escolher os vencedores e os perdedores», acrescentando que a implementação segura de tecnologias fortes deveria ser impulsionada «por inovadores notáveis dos EUA, e não por organismos burocráticos». De acordo com o registo oficial da sua conta, a publicação acima mencionada foi o quarto conteúdo divulgado desde que Wiles criou a conta.

Citados pela Politico três informadores anónimos, a Casa Branca está a discutir fazer com que as agências de informação façam uma avaliação preliminar antes da publicação pública dos modelos de IA. Um responsável do Governo dos EUA disse na notícia que, entre os objetivos, está «garantir que o sector de informações estude e use essas ferramentas antes de os adversários como a Rússia e a China compreenderem as novas capacidades».

Entidades envolvidas e enquadramento da política

CAISI alarga acordos voluntários de avaliação de segurança

O Centro de Normas e Inovação de IA (CAISI), que integra o Departamento do Comércio, anunciou esta semana que celebrou acordos de avaliação de segurança de IA com a Google DeepMind, a Microsoft e a xAI, alargando o âmbito aos anteriores já incluídos, nomeadamente a OpenAI e a Anthropic. O quadro de avaliação voluntária da CAISI é aplicado desde 2024.

Subsecretário de Defesa apoia publicamente mecanismo de pré-avaliação

O sub-secreário de Defesa Emil Michael, a 8 de maio de 2026, numa conferência de IA em Washington, manifestou publicamente apoio à pré-avaliação governamental antes da publicação de modelos de IA e, no seu discurso, citou o sistema Mythos da Anthropic como caso de referência, afirmando que tais modelos «mais cedo ou mais tarde vão surgir» e que o Governo precisa de criar mecanismos de resposta.

Contexto de política do Governo de Trump e da Anthropic

Segundo a Politico, o secretário da Defesa Pete Hegseth, em março de 2026, colocou a Anthropic numa lista de riscos com base em riscos para a cadeia de abastecimento e proibiu que os seus modelos fossem usados em contratos do Departamento de Defesa. Depois disso, Trump exigiu separadamente que as agências federais deixassem de usar produtos da Anthropic no prazo de seis meses. Entretanto, no mês passado, a Anthropic revelou que o seu sistema de IA Mythos tem capacidades fortes de exploração de vulnerabilidades de software, para além do limite de segurança da disponibilização pública, e várias agências federais apresentaram pedidos de ligação em seguida. A OpenAI, a 8 de maio de 2026, anunciou que vai disponibilizar uma pré-visualização limitada da GPT-5,5-Cyber, uma nova ferramenta que consegue detetar e corrigir vulnerabilidades de rede.

Posturas do sector contra mecanismos de revisão obrigatória

O presidente do Information Technology and Innovation Foundation (ITIF), Daniel Castro, disse na reportagem da Politico: «Se a pré-aprovação puder ser recusada antes do lançamento, isso é um grande problema para qualquer empresa. Se um concorrente for aprovado e outro não, a diferença de semanas ou meses no acesso ao mercado terá um impacto enorme.» Os financiadores do ITIF incluem a Anthropic, a Microsoft e a Meta.

Um alto responsável da Casa Branca, na mesma reportagem, afirmou: «Há de facto um ou dois que estão muito entusiasmados com a regulamentação governamental, mas são apenas uma minoria.» O responsável pediu para não ser identificado, alegando necessidade de descrever discussões sensíveis sobre políticas.

Perguntas frequentes

Quando e onde é que Kevin Hassett fez declarações sobre pré-avaliação de IA?

De acordo com a Politico, Kevin Hassett apresentou publicamente o tema numa entrevista à Fox Business a 7 de maio de 2026, indicando que o Governo está a estudar uma ordem executiva para exigir que os modelos de IA passem por uma revisão de segurança governamental antes de serem divulgados, comparando com o processo de aprovação de fármacos da FDA.

Em que se baseia a negação, pela Casa Branca, das declarações de Hassett?

Segundo a Politico a 8 de maio de 2026, altos responsáveis da Casa Branca disseram que os comentários de Hassett foram «um pouco tirados do contexto» e que a direção da política do Governo é estabelecer parcerias com empresas, e não impor regulamentação governamental. A chefe de gabinete, Susie Wiles, voltou a escrever para reforçar que o Governo não intervém na escolha do mercado.

Que acordos adicionais de avaliação de segurança de IA foram incluídos pela CAISI esta semana?

De acordo com o comunicado da CAISI esta semana, os acordos agora adicionados abrangem a Google DeepMind, a Microsoft e a xAI, além dos anteriormente já cobertos: a OpenAI e a Anthropic. O quadro de avaliação voluntária é aplicado desde 2024.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

A RLWRLD lança o modelo de IA RLDX-1 para mãos robóticas industriais

RLWRLD, uma startup de IA de robótica apoiada pela LG Electronics, revelou o RLDX-1, um modelo de base concebido para mãos robóticas de cinco dedos em aplicações industriais, segundo a RLWRLD. A empresa disponibilizou os pesos, o código e a documentação técnica do modelo no GitHub e na Hugging Face. Modelo

CryptoFrontier2m atrás

DeepMind AlphaEvolve desempenho interdomínios: multiplicação de matrizes 4×4 que renova o recorde de Strassen de 1969, treino do Gemini mais rápido em 1%

O Google DeepMind, a 7 de Maio (hora dos EUA), divulgou um relatório de resultados interdisciplinares do AlphaEvolve. O blogue oficial da DeepMind reuniu os progressos concretos do AlphaEvolve desde a sua apresentação: encontrou um método de multiplicação de matrizes complexas 4×4 melhor do que o algoritmo de Strassen (1969) (48 multiplicações escalares puras), colaborou com matemáticos como Terence Tao para resolver vários problemas matemáticos difíceis de Erdős, poupou 0,7% dos recursos de computação globais para centros de dados da Google, aumentou a velocidade dos kernel-chave usados no treino do Gemini em 23% e reduziu em 1% o tempo total de treino do Gemini. Arquitetura: Gemini Flash exploração de largura + Gemini

ChainNewsAbmedia15m atrás

OpenAI Codex lança uma extensão para o Chrome: permite testar Web Apps no navegador, aceder ao Context entre páginas e funcionar em paralelo

A OpenAI, a 7 de maio (hora dos EUA), anunciou a funcionalidade de extensão do Chrome do Codex, que permite que os agentes de codificação do Codex funcionem diretamente nos navegadores Chrome do macOS e do Windows. A documentação oficial do Codex explica que a extensão permite ao Codex, sem assumir o controlo do navegador do utilizador, testar uma aplicação web, obter contexto através de vários separadores, usar o Chrome DevTools e executar outras tarefas em paralelo. A OpenAI anunciou, em simultâneo, que os utilizadores ativos semanais do Codex ultrapassam 4 milhões, o que representa um crescimento de 8 vezes face ao início do ano. O que é possível fazer dentro do navegador: testar aplicações web, obter contexto através de páginas, usar o DevTools Extensão do Chrome

ChainNewsAbmedia18m atrás

A OpenAI lança o GPT-Realtime-2: leva a inferência do GPT-5 para agentes de voz e eleva o contexto para 128K

A OpenAI, a 7 de Maio (horário dos EUA), anunciou três novos modelos de voz em tempo real na conferência para programadores: GPT-Realtime-2, GPT-Realtime-Translate, GPT-Realtime-Whisper, todos disponibilizados aos programadores através da Realtime API. No comunicado oficial da OpenAI, explica-se que o GPT-Realtime-2 é o primeiro da OpenAI com capacidades GPT-5

ChainNewsAbmedia20m atrás

Visita presencial a laboratórios de IA na China: investigadores revelam que a “lacuna entre chips e dados” é a chave da diferença EUA-China

O Nathan Lambert, numa visita em profundidade a vários laboratórios de IA na China, aponta que a principal vantagem da China está na cultura, nos talentos e numa mentalidade pragmática: a investigação prioriza primeiro a melhoria da qualidade dos modelos, os estudantes tornam-se os principais contribuidores e há menos lutas internas na colaboração entre equipas; no entanto, existem lacunas em chips, dados e criatividade, levando a que se construam ambientes próprios de treino devido a limitações de capacidade de processamento impostas pelos Estados Unidos e à fraca qualidade dos dados. As empresas disponibilizam código aberto, mas retêm as tecnologias essenciais para afinação nos seus próprios modelos; se os Estados Unidos apertarem o ecossistema aberto, isso poderá afetar a posição de liderança global.

ChainNewsAbmedia29m atrás

A16z lidera $16M ronda de financiamento para a startup sueca de IA Pit

De acordo com a Bloomberg, a startup sueca de IA Pit angariou 16 milhões de dólares numa ronda de financiamento liderada pela Andreessen Horowitz, com participação da Lakestar e de executivos de grandes empresas de IA e tecnologia. As famílias suecas Stena e Lundin também participaram na ronda. A Pit já garantiu projetos-piloto com Voi,

GateNews33m atrás
Comentar
0/400
Nenhum comentário