
Le directeur du Conseil économique national (NEC) de la Maison-Blanche, Kevin Hassett, a déclaré lors d’une interview accordée à Fox Business le 7 mai que l’administration Trump étudie la possibilité d’exiger, par décret, que des modèles d’IA passent un contrôle de sécurité gouvernemental avant leur publication publique. Il a fait une analogie avec la procédure d’autorisation préalable à la mise sur le marché appliquée par la FDA aux médicaments. Mais, selon Politico du 8 mai, des responsables de haut niveau de la Maison-Blanche ont ensuite qualifié ces propos de « sortie de son contexte ».
Le 4 mai 2026, le New York Times a rapporté que la Maison-Blanche étudiait la mise en place d’un mécanisme d’examen préalable à la publication des modèles d’IA, à l’époque présenté comme « envisagé ». Le 7 mai 2026, lors de son interview sur Fox Business, Kevin Hassett a déclaré publiquement : « Nous étudions la possibilité, par décret, d’exiger que l’IA potentiellement génératrice de vulnérabilités ne soit déployée qu’après avoir démontré sa sécurité — comme pour les médicaments de la FDA. »
Dans la nuit du 7 mai 2026, le chef de cabinet de la Maison-Blanche, Susie Wiles, a publié sur la plateforme X : le gouvernement « n’a pas à choisir les gagnants et les perdants », et a affirmé que le déploiement sécurisé de technologies puissantes devrait être porté par « les innovateurs exceptionnels des États-Unis plutôt que par des organismes bureaucratiques ». D’après les archives de son compte officiel, ce message constitue le quatrième contenu publié depuis la création du compte de Wiles.
D’après Politico, citant trois personnes informées sous couvert d’anonymat, la Maison-Blanche discute de la possibilité de faire procéder à une évaluation préalable par des agences de renseignement avant la publication publique des modèles d’IA. Un responsable du gouvernement américain interrogé dans l’article a indiqué que l’un des objectifs était « de permettre au milieu du renseignement d’étudier et d’exploiter d’abord ces outils avant que des adversaires comme la Russie et la Chine ne comprennent les nouvelles capacités ».
Le Centre américain des normes et de l’innovation en IA (CAISI), rattaché au ministère du Commerce, a annoncé cette semaine avoir conclu des accords d’évaluation de sécurité de l’IA avec Google DeepMind, Microsoft et xAI. Le périmètre a été élargi à OpenAI et Anthropic, déjà inclus auparavant. Le cadre d’évaluation volontaire de la CAISI est en vigueur depuis 2024.
Le sous-secrétaire adjoint à la Défense, Emil Michael, a, le 8 mai 2026, lors d’une conférence sur l’IA à Washington, apporté son soutien public à une évaluation préalable gouvernementale avant la publication de modèles d’IA. Dans son intervention, il a cité le système Mythos d’Anthropic comme cas de référence, affirmant que ces modèles « finiront tôt ou tard par apparaître » et que le gouvernement doit mettre en place un mécanisme de réponse.
D’après Politico, le secrétaire à la Défense Pete Hegseth a, en mars 2026, inscrit Anthropic sur une liste de risques en invoquant des risques liés à la chaîne d’approvisionnement, et a interdit l’utilisation de ses modèles dans les contrats du ministère de la Défense. Par la suite, Trump a demandé séparément aux agences fédérales de cesser d’utiliser les produits d’Anthropic dans un délai de six mois. Dans le même temps, le mois dernier, Anthropic a révélé que son système d’IA Mythos possédait une capacité puissante d’exploration de vulnérabilités logicielles, dépassant les seuils de sécurité avant publication publique, et plusieurs agences fédérales ont alors présenté des demandes d’accès. Le 8 mai 2026, OpenAI a annoncé un aperçu limité de GPT-5.5-Cyber, un nouvel outil capable de détecter et de corriger des failles de cybersécurité.
Le président du Information Technology and Innovation Foundation (ITIF), Daniel Castro, a déclaré dans un article de Politico : « Si l’on peut refuser l’approbation avant mise sur le marché, c’est un gros problème pour toute entreprise. Si un concurrent obtient l’approbation mais pas un autre, l’écart de quelques semaines ou de quelques mois pour l’accès au marché aura un impact énorme. » Les financeurs de l’ITIF incluent Anthropic, Microsoft et Meta.
Dans le même article, un haut responsable de la Maison-Blanche a déclaré : « Il y a bien un ou deux individus très enthousiastes à l’idée de la surveillance du gouvernement, mais ils ne sont qu’une minorité. » Le responsable a obtenu l’anonymat au motif de la description de discussions de politique sensible.
D’après Politico, Kevin Hassett a, le 7 mai 2026, lors d’une interview accordée à Fox Business, déclaré publiquement que le gouvernement étudiait un décret exigeant que les modèles d’IA passent un contrôle de sécurité gouvernemental avant d’être publiés, en faisant l’analogie avec le processus d’approbation de la FDA pour les médicaments.
Selon Politico du 8 mai 2026, un responsable de haut niveau de la Maison-Blanche a déclaré que les propos de Hassett « relevaient quelque peu du hors-sujet », et que l’orientation de la Maison-Blanche consiste à établir des partenariats avec les entreprises plutôt qu’à déployer une surveillance gouvernementale. Le chef de cabinet Susie Wiles a, par ailleurs, publié un message réitérant que le gouvernement ne s’immisce pas dans les choix du marché.
D’après la déclaration de CAISI cette semaine, ces accords supplémentaires couvrent Google DeepMind, Microsoft et xAI, en plus de OpenAI et Anthropic déjà inclus. Le cadre d’évaluation volontaire est en vigueur depuis 2024.
Articles similaires
RLWRLD publie le modèle d’IA RLDX-1 pour des mains robotiques industrielles
DeepMind AlphaEvolve bilan interdisciplinaire : la multiplication de matrices 4×4 bat le record de Strassen de 1969, la formation de Gemini est accélérée de 1%
OpenAI Codex lance une extension pour Chrome : permet de tester une Web App dans le navigateur, de récupérer le contexte entre pages, et de fonctionner en parallèle
OpenAI lance GPT-Realtime-2 : intègre l’inférence de GPT-5 dans les agents vocaux et fait passer le contexte à 128K
Visite sur le terrain de laboratoires d’IA en Chine : un chercheur révèle que « l’écart entre les puces et les données » est la clé du différend entre les États-Unis et la Chine
A16z mène un tour de financement $16M pour la startup suédoise d’IA Pit