
Директор Национального экономического совета (NEC) при Белом доме Кевин Хассетт в интервью Fox Business от 7 мая заявил, что администрация Трампа обсуждает возможность потребовать через указ AI-модели проходить проверку безопасности правительства до их публичного выпуска, и провёл аналогию с тем, как FDA утверждает лекарства до выхода на рынок. Однако, как сообщила Politico 8 мая, высокопоставленные чиновники Белого дома затем заявили, что это высказывание было «вырвано из контекста».
4 мая 2026 года The New York Times сообщила, что Белый дом обсуждает создание механизма предварительной проверки перед публикацией AI-моделей, тогда это охарактеризовали как «рассматривается». 7 мая 2026 года Кевин Хассетт в интервью Fox Business публично заявил: «Мы изучаем, можно ли через административный приказ потребовать, чтобы AI, который в будущем может породить уязвимости, поступал в использование только после того, как докажет свою безопасность — как лекарства у FDA».
Поздно вечером 7 мая 2026 года глава аппарата Белого дома Сьюзи Уилс в посте на платформе X написала, что правительство «не должно определять победителей и проигравших», и заявила, что внедрение безопасного развертывания мощных технологий должны продвигать «выдающиеся инновааторы США, а не бюрократические структуры». Согласно записи в её официальном аккаунте, этот пост был четвёртым опубликованным с момента создания аккаунта Уилс.
По данным Politico со ссылкой на троих осведомлённых источников, получивших анонимность, Белый дом обсуждает идею привлечения разведсообщества для предварительной оценки AI-моделей до их публичного выпуска. Один из чиновников правительства США в материале заявил, что одна из целей — «дать разведке возможность сначала изучить и использовать эти инструменты, прежде чем Россия и Китай и другие оппоненты поймут новые возможности».
Центр стандартов и инноваций в области AI (CAISI) при Министерстве торговли на этой неделе объявил, что заключил соглашения об оценке безопасности AI с Google DeepMind, Microsoft и xAI, а охват расширен на OpenAI и Anthropic, которые были включены ранее. Добровольная рамка оценок CAISI действует с 2024 года.
Заместитель министра обороны Эмил Майкл 8 мая 2026 года на AI-конференции в Вашингтоне публично поддержал предварительную правительственную оценку AI-моделей до их публичного выпуска, а в своём выступлении привёл в качестве примера систему Mythos от Anthropic, заявив, что соответствующие модели «рано или поздно появятся», и правительству необходим механизм реагирования.
Согласно сообщению Politico, министр обороны Пит Хегсетт в марте 2026 года включил Anthropic в список рисков под предлогом рисков для цепочек поставок и запретил использование её моделей для контрактов Министерства обороны. После этого Трамп отдельно потребовал от федеральных ведомств в течение шести месяцев прекратить использование продуктов Anthropic. Параллельно с этим, в прошлом месяце Anthropic раскрыла, что её AI-система Mythos обладает мощными возможностями поиска уязвимостей в программном обеспечении, выходя за рамки порога безопасности для публичного выпуска; после этого несколько федеральных ведомств подали заявки на подключение. 8 мая 2026 года OpenAI объявила о ограниченном превью нового инструмента GPT-5.5-Cyber, который позволяет обнаруживать и исправлять сетевые уязвимости.
Председатель Фонда информационных технологий и инноваций (ITIF) Дэниел Кастро в материале Politico заявил: «Если до выхода на рынок можно отказать в одобрении, это станет большой проблемой для любой компании. Если один конкурент получил одобрение, а другой — нет, разрыв в допуске на рынок на недели или месяцы окажет огромное влияние». Среди спонсоров ITIF — Anthropic, Microsoft и Meta.
В том же материале один высокопоставленный чиновник Белого дома заявил: «Да, есть один-два человека, которые очень увлечены правительственным регулированием, но они — меньшинство». Чиновник согласился на анонимность, сославшись на необходимость описывать чувствительные обсуждения политики.
Согласно сообщению Politico, Кевин Хассетт 7 мая 2026 года в интервью Fox Business публично заявил, что правительство рассматривает указ, который потребует от AI-моделей проходить проверку безопасности правительства до публикации, и провёл аналогию с процессом одобрения лекарств FDA.
Согласно сообщению Politico от 8 мая 2026 года, высокопоставленные чиновники Белого дома заявили, что высказывание Хассетта «слегка вырвано из контекста», а направление политики Белого дома — строить партнёрства с компаниями, а не продвигать государственное регулирование. Сьюзи Уилс, глава аппарата Белого дома, в отдельном посте также подтвердила, что правительство не вмешивается в выбор на рынке.
Согласно заявлению CAISI на этой неделе, добавленные соглашения охватывают Google DeepMind, Microsoft и xAI, а также уже охваченные ранее OpenAI и Anthropic; добровольная рамка оценок действует с 2024 года.
Связанные статьи
RLWRLD выпустила модель ИИ RLDX-1 для промышленных роботизированных рук
DeepMind AlphaEvolve междисциплинарные результаты: умножение матриц 4×4 обновило рекорд Страссена 1969 года, обучение Gemini ускорилось на 1%
OpenAI Codex запускает расширение для Chrome: можно тестировать Web App в браузере, получать Context между страницами, работать параллельно
OpenAI выпускает GPT-Realtime-2: переносит рассуждения GPT-5 в голосовых агентов, контекст увеличен до 128K
Полевое посещение китайских AI-лабораторий: исследователь раскрывает, что «пробелы в чипах и данных» — ключевая причина разницы между Китаем и США
a16z возглавляет раунд финансирования $16M для шведского AI-стартапа Pit