Обсуждение просочившегося разговора о механизме предварительного допроса по ИИ в Белом доме; на следующий день заявление Хассетта было опровергнуто официальными лицами

白宮AI預審機制討論

Директор Национального экономического совета (NEC) при Белом доме Кевин Хассетт в интервью Fox Business от 7 мая заявил, что администрация Трампа обсуждает возможность потребовать через указ AI-модели проходить проверку безопасности правительства до их публичного выпуска, и провёл аналогию с тем, как FDA утверждает лекарства до выхода на рынок. Однако, как сообщила Politico 8 мая, высокопоставленные чиновники Белого дома затем заявили, что это высказывание было «вырвано из контекста».

Ход событий: «Нью-Йорк Таймс» доводит до публичности противоречия в политике Белого дома

4 мая 2026 года The New York Times сообщила, что Белый дом обсуждает создание механизма предварительной проверки перед публикацией AI-моделей, тогда это охарактеризовали как «рассматривается». 7 мая 2026 года Кевин Хассетт в интервью Fox Business публично заявил: «Мы изучаем, можно ли через административный приказ потребовать, чтобы AI, который в будущем может породить уязвимости, поступал в использование только после того, как докажет свою безопасность — как лекарства у FDA».

Поздно вечером 7 мая 2026 года глава аппарата Белого дома Сьюзи Уилс в посте на платформе X написала, что правительство «не должно определять победителей и проигравших», и заявила, что внедрение безопасного развертывания мощных технологий должны продвигать «выдающиеся инновааторы США, а не бюрократические структуры». Согласно записи в её официальном аккаунте, этот пост был четвёртым опубликованным с момента создания аккаунта Уилс.

По данным Politico со ссылкой на троих осведомлённых источников, получивших анонимность, Белый дом обсуждает идею привлечения разведсообщества для предварительной оценки AI-моделей до их публичного выпуска. Один из чиновников правительства США в материале заявил, что одна из целей — «дать разведке возможность сначала изучить и использовать эти инструменты, прежде чем Россия и Китай и другие оппоненты поймут новые возможности».

Задействованные структуры и рамки политики

CAISI расширяет соглашение о добровольных проверках безопасности

Центр стандартов и инноваций в области AI (CAISI) при Министерстве торговли на этой неделе объявил, что заключил соглашения об оценке безопасности AI с Google DeepMind, Microsoft и xAI, а охват расширен на OpenAI и Anthropic, которые были включены ранее. Добровольная рамка оценок CAISI действует с 2024 года.

Замминистра обороны публично поддерживает механизм предварительной оценки

Заместитель министра обороны Эмил Майкл 8 мая 2026 года на AI-конференции в Вашингтоне публично поддержал предварительную правительственную оценку AI-моделей до их публичного выпуска, а в своём выступлении привёл в качестве примера систему Mythos от Anthropic, заявив, что соответствующие модели «рано или поздно появятся», и правительству необходим механизм реагирования.

Политический контекст администрации Трампа и Anthropic

Согласно сообщению Politico, министр обороны Пит Хегсетт в марте 2026 года включил Anthropic в список рисков под предлогом рисков для цепочек поставок и запретил использование её моделей для контрактов Министерства обороны. После этого Трамп отдельно потребовал от федеральных ведомств в течение шести месяцев прекратить использование продуктов Anthropic. Параллельно с этим, в прошлом месяце Anthropic раскрыла, что её AI-система Mythos обладает мощными возможностями поиска уязвимостей в программном обеспечении, выходя за рамки порога безопасности для публичного выпуска; после этого несколько федеральных ведомств подали заявки на подключение. 8 мая 2026 года OpenAI объявила о ограниченном превью нового инструмента GPT-5.5-Cyber, который позволяет обнаруживать и исправлять сетевые уязвимости.

Позиция индустрии против механизма обязательной проверки

Председатель Фонда информационных технологий и инноваций (ITIF) Дэниел Кастро в материале Politico заявил: «Если до выхода на рынок можно отказать в одобрении, это станет большой проблемой для любой компании. Если один конкурент получил одобрение, а другой — нет, разрыв в допуске на рынок на недели или месяцы окажет огромное влияние». Среди спонсоров ITIF — Anthropic, Microsoft и Meta.

В том же материале один высокопоставленный чиновник Белого дома заявил: «Да, есть один-два человека, которые очень увлечены правительственным регулированием, но они — меньшинство». Чиновник согласился на анонимность, сославшись на необходимость описывать чувствительные обсуждения политики.

Часто задаваемые вопросы

Когда и где Кевин Хассетт сделал заявления об AI-предоценке?

Согласно сообщению Politico, Кевин Хассетт 7 мая 2026 года в интервью Fox Business публично заявил, что правительство рассматривает указ, который потребует от AI-моделей проходить проверку безопасности правительства до публикации, и провёл аналогию с процессом одобрения лекарств FDA.

На чём основано отрицание высказываний Хассетта со стороны Белого дома?

Согласно сообщению Politico от 8 мая 2026 года, высокопоставленные чиновники Белого дома заявили, что высказывание Хассетта «слегка вырвано из контекста», а направление политики Белого дома — строить партнёрства с компаниями, а не продвигать государственное регулирование. Сьюзи Уилс, глава аппарата Белого дома, в отдельном посте также подтвердила, что правительство не вмешивается в выбор на рынке.

Какие новые соглашения по оценке безопасности AI добавил CAISI на этой неделе?

Согласно заявлению CAISI на этой неделе, добавленные соглашения охватывают Google DeepMind, Microsoft и xAI, а также уже охваченные ранее OpenAI и Anthropic; добровольная рамка оценок действует с 2024 года.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

RLWRLD выпустила модель ИИ RLDX-1 для промышленных роботизированных рук

RLWRLD, стартап по робототехнике и ИИ, поддерживаемый LG Electronics, представил RLDX-1 — базовую модель, предназначенную для роботизированных кистей с пятью пальцами в промышленных применениях, сообщила RLWRLD. Компания опубликовала веса модели, код и техническую документацию на GitHub и Hugging Face. Модель

CryptoFrontier2м назад

DeepMind AlphaEvolve междисциплинарные результаты: умножение матриц 4×4 обновило рекорд Страссена 1969 года, обучение Gemini ускорилось на 1%

Google DeepMind 7 мая (по американскому времени) опубликовала отчёт о междисциплинарных результатах AlphaEvolve. Официальный блог DeepMind подводит итоги конкретных достижений AlphaEvolve с момента запуска: найден метод умножения 4×4 комплексных матриц, который лучше алгоритма Strassen 1969 (48 умножений скаляров), совместно с математиками, включая Терренса Тао (Terence Tao), решены несколько математических трудных задач по Эрдёшу (Эрдős), сэкономлено 0,7% мировых вычислительных ресурсов для дата-центров Google, ключевое ускорение kernel при обучении Gemini увеличено на 23%, а общее время обучения Gemini сокращено на 1%. Архитектура: Gemini Flash — широкомасштабный поиск + Gemini

ChainNewsAbmedia15м назад

OpenAI Codex запускает расширение для Chrome: можно тестировать Web App в браузере, получать Context между страницами, работать параллельно

OpenAI 7 мая (по американскому времени) опубликовала Chrome-расширение для Codex, позволяющее Codex-кодирующим агентам работать прямо в браузере Chrome на macOS и Windows. Официальная документация OpenAI по Codex поясняет, что расширение даёт Codex возможность тестировать web app, получать контекст на нескольких вкладках, использовать Chrome DevTools и выполнять другие задачи параллельно — при этом оно не перехватывает управление браузером пользователя. OpenAI также сообщила, что еженедельно активные пользователи Codex превысили 4 миллиона, что в 8 раз больше по сравнению с началом года. Что можно делать внутри браузера: тестировать web app, получать контекст между вкладками, использовать DevTools Chrome-расширение

ChainNewsAbmedia18м назад

OpenAI выпускает GPT-Realtime-2: переносит рассуждения GPT-5 в голосовых агентов, контекст увеличен до 128K

OpenAI 7 мая (по американскому времени) на конференции для разработчиков представила три новых Realtime-модели: GPT-Realtime-2, GPT-Realtime-Translate, GPT-Realtime-Whisper, все они доступны разработчикам через Realtime API. Официальное объявление OpenAI поясняет, что GPT-Realtime-2 — это первая в OpenAI модель, обладающая GPT-5

ChainNewsAbmedia20м назад

Полевое посещение китайских AI-лабораторий: исследователь раскрывает, что «пробелы в чипах и данных» — ключевая причина разницы между Китаем и США

Глубокое посещение нескольких AI-лабораторий в Китае Натан Ламберт отметил, что ключевое преимущество страны — в культуре, талантах и прагматичном настрое: исследования направлены в первую очередь на повышение качества моделей, студенты выступают ключевыми основными вкладчиками, а внутренние конфликты в организациях случаются реже из‑за конкуренции внутри команд; при этом есть пробелы в чипах, данных и креативности, а внешние вычислительные мощности ограничены контролем со стороны США, тогда как низкое качество данных подталкивает к созданию собственной тренировочной среды. Компании открывают исходный код, но сохраняют ключевые технологии для собственных точных доработок; если США ужесточат открытый экосистемный доступ, это может повлиять на глобальное лидерство.

ChainNewsAbmedia29м назад

a16z возглавляет раунд финансирования $16M для шведского AI-стартапа Pit

По данным Bloomberg, шведская AI-компания Pit привлекла 16 миллионов долларов в раунде финансирования под руководством Andreessen Horowitz при участии Lakestar и руководителей из крупных AI- и технологических компаний. В раунд также вошли семьи Стена и Лундин из Швеции. Pit уже обеспечила пилотные проекты с Voi,

GateNews33м назад
комментарий
0/400
Нет комментариев