Anthropic возобновляет переговоры с Пентагоном, риск цепочки поставок и угрозы этикетки AI военного сотрудничества

MarketWhisper

Anthropic возобновляет переговоры с Пентагоном

Разработчик искусственного интеллекта Anthropic генеральный директор Dario Amodei возобновил переговоры с заместителем министра обороны США по исследованиям и развитию Emil Michael, целью которых является достижение соглашения до того, как компания будет официально признана рисковым поставщиком для оборонной цепочки поставок, и сохранение военного сотрудничества. Согласно сообщениям британской газеты Financial Times, со ссылкой на осведомлённые источники, если Anthropic будет официально признана, её исключат из сети закупок американской армии.

Причина разрыва переговоров: непроходимая красная линия по условиям обработки данных

На прошлой неделе переговоры внезапно сорвались. По сообщениям, после ожесточённой конфронтации Emil Michael обвинил Dario Amodei в мошенничестве и раскритиковал его за «божественное самомнение». Основной причиной конфликта стала принципиальная разница в отношении условий использования данных: Пентагон требовал, чтобы Anthropic исключила из контракта пункт, ограничивающий «анализ больших объёмов полученных данных», и рассматривал это как условие для принятия остальных условий компании.

Amodei в внутренней служебной записке ясно указал, что этот пункт предназначен для предотвращения потенциального масштабного внутреннего наблюдения, и позиционирует его как неприемлемую красную линию, аналогичную запрету использования ИИ в смертельно опасных автономных системах оружия. Министр обороны Пэт Хегсэт заявил, что в случае невозможности договориться, Anthropic будет официально признана рисковым поставщиком для цепочки поставок.

Военное применение Claude: глубокая зависимость за контракт на 200 миллионов долларов

Несмотря на дипломатический кризис, деловые связи Anthropic с американскими военными значительно превышают публичные сведения:

  • Контракт на 200 миллионов долларов: подписан в июле 2025 года, Claude стал первым коммерческим ИИ-моделью, внедрённой в секретные среды и национальные службы безопасности.
  • Поддержка воздушных ударов по Ирану: американские военные использовали модель Claude для поддержки крупных воздушных операций по Ирану, даже в течение нескольких часов после того, как Трамп приказал федеральным агентствам прекратить использование систем Anthropic.
  • Широкое секретное развертывание: Claude уже работает в нескольких сценариях обработки секретной информации, полное масштабирование пока не раскрыто.

Эти факты делают жёсткую позицию Пентагона противоречивой — с одной стороны, он полагается на Claude для выполнения ключевых военных задач, с другой — угрожает признать её угрозой безопасности, что вызывает широкий общественный резонанс.

Объединённая защита технологического сектора: Nvidia, Apple и другие направляют совместное письмо Трампу

В среду несколько ведущих технологических торговых организаций направили совместное открытое письмо Трампу, предупреждая, что включение американской компании ИИ в цепочку поставок как рискового поставщика может серьёзно подорвать конкурентоспособность США в глобальной гонке за ИИ против Китая. В подписавших — Ассоциация программного обеспечения и информационных технологий, TechNet, Ассоциация компьютерных и коммуникационных технологий, Бизнес-Софт Лигейшн, среди участников — Nvidia, Google (подразделение Alphabet), Apple и сотни других американских технологических компаний.

В письме прямо говорится, что «рассматривать американскую технологическую компанию как иностранного противника, а не актив», — это препятствие для инноваций и подрывает глобальную конкурентоспособность американской индустрии ИИ.

Часто задаваемые вопросы

Почему Anthropic отказывается удалять ограничение на анализ больших данных?
Anthropic считает этот пункт ключевым элементом защиты от масштабного внутреннего наблюдения и безопасности, приравнивая его к красной линии, запрещающей использование ИИ в смертельно опасных автономных системах оружия. В меморандуме Dario Amodei ясно указал, что удаление этого пункта означало бы разрешение правительству использовать Claude для массового сбора данных о гражданах, что является неприемлемым для компании.

Что будет, если Anthropic признают рисковым поставщиком?
Это приведёт к исключению Anthropic из сети закупок армии и федеральных структур, возможна отмена существующего контракта на 200 миллионов долларов, а все государственные подрядчики, использующие Claude, могут быть вынуждены разорвать деловые отношения. Для Anthropic это не только финансовый удар, но и серьёзное влияние на её репутацию в корпоративном и государственном секторах.

Почему Nvidia, Apple и другие крупные компании выступают в защиту Anthropic?
Эти компании не просто поддерживают Anthropic, а предупреждают, что такой прецедент может навредить всему американскому сектору ИИ. Если правительство сможет по административным приказам признать любую местную компанию ИИ угрозой безопасности, это создаст широкий эффект устрашения, снизит доверие к американским технологическим компаниям и замедлит их инновации на глобальном рынке.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев