Anthropic не снимет меры по обеспечению безопасности ИИ на фоне продолжающегося спора с Пентагоном: генеральный директор

Decrypt

Вкратце

  • Дарио Амодей заявляет, что Anthropic не отменит запреты на массовое внутреннее наблюдение и полностью автономное оружие.
  • Пентагон угрожал расторжением контракта и возможными действиями в соответствии с Законом о оборонном производстве.
  • Противостояние последовало за сообщениями о том, что американские военные использовали Клода для захвата бывшего президента Венесуэлы Николаса Мадуро

Генеральный директор Anthropic Дарио Амодей заявил в четверг, что компания не будет снимать гарантии с модели Claude AI, что усугубляет спор с Министерством обороны США относительно того, как технология может использоваться в засекреченных военных системах. Заявление появилось на фоне пересмотра Министерства обороны с Anthropic и взвешивания возможных последствий, включая отмену контракта компании на сумму 200 миллионов долларов и возможное применение Закона об оборонном производстве. «Мы не можем с чистой совестью удовлетворить их просьбу», — написал Амодей, ссылаясь на требование Пентагона в январе, чтобы подрядчики в области ИИ разрешали использование их систем «для любого законного использования». 

Хотя Пентагон с тех пор обязал поставщиков ИИ принять стандартные формулировки «любое законное использование» в будущих соглашениях, Anthropic осталась единственной фирмой в области фронтирного ИИ, которая сопротивлялась передаче контроля над своим ИИ военным. В среду Axios впервые сообщил, что Пентагон выдвинул ультиматум с требованием неограниченного военного использования Клода. Сообщается, что крайний срок — пятница этой недели. «Это прерогатива Департамента — выбирать подрядчиков, наиболее соответствующих их видению», — продолжил Амодей. «Но учитывая значительную ценность, которую технологии Anthropic приносят нашим вооружённым силам, мы надеемся, что они пересмотрят это решение.» В своём заявлении Амодей изложил позицию компании как соответствующую национальным целям безопасности США.

«Я глубоко верю в экзистенциальную важность использования ИИ для защиты Соединённых Штатов и других демократий, а также для победы над нашими автократическими противниками», — сказал он. Он добавил, что Claude «широко развернут в Министерстве войны и других национальных агентствах безопасности для анализа разведданных, моделирования и симуляции, оперативного планирования, киберопераций и многого другого». Война с ИИ Спор разворачивается на фоне более широких опасений по поводу того, как продвинутые системы ИИ ведут себя в военных ситуациях с высокими ставками. В недавнем исследовании King’s College London GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google применяли ядерное оружие в 95% смоделированных геополитических кризисов. Во время выступления на звёздной базе SpaceX в Техасе в январе министр обороны Пит Хегсет заявил, что вооружённые силы США планируют развернуть самые передовые модели ИИ. В том же месяце появились сообщения о том, что Claude использовался во время американской операции по поимке бывшего президента Венесуэлы Николаса Мадуро в начале того месяца. Амодей опроверг утверждения о том, что Anthropic ставит под сомнение какие-либо конкретные военные операции. «Anthropic понимает, что военные решения принимают Министерство войны, а не частные компании», — сказал он. «Мы никогда не выражали возражений против конкретных военных операций и не пытались ограничить использование наших технологий временным образом.» Несмотря на это, Амодей заявил, что использование этих систем для массового внутреннего наблюдения или автономного оружия несовместимо с демократическими ценностями и несёт серьёзные риски.

«Сегодня системы фронтирного ИИ просто недостаточно надёжны для питания полностью автономного оружия», — сказал он. «Мы не будем сознательно предоставлять продукт, который подвергает риску американских бойцов и гражданских лиц.» Он также обратился к угрозе Пентагона признать Anthropic «риском цепочки поставок», а также потенциально применить Закон об оборонном производстве. «Эти последние две угрозы по своей сути противоречивы: одна называет нас угрозой безопасности; другая называет Клода необходимым для национальной безопасности», — сказал он. Хотя Amodei заявила, что компания не выполнит запрос Пентагона, в то же время Anthropic пересмотрела свою политику ответственного масштабирования, отказавшись от обещания прекратить обучение современных систем без гарантированных гарантий. Роберт Вайсман, сопредседатель Public Citizen, заявил, что позиция Пентагона свидетельствует о более широком давлении на технологическую индустрию. «Пентагон публично запугивает Anthropic, и публичная часть — это намеренно, потому что они хотят оказать давление на эту конкретную компанию и послать сигнал всем крупным технологическим компаниям и корпорациям, что мы намерены делать и берём всё, что хотим, и не мешать нам», — сказал Вайсман Decrypt. Вайсман охарактеризовал ограничения Anthropic как «скромные» и направленные на предотвращение «неправильного наблюдения за американцами или на содействие разработке и развертыванию убийственных роботов — оружия с поддержкой ИИ, способных наносить смертоносные удары без разрешения человека». «Это самые разумные и скромные ограничения, которые вы могли придумать в отношении этой мощной новой технологии.»

Что касается угрозы Пентагона признать Anthropic «риском для цепочки поставок», Вайсман назвал это потенциально серьёзным наказанием со стороны правительства и утверждал, что это будет оказывать давление на другие компании, занимающиеся ИИ, чтобы они избегали подобных ограничений. «Отдельные люди могут использовать Claude, но ни одна из компаний ИИ, особенно Anthropic, не имеет бизнес-моделей, основанных на индивидуальном использовании; Они ищут коммерческое применение», — сказал он. «Это потенциально серьёзное наказание со стороны правительства.» Хотя Пентагон пока не сообщил, планирует ли он реализовать угрозу расторгнуть контракт или применить Закон об оборонном производстве, Вайссман заявил, что Пентагон даёт сигнал компаниям, занимающимся ИИ, что ожидает неограниченного доступа к их технологиям после её внедрения в государственные системы. «Послание Пентагона такова: “Мы не собираемся это терпеть, и ожидаем, что сможем использовать технологию в её изобретении для любых целей”, — сказал Вайсман. Министерство обороны и Anthropic не ответили сразу на запросы Decrypt s комментарии.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев