Anthropic подає позов проти адміністрації Трампа через позначення «ризику ланцюга постачання»

Decrypt

Коротко

  • Anthropic подав у суд на федеральні агентства після того, як його позначили як «ризик для ланцюга постачання» у національній безпеці.
  • Спір виник через відмову компанії дозволити необмежене військове використання її ШІ.
  • Таке позначення забороняє підрядникам Пентагону співпрацювати з компанією.

Anthropic звернувся до федеральних судів із позовом проти широкомасштабного чорного списку, введеного адміністрацією Дональда Трампа, стверджуючи, що уряд позначив стартап штучного інтелекту як загрозу національній безпеці у відповідь на його відмову послабити протоколи безпеки. Позов, поданий у понеділок у Окружному суді США Північної Каліфорнії, оскаржує дії, вжиті після того, як президент Трамп у лютому наказав федеральним агентствам припинити використання технологій Anthropic. Це сталося після публічних коментарів генерального директора Anthropic Даріо Амоді, який заявив, що компанія не буде виконувати запит Пентагону щодо необмеженого доступу до Claude. У позові названо кілька федеральних агентств і високопосадовців як відповідачів, зокрема міністра оборони Піта Хегсета, міністра казначейства Скота Бессента та міністра закордонних справ Марко Рубіо. «Конституція не дозволяє уряду використовувати свою величезну силу для покарання компанії за її захищену свободу слова», — заявили юристи Anthropic у позові. «Жоден федеральний закон не надає таких повноважень. Anthropic звертається до суду як до останньої інстанції, щоб захистити свої права і зупинити незаконну кампанію уряду з відплати».

За вказівкою @POTUS, @USTreasury припиняє всі використання продуктів Anthropic, включно з платформою Claude, у нашому департаменті.

Народ США заслуговує на довіру, що кожен інструмент у уряді служить інтересам громадськості, і за президентства Трампа… https://t.co/R7rF0ci5CY

— Міністр казначейства Скота Бессент (@SecScottBessent) 2 березня 2026

Спір розпочався у січні, коли офіційні особи Пентагону вимагали від підрядників ШІ дозволити використання їхніх систем для «будь-яких законних цілей», включно з військовими застосуваннями. Хоча Anthropic вже уклав контракт на 200 мільйонів доларів із Міністерством оборони, компанія відмовилася зняти два запобіжники, що забороняли використання Claude для масового внутрішнього спостереження за американцями або для повністю автономних летальних систем озброєння. «Застосовані дії спричиняють негайну та незворотну шкоду Anthropic; іншим, чия свобода слова буде обмежена; тим, хто отримує економічну вигоду від діяльності компанії; і світовій громадськості, яка заслуговує на відкритий діалог і дебати щодо значення ШІ для війни та спостереження», — заявили юристи Anthropic у позові. Для розробників ШІ, зокрема генерального директора SingularityNET Бена Гертцеля, таке позначення є дивним і не відповідає типовому розумінню загрози для ланцюга постачання, що зазвичай стосується програмного забезпечення від противників, яке може містити приховане шкідливе програмне забезпечення, віруси або шпигунське ПО.

«Відмова Anthropic дозволити використання їхнього програмного забезпечення для автономного вбивства або масового спостереження не здається такою загрозою», — сказав Гертцель у Decrypt. «Це просто означає, що якщо хочете використовувати програмне забезпечення для автономного вбивства або масового спостереження, купуйте чужий софт. Логіка зробити це ризиком для ланцюга постачання мені незрозуміла». Гертцель зазначив, що різниця між провідними моделями ШІ може обмежити практичний вплив такого рішення.  «Зрештою, Claude, ChatGPT і Gemini не так вже й різняться між собою», — сказав він. «Поки одна з цих топ-систем використовується урядом США, все зводиться до одного й того ж. А розвідка, під прикриттям секретного рівня допуску, використовуватиме цей софт так, як їм заманеться». Anthropic просить суд оголосити дії уряду незаконними і заборонити застосування позначення «ризик для ланцюга постачання», яке забороняє федеральним агентствам і підрядникам Пентагону співпрацювати з компанією. «Немає жодного обґрунтованого виправдання для застосованих дій», — йдеться у позові. «Суд має оголосити їх незаконними і заборонити відповідачам вживати будь-яких заходів для їх реалізації». Anthropic не одразу відповів на запити про коментар Decrypt. Навіть після того, як Anthropic було позначено як ризик для національної безпеки, Claude використовувався у поточних військових операціях, зокрема командою Центрального командування США для аналізу розвідданих і визначення цілей під час ударів по Ірану.

Дженніфер Хаддлестон, старший співробітник у політиці технологій у Cato Institute, у заяві, поширеній Decrypt, зазначила, що цей випадок піднімає питання про конституційні гарантії, коли національні безпекові претензії використовуються для виправдання дій уряду. «Хоча раніше суди були обережні у ставленні до запитів уряду щодо національної безпеки, обставини цього випадку безумовно підкреслюють реальний ризик для перших поправок американців, якщо підстави таких претензій не будуть ретельно перевірені», — сказала вона.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів