A Microsoft apoia a Anthropic contra a designação de risco da cadeia de abastecimento do governo Trump

Decrypt

Resumo

  • A Microsoft apoiou a Anthropic no tribunal para proteger bilhões ligados ao Claude e ao Azure.
  • A lista negra do Pentágono pode impactar todo o ecossistema de contratantes de IA.
  • A Microsoft argumentou que o DoD usou uma designação de segurança de adversário estrangeiro de forma “sem precedentes”.

A Microsoft tem até 5 bilhões de dólares investidos na Anthropic, enquanto a Anthropic comprometeu-se a comprar 30 bilhões de dólares em capacidade de Azure sob a parceria. Esse contexto torna sua decisão de apresentar um amicus curiae em apoio ao processo da Anthropic contra o Departamento de Defesa dos EUA menos altruísta e mais uma defesa financeira própria. O documento, apresentado em 10 de março em São Francisco, argumenta que uma ordem de restrição temporária que bloqueie a aplicação da designação de “risco na cadeia de suprimentos” do Pentágono serviria ao interesse público. A própria Microsoft é uma grande contratante do DoD, e essa designação coloca seus próprios produtos em risco. O Secretário de Defesa, Pete Hegseth, ordenou que nenhum contratante, fornecedor ou parceiro que faça negócios com o exército dos EUA possa realizar atividades comerciais com a Anthropic — uma medida potencialmente ampla o suficiente para abranger os produtos Copilot e Azure da Microsoft, que suportam o Claude.

 O documento destaca uma contradição processual que recebeu pouca atenção na cobertura mainstream: o Departamento de Defesa deu a si mesmo um período de seis meses para descontinuar o uso das ferramentas da Anthropic, mas aplicou a designação aos contratantes imediatamente, sem um período de transição equivalente. Os advogados da Microsoft apontaram isso diretamente, observando que os fornecedores de tecnologia agora precisam correr para auditar, reengenhar e recontratar produtos em um cronograma que o próprio governo não impôs a si. A Microsoft também levantou um alerta que toca o núcleo da disputa legal. A autoridade invocada — 10 U.S.C. § 3252 — foi historicamente reservada para adversários estrangeiros. Apenas uma designação desse tipo foi emitida publicamente sob estatutos relacionados, e foi contra a Acronis AG, uma empresa suíça de software com ligações à Rússia. Usá-la contra uma startup de IA de São Francisco é, como afirmou a Microsoft, “sem precedentes”.

O argumento mais contundente do documento é estrutural. Se uma disputa contratual entre uma agência e uma empresa pode desencadear uma lista negra de segurança nacional, então toda empresa que faz negócios com o governo federal herdou uma nova categoria de risco existencial. Os advogados da Microsoft descreveram um modelo de indústria baseado em serviços interconectados, onde um componente banido pode paralisar linhas inteiras de produtos. Há uma ironia difícil de ignorar. A Microsoft é simultaneamente a maior apoiadora da OpenAI — com investimentos avaliados em aproximadamente 135 bilhões de dólares — e agora uma das defensoras mais vocais da Anthropic em tribunal. A OpenAI, por sua parte, apressou-se a assinar um acordo com o DoD horas após a lista negra da Anthropic ser divulgada, uma ação que gerou resistência interna e levou ao reconhecimento público do CEO da OpenAI, Sam Altman, de que o anúncio “parecia oportunista e desleixado”. A Microsoft apoiou ambos os lados.

Aqui está uma repostagem de uma postagem interna:

Temos trabalhado com o DoW para fazer algumas adições ao nosso acordo, deixando nossos princípios bem claros.

  1. Vamos alterar nosso contrato para incluir essa linguagem, além de tudo o mais:

"• Em conformidade com as leis aplicáveis,…

— Sam Altman (@sama) 3 de março de 2026

O documento não chega a endossar as posições específicas da Anthropic sobre segurança de IA, armas autônomas e vigilância em massa — as duas linhas vermelhas que desencadearam o impasse. Em vez disso, enquadra o caso em termos que qualquer contratante do governo pode entender: devido processual, transições ordenadas e os efeitos de weaponizar a lei de compras públicas sobre desacordos políticos. O pedido da Microsoft é uma ordem de restrição temporária, não uma sentença definitiva. A gigante da tecnologia quer que o tempo seja suficiente para que as partes negociem — e para que seus próprios produtos permaneçam legalmente utilizáveis enquanto isso acontece. O que está em jogo vai além do contrato de uma única empresa. Se os tribunais permitirem que a ação do Pentágono seja mantida, então toda empresa de IA que venda para o governo acaba de aprender que as salvaguardas de segurança podem ser recontextualizadas como ameaças à segurança nacional. O documento da Microsoft deixa claro que essa lição não passa despercebida pela indústria de tecnologia — e que a empresa não está disposta a aprendê-la de forma silenciosa.

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário