A Anthropic recorreu aos tribunais federais para contestar uma lista negra abrangente pelo governo de Donald Trump, alegando que o governo rotulou a startup de IA como uma ameaça à segurança nacional em retaliação pela sua recusa em relaxar os protocolos de segurança. A ação, apresentada na segunda-feira no Tribunal Distrital dos Estados Unidos no Norte da Califórnia, desafia ações tomadas após o presidente Trump ter orientado as agências federais em fevereiro a parar de usar a tecnologia da Anthropic. Isso seguiu comentários públicos do CEO da Anthropic, Dario Amodei, que afirmou que a empresa não cumpriria o pedido do Pentágono de acesso irrestrito ao Claude. A queixa nomeia várias agências federais e altos funcionários como réus, incluindo o Secretário de Defesa Pete Hegseth, o Secretário do Tesouro Scott Bessent e o Secretário de Estado Marco Rubio. “A Constituição não permite que o governo use seu enorme poder para punir uma empresa por sua fala protegida”, disseram os advogados da Anthropic na ação. “Nenhum estatuto federal autoriza as ações aqui tomadas. A Anthropic recorre ao judiciário como último recurso para defender seus direitos e interromper a campanha ilegal de retaliação do Executivo.”
Sob orientação do @POTUS, o @USTreasury está encerrando todo uso dos produtos da Anthropic, incluindo a plataforma Claude, dentro do nosso departamento.
O povo americano merece confiança de que todas as ferramentas do governo servem ao interesse público, e sob o presidente Trump… https://t.co/R7rF0ci5CY
— Secretário do Tesouro Scott Bessent (@SecScottBessent) 2 de março de 2026
A disputa começou em janeiro, quando oficiais do Pentágono exigiram que os contratantes de IA permitissem o uso de seus sistemas para “qualquer uso legal”, incluindo aplicações militares. Embora a Anthropic já tivesse firmado um contrato de 200 milhões de dólares com o Departamento de Defesa, recusou-se a remover duas salvaguardas que proibiam o uso do Claude para vigilância doméstica em massa de americanos ou para sistemas autônomos de armas letais totalmente autônomas. “As ações contestadas causam dano imediato e irreparável à Anthropic; a outros cujo discurso será silenciado; àqueles que se beneficiam do valor econômico que a empresa pode continuar a criar; e a um público global que merece diálogo e debate robustos sobre o que a IA significa para a guerra e a vigilância”, afirmaram os advogados da Anthropic na ação. Para desenvolvedores de IA, incluindo o CEO da SingularityNET, Ben Goertzel, a designação é uma escolha estranha e não condiz com o significado típico de uma ameaça na cadeia de abastecimento, algo geralmente reservado a softwares de adversários que podem conter malware, vírus ou spyware ocultos.
“Anthropic não estar disposto a que seu software seja usado para matar autonomamente ou para vigilância em massa não parece representar esse tipo de risco,” disse Goertzel ao Decrypt. “Isso só significa que, se você quiser usar software para matar autonomamente ou vigilância em massa, então compre o software de outra pessoa. Portanto, a lógica de torná-lo um risco na cadeia de abastecimento me escapa.” Goertzel afirmou que diferenças entre os principais modelos de IA podem limitar o impacto prático da decisão. “No final, Claude, ChatGPT e Gemini não estão tão distantes um do outro,” disse ele. “Contanto que um desses sistemas principais seja usado pelo governo dos EUA, tudo se resume à mesma coisa. E as agências de inteligência, sob o manto de uma autorização de segredo de estado, usariam o software como quisessem.” A Anthropic pede ao tribunal que declare as ações do governo ilegais e bloqueie a aplicação da designação de “risco na cadeia de abastecimento” que impede agências federais e contratantes do Pentágono de fazer negócios com a empresa. “Não há justificativa válida para as ações contestadas,” afirmou a ação. “O Tribunal deve declará-las ilegais e impedir os réus de tomar quaisquer medidas para implementá-las.” A Anthropic não respondeu imediatamente a pedidos de comentário do Decrypt. Mesmo após a designação da Anthropic como risco à segurança nacional, o Claude tem sido utilizado em operações militares em andamento, incluindo pelo Comando Central dos EUA para ajudar na análise de inteligência e identificação de alvos durante ataques ao Irã.
Jennifer Huddleston, especialista sênior em política de tecnologia no Cato Institute, afirmou em uma declaração compartilhada com o Decrypt que o caso levanta preocupações sobre as proteções constitucionais quando alegações de segurança nacional são usadas para justificar ações do governo. “Embora os tribunais tenham sido relutantes no passado em questionar as alegações do governo de preocupações de segurança nacional, as circunstâncias deste caso certamente destacam o risco real às direitos da Primeira Emenda dos americanos se as considerações subjacentes a tais alegações não forem minuciosamente examinadas,” afirmou.