Um juiz federal dos Estados Unidos em São Francisco bloqueou temporariamente a designação do Pentágono da empresa de IA Anthropic como risco na cadeia de abastecimento, interrompendo uma diretiva que ordenava às agências federais que parassem de usar o chatbot Claude. A juíza Rita Lin decidiu que as ações do governo pareciam arbitrárias e potencialmente retaliatórias, afirmando que não havia base legal para rotular uma empresa americana como ameaça à segurança nacional por discordar da política governamental.



A disputa começou após o colapso das negociações sobre um contrato do Pentágono que permitiria o uso militar da IA da Anthropic sem restrições. A Anthropic opôs-se ao uso de sua tecnologia em armas autônomas letais e na vigilância doméstica em massa, levando a administração a avançar para uma proibição em todo o governo. A liminar do tribunal permite que a Anthropic continue operando junto das agências federais enquanto o processo judicial prossegue.
Ver original
post-image
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Contém conteúdo gerado por IA
  • Recompensa
  • 1
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
DONMADOLLARvip
· 2h atrás
2026 GOGOGO 👊
Responder0
  • Marcar