Tờ Wall Street Journal đưa tin rằng bất chấp lệnh cấm của Trump, quân đội Mỹ vẫn sử dụng Claude trong các cuộc không kích vào Iran. Do từ chối sử dụng quân sự không giới hạn, Anthropic đã mất 200 triệu USD trong hợp đồng và được liệt kê là “rủi ro chuỗi cung ứng”, và Lầu Năm Góc hiện đã chuyển sang hợp tác với OpenAI.
Gần đây, Mỹ đã hợp lực với Israel để tấn công Iran, và Tổng thống Trump đã ra lệnh cho chính phủ cấm sử dụng Claude AI của Anthropic, vốn đã thu hút sự chú ý của quốc tế. Nhưng theo Wall Street Journal, vài giờ sau lệnh cấm của Trump, quân đội Mỹ vẫn sử dụng hệ thống Claude trong các cuộc không kích của Iran.
Theo những người quen thuộc với vấn đề này, chính quyền Trump đã chỉ thị các cơ quan liên bang ngừng làm việc với công ty vào thứ Sáu tuần trước và yêu cầu Bộ Quốc phòng coi đó là một rủi ro an ninh tiềm ẩn.Tuy nhiên, các bộ chỉ huy quân sự, bao gồm Bộ Tư lệnh Trung ương Hoa Kỳ (CENTCOM), vẫn sử dụng mô hình Claude AI của Anthropic để hỗ trợ hoạt động, hỗ trợ phân tích tình báo, xác định các mục tiêu tiềm năng và thực hiện mô phỏng chiến trường.
Lý do cho lệnh cấm của chính phủ Hoa Kỳ đối với Cluade là các cuộc đàm phán hợp đồng giữa hai bên đã đổ vỡ và Anthropic từ chối cho phép chính phủ vượt qua hàng rào bảo vệ, cho phép các quan chức quốc phòng sử dụng AI của mình cho mục đích quân sự mà không bị hạn chế trong bất kỳ kịch bản pháp lý nào.
Trước đó, Anthropic đã đồng đảm bảo một hợp đồng nhiều năm trị giá lên đến 200 triệu USD từ Lầu Năm Góc với một số công ty AI lớn khác.Thông qua quan hệ đối tác với Palantir và Amazon Web Services, Claude được chấp thuận để sử dụng trong các quy trình hoạt động và tình báo mật.
Tờ Wall Street Journal chỉ ra rằng Cluade cũng tham gia vào các hoạt động quân sự ban đầu, bao gồm cả nhiệm vụ dẫn đến việc bắt giữ Tổng thống Nicolás Maduro ở Venezuela vào tháng Giêng năm nay.
Tuy nhiên, căng thẳng giữa hai bên gia tăng sau khi Bộ trưởng Quốc phòng Mỹ Pete Hegseth yêu cầu Anthropic cho phép quân đội sử dụng không giới hạn mô hình Claude.Giám đốc điều hành Anthropic Dario Amodei đã từ chối yêu cầu của quân đội Mỹ và nói rằng một số ứng dụng là ranh giới đạo đức mà các công ty sẽ không bao giờ vượt qua, ngay cả khi điều đó sẽ khiến họ mất công việc kinh doanh của chính phủ.
Để đạt được mục tiêu này, Lầu Năm Góc bắt đầu tìm kiếm các nhà cung cấp thay thế và đạt được thỏa thuận với OpenAI để triển khai mô hình ChatGPT trong các mạng quân sự được phân loại.
Sau khi OpenAI đạt được thỏa thuận với quân đội Mỹ, nó ngay lập tức phải đối mặt với phản ứng dữ dội từ thế giới bên ngoài. Biên tập viên Sreemoy Talukdar của Firstpost đã bình luận về điều này, chỉ ra rằng Anthropic trước đây đã bày tỏ sự không sẵn sàng vi phạm các nguyên tắc cốt lõi của mình về hệ thống vũ khí tự động và giám sát nội địa quy mô lớn, và sau đó Bộ Chiến tranh của Trump đã đình chỉ hợp tác giữa hai bên.
Nhưng giờ đây, Giám đốc điều hành OpenAI Sam Altman đã tuyên bố rằng Bộ Chiến tranh đã đồng ý với các nguyên tắc bảo mật tương tự, điều này đã làm dấy lên các cuộc thảo luận về các tiêu chuẩn hợp đồng.
Nguồn: X OpenAI tiếp quản hợp đồng quân sự của Mỹ, đặt ra câu hỏi từ thế giới bên ngoài
Anthropic hiện đang tranh chấp với Nhà Trắng vì từ chối cho phép quân đội Mỹ sử dụng Claude mà không bị hạn chế, và Bộ trưởng Quốc phòng Pete Hegseth đã công khai xác định Anthropic là một “rủi ro chuỗi cung ứng”.
Điều này cũng khiến Anthropic trở thành công ty Mỹ đầu tiên trong lịch sử được dán nhãn công khai là “rủi ro chuỗi cung ứng”, thường chỉ dành cho các công ty liên quan trực tiếp đến các thế lực thù địch nước ngoài.
Sau khi được liệt kê là rủi ro, chính phủ sẽ có quyền yêu cầu tất cả các nhà thầu làm việc với quân đội phải chứng minh rằng công việc liên quan đến quân sự của họ chưa tiếp xúc với các sản phẩm của Anthropic.Đối mặt với quyết định của chính phủ, Anthropic dự đoán việc xác định rủi ro chuỗi cung ứng và đưa ra một thách thức pháp lý, và nói:
“Điều này không phù hợp với luật pháp cũng như sẽ tạo ra một tiền lệ nguy hiểm cho bất kỳ công ty Mỹ nào đàm phán với chính phủ, và cho dù Bộ Chiến tranh Mỹ đe dọa hay trừng phạt như thế nào, nó sẽ không thay đổi lập trường của chúng tôi về giám sát nội địa quy mô lớn hoặc vũ khí hoàn toàn tự động”.
Đọc thêm:
An ninh quốc gia VS Đạo đức: Anthropic từ chối dỡ bỏ lan can an ninh của Claude, đánh vào Bộ Quốc phòng Hoa Kỳ