Tóm tắt
OpenAI cho biết vào thứ Hai rằng họ đang triển khai một phiên bản tùy chỉnh của ChatGPT trên GenAI.mil, nền tảng AI do Bộ Quốc phòng Hoa Kỳ phát triển. Động thái này mở rộng khả năng truy cập các mô hình AI sinh tạo mạnh mẽ của quân đội, mặc dù các nhà phê bình cảnh báo rằng lỗi người dùng vẫn là một rủi ro an ninh chính. ChatGPT gia nhập danh sách ngày càng tăng các mô hình AI được cung cấp cho quân đội Hoa Kỳ, bao gồm Gemini của Google và Grok, hệ thống AI do xAI phát triển, đã được tích hợp vào SpaceX đầu tháng này.
“Chúng tôi tin rằng những người chịu trách nhiệm bảo vệ đất nước nên có quyền truy cập vào những công cụ tốt nhất có sẵn, và điều quan trọng là Hoa Kỳ và các quốc gia dân chủ khác hiểu cách mà AI, với các biện pháp bảo vệ thích hợp, có thể giúp bảo vệ con người, ngăn chặn đối phương và phòng ngừa xung đột trong tương lai,” OpenAI cho biết trong một tuyên bố. OpenAI cho biết phiên bản ChatGPT trên GenAI.mil được phê duyệt để sử dụng cho dữ liệu không phân loại của Bộ Quốc phòng và sẽ chạy trong hạ tầng đám mây chính phủ được ủy quyền. Theo OpenAI, hệ thống này bao gồm các biện pháp bảo vệ nhằm bảo vệ dữ liệu nhạy cảm. Tuy nhiên, J.B. Branch, Nhà vận động trách nhiệm của Big Tech tại Public Citizen, cảnh báo rằng sự quá phụ thuộc vào AI của người dùng có thể làm suy yếu các biện pháp bảo vệ đó.
“Nghiên cứu cho thấy rằng khi mọi người sử dụng các mô hình ngôn ngữ lớn này, họ thường tin tưởng chúng một cách quá mức,” Branch nói với Decrypt. “Vì vậy, trong các tình huống có tác động cao như quân đội, điều này càng làm cho việc đảm bảo tính chính xác trở nên quan trọng hơn.” Việc triển khai diễn ra khi Pentagon thúc đẩy nhanh việc áp dụng AI thương mại trong các mạng lưới quân sự và khi các nhà phát triển AI tìm kiếm lợi nhuận. Vào tháng 1, Bộ trưởng Quốc phòng Pete Hegseth cho biết bộ này dự định triển khai các mô hình AI hàng đầu trên cả mạng lưới quân sự không phân loại và có phân loại. Trong khi OpenAI nói rằng phiên bản tùy chỉnh của ChatGPT chỉ dành cho dữ liệu không phân loại, Branch cảnh báo rằng việc đưa bất kỳ thông tin nhạy cảm nào vào hệ thống AI có thể khiến dữ liệu đó dễ bị đối phương tấn công, đồng thời nhấn mạnh rằng người dùng thường nhầm lẫn các công cụ này với các kho dữ liệu an toàn. “Thông tin có phân loại chỉ dành cho một số người nhất định xem xét,” ông nói. “Vì vậy, ngay cả khi bạn có hệ thống cắt bỏ chỉ cho phép trong quân đội, điều đó không thay đổi thực tế rằng dữ liệu có phân loại chỉ dành cho một nhóm người hạn chế.” OpenAI chưa phản hồi ngay yêu cầu bình luận của Decrypt.