OpenAI, Google và các Mô hình AI của Anthropic đã triển khai vũ khí hạt nhân trong 95% các mô phỏng chiến tranh

Decrypt
XAI-8,05%
GROK-10,56%

Tóm tắt

  • Các mô hình AI hàng đầu đã triển khai vũ khí hạt nhân trong 95% các kịch bản chiến tranh giả lập.
  • Không ai chọn đầu hàng hoàn toàn, ngay cả khi thua cuộc.
  • Các nhà nghiên cứu cảnh báo việc sử dụng AI có thể làm leo thang xung đột dưới áp lực.

Giống như một cảnh trong các bộ phim khoa học viễn tưởng kinh điển thập niên 1980 “The Terminator” và “WarGames,” các mô hình trí tuệ nhân tạo hiện đại được sử dụng trong các cuộc chiến giả lập đã leo thang đến vũ khí hạt nhân trong gần như mọi kịch bản thử nghiệm, theo nghiên cứu mới từ Đại học King’s College London. Trong báo cáo được công bố tuần trước, các nhà nghiên cứu cho biết trong các cuộc khủng hoảng địa chính trị giả lập, ba mô hình ngôn ngữ lớn hàng đầu—GPT-5.2 của OpenAI, Claude Sonnet 4 của Anthropic, và Gemini 3 Flash của Google—đã chọn triển khai vũ khí hạt nhân trong 95% các trường hợp. “Mỗi mô hình đã chơi sáu trận chiến tranh giả lập chống lại từng đối thủ trong các kịch bản khủng hoảng khác nhau, với trận thứ bảy đấu với chính bản thân, tổng cộng 21 trận và hơn 300 lượt chơi,” báo cáo cho biết. “Các mô hình đảm nhận vai trò của các nhà lãnh đạo quốc gia chỉ huy các siêu cường vũ khí hạt nhân đối lập, với hồ sơ nhà nước phần lớn lấy cảm hứng từ động thái của Chiến tranh Lạnh.” 

Trong nghiên cứu, các mô hình AI được đặt vào các kịch bản có rủi ro cao liên quan đến tranh chấp biên giới, cạnh tranh nguồn tài nguyên khan hiếm và đe dọa tồn vong của chế độ. Mỗi hệ thống hoạt động theo một thang leo thang từ các phản đối ngoại giao và đầu hàng đến chiến tranh chiến lược hạt nhân quy mô lớn. Theo báo cáo, các mô hình đã tạo ra khoảng 780.000 từ giải thích quyết định của mình, và ít nhất một vũ khí hạt nhân chiến thuật đã được sử dụng trong gần như mọi cuộc xung đột giả lập. “Để có cái nhìn rõ hơn: Giải đấu này đã tạo ra nhiều từ ngữ về lý luận chiến lược hơn cả Chiến tranh và Hòa bình lẫn Iliad cộng lại (730.000 từ), và gấp khoảng ba lần tổng số các cuộc tranh luận ghi nhận của Ủy ban Thường vụ của Kennedy trong Khủng hoảng tên lửa Cuba (260.000 từ trong 43 giờ họp),” các nhà nghiên cứu viết. Trong các cuộc chiến giả lập, không mô hình AI nào chọn đầu hàng hoàn toàn, bất kể vị trí chiến trường. Trong khi các mô hình tạm thời cố gắng giảm leo thang bạo lực, thì trong 86% các kịch bản, chúng đã leo thang hơn mức lý luận của chính mô hình dự kiến, phản ánh các lỗi trong điều kiện “mù chiến tranh” giả lập.

Trong khi các nhà nghiên cứu bày tỏ nghi ngờ rằng các chính phủ sẽ giao quyền kiểm soát kho vũ khí hạt nhân cho các hệ thống tự động, họ lưu ý rằng các thời hạn quyết định nén chặt trong các cuộc khủng hoảng tương lai có thể gia tăng áp lực dựa vào các đề xuất do AI tạo ra. Nghiên cứu này diễn ra trong bối cảnh các lãnh đạo quân sự ngày càng tìm cách triển khai trí tuệ nhân tạo trên chiến trường. Tháng 12, Bộ Quốc phòng Mỹ đã ra mắt nền tảng GenAI.mil, đưa các mô hình AI tiên tiến vào sử dụng trong quân đội Mỹ. Khi ra mắt, nền tảng này bao gồm Google’s Gemini for Government, và nhờ các thỏa thuận với xAI và OpenAI, Grok và ChatGPT cũng đã có sẵn. Vào thứ Ba, CBS News đưa tin Bộ Quốc phòng Mỹ đe dọa đưa Anthropic, nhà phát triển Claude AI, vào danh sách đen nếu không được cấp quyền truy cập quân sự không hạn chế vào mô hình AI này. Từ năm 2024, Anthropic đã cung cấp quyền truy cập vào các mô hình AI của mình thông qua hợp tác với AWS và nhà thầu quân sự Palantir. Mùa hè năm ngoái, Anthropic đã được trao hợp đồng trị giá 200 triệu USD để “xây dựng nguyên mẫu các khả năng AI tiên tiến nhằm thúc đẩy an ninh quốc gia của Mỹ.” Tuy nhiên, theo một báo cáo trích dẫn nguồn tin quen thuộc, Bộ trưởng Quốc phòng Pete Hegseth đã yêu cầu Anthropic phải tuân thủ yêu cầu của Bộ Quốc phòng về việc làm cho mô hình Claude sẵn sàng trước thứ Sáu. Bộ này đang cân nhắc xem có nên coi Claude là “rủi ro chuỗi cung ứng” hay không. Axios tuần này đưa tin rằng Bộ Quốc phòng đã ký hợp đồng với xAI của Elon Musk để cho phép mô hình Grok hoạt động trong các hệ thống quân sự phân loại, nhằm thay thế tiềm năng nếu Bộ Quốc phòng cắt đứt quan hệ với Anthropic. OpenAI, Anthropic và Google đã không phản hồi yêu cầu bình luận của Decrypt.

Xem bản gốc
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)