AI hiện nay có thể làm nhiều việc - tạo ra cấp độ, thiết kế kẻ thù, thậm chí định hình tính cách nhân vật. Nhưng có một vấn đề nghiêm trọng: nó không thể giải thích tại sao nó lại làm như vậy.
Các mô hình như FET, đầu ra ấn tượng, nhưng quy trình ra quyết định? Hoàn toàn là một hộp đen.
Lấy một ví dụ: bạn đã dành thời gian để huấn luyện một kẻ thù AI dữ dội, nhưng nó đột nhiên bắt đầu đi lang thang khắp bản đồ. Bạn muốn sửa lỗi? Xin lỗi, bạn thậm chí còn không biết vấn đề nằm ở đâu. Không hiểu mô hình nghĩ gì, bạn không thể can thiệp.
Đội ngũ nghiên cứu của BeamAI đang làm việc với một thách thức lớn - biến logic quyết định của AI thành "hình ảnh hóa". Nếu các nhà phát triển có thể hiểu được con đường suy luận bên trong của mô hình, trải nghiệm trò chơi sẽ trở nên ổn định và cân bằng hơn, và hành vi của AI cũng sẽ trở nên hợp lý hơn.
Khi AI học cách "nộp bài" chứ không chỉ là "nộp câu trả lời", toàn bộ quy trình phát triển sẽ khác đi.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
15 thích
Phần thưởng
15
6
Đăng lại
Retweed
Bình luận
0/400
MissedAirdropBro
· 4giờ trước
Chỉ có sự minh bạch mới có thể đón nhận tương lai.
AI hiện nay có thể làm nhiều việc - tạo ra cấp độ, thiết kế kẻ thù, thậm chí định hình tính cách nhân vật. Nhưng có một vấn đề nghiêm trọng: nó không thể giải thích tại sao nó lại làm như vậy.
Các mô hình như FET, đầu ra ấn tượng, nhưng quy trình ra quyết định? Hoàn toàn là một hộp đen.
Lấy một ví dụ: bạn đã dành thời gian để huấn luyện một kẻ thù AI dữ dội, nhưng nó đột nhiên bắt đầu đi lang thang khắp bản đồ. Bạn muốn sửa lỗi? Xin lỗi, bạn thậm chí còn không biết vấn đề nằm ở đâu. Không hiểu mô hình nghĩ gì, bạn không thể can thiệp.
Đội ngũ nghiên cứu của BeamAI đang làm việc với một thách thức lớn - biến logic quyết định của AI thành "hình ảnh hóa". Nếu các nhà phát triển có thể hiểu được con đường suy luận bên trong của mô hình, trải nghiệm trò chơi sẽ trở nên ổn định và cân bằng hơn, và hành vi của AI cũng sẽ trở nên hợp lý hơn.
Khi AI học cách "nộp bài" chứ không chỉ là "nộp câu trả lời", toàn bộ quy trình phát triển sẽ khác đi.