Foresight News đưa tin, Vitalik Buterin đã đăng bài trên Farcaster nói rằng mục tiêu của an toàn là giảm thiểu tối đa sự sai lệch giữa ý định của người dùng và hành vi thực tế của hệ thống. “Trải nghiệm người dùng” cũng có thể được định nghĩa như vậy, do đó an toàn và trải nghiệm người dùng không phải là các lĩnh vực độc lập; an toàn tập trung hơn vào rủi ro phần cuối (chi phí sai lệch lớn) và rủi ro do hành vi đối kháng gây ra. An toàn hoàn hảo là không thể, vì “ý định của người dùng” vốn cực kỳ phức tạp, người dùng khó có thể diễn đạt rõ ràng (ví dụ như “gửi 1 ETH cho Bob” trong đó Bob không thể định nghĩa bằng toán học). Các mục tiêu phức tạp hơn như “bảo vệ quyền riêng tư” cũng khó định nghĩa (dữ liệu meta bị rò rỉ xa hơn nhiều so với mã hóa). Điều này tương tự như các vấn đề an toàn AI thời kỳ đầu: mục tiêu khó có thể được xác định một cách ổn định.
Các đặc điểm của các giải pháp an toàn xuất sắc bao gồm: người dùng thể hiện ý định theo nhiều cách, chồng chéo nhau, hệ thống chỉ thực thi khi các ý định này phù hợp từ nhiều góc độ. Ví dụ bao gồm hệ thống kiểu trong lập trình, xác thực hình thức, mô phỏng giao dịch, khẳng định sau giao dịch, đa chữ ký / khôi phục xã hội, hạn mức chi tiêu và xác nhận ngoại lệ, nhằm giảm thiểu rủi ro thông qua dư thừa. Ngoài ra, LLM có thể được sử dụng như một mô phỏng ý định (LLM tổng quát gần như có thể mô phỏng kiến thức thông thường của con người, người dùng tinh chỉnh LLM để gần như mô phỏng chính họ), nhưng tuyệt đối không thể tự quyết định ý định một mình, chỉ nên được dùng như một phương pháp bổ sung từ các góc độ khác nhau để nâng cao hiệu quả dư thừa.
Bài viết liên quan
Cá mập lớn theo chu kỳ 「pension-usdt.eth」 1000 BTC lệnh mua dài hạn đang lỗ hơn 3,2 triệu USD
Vitalik Buterin Thúc Đẩy Bán Ra Một Lần Nữa — Điều Gì Đằng Sau Động Thái Này?
Giá trị thị trường của Ethereum giảm xuống vị trí thứ 89 trong các tài sản chính trên toàn cầu