Odaily Planet Daily News Anthropic đã loại bỏ cam kết an toàn cốt lõi khỏi chính sách mở rộng có trách nhiệm của mình, không còn cam kết đình chỉ đào tạo khi các biện pháp giảm thiểu rủi ro không được áp dụng đầy đủ. Jared Kaplan, giám đốc khoa học của Anthropic, nói với TIME rằng trong bối cảnh AI phát triển nhanh chóng, việc đơn phương cam kết đình chỉ đào tạo nếu các đối thủ tiếp tục tiến lên là vô nghĩa.
OpenAI cũng đã sửa đổi tuyên bố sứ mệnh của mình để loại bỏ từ “an toàn” khỏi hồ sơ IRS năm 2024, trước đây được tuyên bố là xây dựng AI đa năng “mang lại lợi ích an toàn cho nhân loại” và hiện được thay đổi để “đảm bảo rằng AI đa năng mang lại lợi ích cho toàn nhân loại”.
Edward Geist, nhà nghiên cứu chính sách cấp cao tại RAND Corporation, cho biết AI tiên tiến được hình dung bởi những người ủng hộ bảo mật AI ban đầu về cơ bản khác với các mô hình ngôn ngữ lớn hiện tại và sự thay đổi trong thuật ngữ cũng phản ánh mong muốn của công ty trong việc báo hiệu cho các nhà đầu tư và các nhà hoạch định chính sách rằng họ sẽ không lùi bước khỏi cạnh tranh kinh tế do lo ngại về bảo mật.
Anthropic gần đây đã hoàn thành khoản tài trợ 30 tỷ đô la với định giá khoảng 380 tỷ đô la; OpenAI đang tiến tới với vòng tài trợ lên đến 100 tỷ USD, được hỗ trợ bởi Amazon, Microsoft và Nvidia. Trong khi đó, Anthropic phải đối mặt với sự không chắc chắn về các hợp đồng quốc phòng của mình do bất đồng công khai với Bộ trưởng Quốc phòng Mỹ Pete Hegseth về việc từ chối mở cửa hoàn toàn cho Claude vào Lầu Năm Góc. (Giải mã)