Chi phí mã hóa token của ngôn ngữ tiếng Trung của Claude cao hơn 65% so với tiếng Anh, OpenAI chỉ cao hơn 15%

Tin tức Gate, 29 tháng 4 — Nhà nghiên cứu AI Aran Komatsuzaki đã tiến hành phân tích so sánh hiệu quả mã hóa token trên sáu mô hình AI lớn bằng cách dịch bài nghiên cứu mang tính nền tảng của Rich Sutton “The Bitter Lesson” sang chín ngôn ngữ và xử lý chúng qua bộ mã hóa của OpenAI, Gemini, Qwen, DeepSeek, Kimi và Claude. Dùng số lượng token của phiên bản tiếng Anh trên OpenAI làm mốc cơ sở (1x), nghiên cứu cho thấy sự chênh lệch đáng kể: khi xử lý cùng một nội dung bằng tiếng Trung, Claude cần 1.65x token, trong khi OpenAI chỉ cần 1.15x. Tiếng Hindi cho kết quả còn cực đoan hơn trên Claude, vượt mốc cơ sở hơn 3x. Anthropic xếp vị trí thấp nhất trong số sáu mô hình được thử nghiệm.

Điểm mấu chốt là, khi cùng một văn bản tiếng Trung được xử lý trên các mô hình khác nhau—tất cả đều được đo so với cùng một mốc nền tiếng Anh—kết quả lại phân kỳ mạnh mẽ: Kimi chỉ tiêu thụ 0.81x token (thậm chí ít hơn cả tiếng Anh), Qwen 0.85x, trong khi Claude cần 1.65x. Khoảng cách này cho thấy một vấn đề thuần túy về hiệu quả mã hóa token, chứ không phải vấn đề vốn có của ngôn ngữ. Các mô hình tiếng Trung thể hiện hiệu quả cao hơn khi xử lý tiếng Trung, gợi ý rằng sự chênh lệch bắt nguồn từ việc tối ưu hóa bộ mã hóa thay vì từ bản thân ngôn ngữ.

Ý nghĩa thực tiễn đối với người dùng là rất lớn: việc tiêu thụ token nhiều hơn trực tiếp làm tăng chi phí API, kéo dài độ trễ phản hồi của mô hình và làm cạn kiệt nhanh hơn các cửa sổ ngữ cảnh. Hiệu quả mã hóa token phụ thuộc vào thành phần ngôn ngữ trong dữ liệu huấn luyện của một mô hình—những mô hình được huấn luyện chủ yếu bằng tiếng Anh sẽ nén văn bản tiếng Anh hiệu quả hơn, trong khi các ngôn ngữ có mức độ dữ liệu thể hiện thấp hơn sẽ được mã hóa thành các mảnh nhỏ hơn, kém hiệu quả hơn.

Kết luận của Komatsuzaki nhấn mạnh một nguyên tắc cơ bản: quy mô thị trường quyết định hiệu quả mã hóa token. Thị trường càng lớn thì mức tối ưu càng tốt, còn các ngôn ngữ ít được đại diện sẽ phải chịu chi phí token cao hơn đáng kể.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

Nhà nghiên cứu đa phương thức DeepSeek gợi ý về mô hình thị giác mới vào ngày 29 tháng 4

Vào ngày 29 tháng 4, nhà nghiên cứu thuộc nhóm đa phương thức của DeepSeek, Xiaokang Chen, đã đăng trên X: "Bây giờ, chúng tôi thấy bạn," kèm theo hai hình ảnh về linh vật cá voi của DeepSeek—một hình với mắt nhắm và một hình với mắt mở. Bài đăng dường như ám chỉ một mô hình thị giác sắp ra mắt, phù hợp với vai trò của Chen là nhà nghiên cứu trong nhóm đa phương thức của DeepSeek

GateNews4phút trước

LG Mở Rộng Quan Hệ Đối Tác Với Nvidia Sang AI Vật Lý, Bao Gồm Robot và Trung Tâm Dữ Liệu

Tin tức Cổng, ngày 29 tháng 4 — LG Electronics của Hàn Quốc cho biết trong cuộc gọi công bố kết quả kinh doanh quý 1 năm 2026 rằng hãng đang mở rộng sự hợp tác với Nvidia sang AI vật lý, với các dự án dự kiến trong lĩnh vực robot, di chuyển và trung tâm dữ liệu. LG dự kiến tích hợp robot gia đình CLOiD của mình với Nvidia

GateNews22phút trước

Nhà phân tích ngành bán dẫn lạc quan về xu hướng AI “ít nhất còn đi thêm 3 năm”: đóng gói tiên tiến mới là nút thắt của ngành

Bubble Boi cho rằng chu kỳ đầu tư bằng AI vẫn ở giai đoạn sớm, dự kiến ít nhất còn thêm ba năm tăng giá, và không có ý định chốt lời. Anh ấy cho rằng đóng gói tiên tiến mới là nút thắt thực sự của ngành bán dẫn, cần tích hợp thêm nhiều HBM và các chip lớn hơn trong cùng một gói. Anh ấy lạc quan về NAND/Flash, giá có thể tiếp tục tăng, và trong tương lai có thể tham gia chuỗi cung ứng flash. Chiến lược cá nhân của anh ấy là vay vốn để gia tăng nắm giữ, đồng thời dùng nền tảng chuyên môn kỹ thuật để hiểu các chi tiết công nghệ, coi đây là một lợi thế.

ChainNewsAbmedia1giờ trước

AWS Mở rộng Tích hợp OpenAI trong Amazon Bedrock

Amazon Web Services đã công bố vào ngày 29 tháng 4 một sự mở rộng đáng kể trong quan hệ hợp tác của mình với OpenAI, tích hợp các năng lực mới nhất của OpenAI vào cơ sở hạ tầng đám mây của họ. Sự mở rộng này mang đến ba dịch vụ mới cho Amazon Bedrock: các mô hình mới nhất của OpenAI (limited preview), bộ lập trình

CryptoFrontier1giờ trước

Các nhà nghiên cứu của OpenAI: Hệ thống AI có thể xử lý phần lớn công việc nghiên cứu trong vòng hai năm

Tin tức Cổng, ngày 29 tháng 4 — Các nhà nghiên cứu của OpenAI, Sébastien Bubeck và Ernest Ryu, cho biết các hệ thống AI có thể thực hiện phần lớn công việc nghiên cứu của con người trong vòng hai năm, coi toán học là thước đo rõ ràng cho tiến bộ của AI. Khác với các bài kiểm tra hiệu suất mơ hồ, các bài toán mang lại khả năng xác minh chính xác: câu trả lời hoặc đúng hoặc sai, không để chỗ cho sự mơ hồ:

GateNews1giờ trước

Quốc vương Charles III gặp sáu CEO công nghệ Mỹ, gồm Jensen Huang, Jeff Bezos và Tim Cook, để thảo luận quỹ khởi nghiệp của Vương quốc Anh

Tin tức Gate, ngày 29 tháng 4 — Trong chuyến thăm cấp nhà nước tới Hoa Kỳ, Quốc vương Charles III đã gặp sáu nhà lãnh đạo công nghệ Mỹ hàng đầu tại Blair House ở Washington: CEO NVIDIA Jensen Huang, người sáng lập Amazon Jeff Bezos, CEO Apple Tim Cook, CEO AMD Su Zifeng, CEO Salesforce Marc Benioff, và

GateNews2giờ trước
Bình luận
0/400
Không có bình luận