Tin tức cổng, ngày 29 tháng 4 — Theo những nhận xét gần đây từ Giám đốc điều hành OpenAI Sam Altman và các lãnh đạo của AWS, các mô hình OpenAI đang chạy trên Amazon Web Services’ Bedrock sẽ dần dần chuyển sang Trainium, con chip AI do Amazon tự thiết kế. Hiện tại, các mô hình hoạt động trong một môi trường kết hợp, sử dụng cả GPU và Trainium, với tỷ trọng ngày càng tăng chuyển sang Trainium theo thời gian. Altman cho biết công ty đang “mong chờ việc chuyển các mô hình sang Trainium.”
Một lãnh đạo AWS là Garman thừa nhận rằng tên Trainium có thể đã gây hiểu nhầm, vì con chip được thiết kế cho cả huấn luyện và suy luận, trong đó suy luận dự kiến sẽ là trường hợp sử dụng chính trong tương lai. Tuy nhiên, Garman nhấn mạnh rằng việc gắn nhãn cho con chip phần lớn không liên quan đối với đa số khách hàng, khi người dùng tương tác với OpenAI thông qua giao diện API của hãng chứ không phải trực tiếp với phần cứng nền tảng. Khi được hỏi về việc tích hợp trong tương lai các mô hình không thuộc OpenAI vào Bedrock Managed Agents, Garman từ chối cung cấp chi tiết, chỉ nói rằng AWS hiện đang tập trung vào quan hệ đối tác của mình với OpenAI.
Sự hợp tác này nhấn mạnh chiến lược của AWS nhằm tận dụng con chip silicon tùy chỉnh của mình để hỗ trợ các khối lượng công việc AI lớn trên nền tảng đám mây của hãng.
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo
Tuyên bố miễn trừ trách nhiệm.
Bài viết liên quan
Báo cáo nghiên cứu Crypto của a16z: Tỷ lệ khai thác lỗ hổng DeFi của AI agent đạt 70%
Theo báo cáo nghiên cứu do a16z Crypto công bố vào ngày 29 tháng 4, trong điều kiện AI agent được trang bị kiến thức chuyên ngành có cấu trúc, tỷ lệ tái hiện thành công lỗ hổng thao túng giá Ethereum đạt 70%; trong môi trường sandbox không có bất kỳ kiến thức chuyên ngành nào, tỷ lệ thành công chỉ là 10%. Báo cáo cũng đồng thời ghi nhận các trường hợp AI agent độc lập vượt qua các hạn chế của sandbox để truy cập thông tin giao dịch trong tương lai, và các kiểu thất bại có tính hệ thống của agent khi xây dựng các kế hoạch tấn công nhiều bước có khả năng sinh lời.
MarketWhisper10phút trước
Altman: Định giá theo token sắp trở nên lỗi thời khi GPT-5.5 chuyển trọng tâm sang hoàn thành tác vụ thay vì đếm token
Tin tức từ Gate, 29 tháng 4 — CEO OpenAI Sam Altman cho biết trong một cuộc phỏng vấn với Ben Thompson trên Stratechery rằng mô hình định giá dựa trên token không phải là lựa chọn khả thi lâu dài cho các dịch vụ AI. Lấy GPT-5.5 làm ví dụ, Altman nhận xét rằng mặc dù giá mỗi token cao hơn đáng kể so với GPT-5.4, nhưng mô hình này sử dụng ít token hơn nhiều để hoàn thành cùng một tác vụ, nghĩa là khách hàng không quan tâm đến số lượng token—họ chỉ quan tâm liệu tác vụ có được hoàn thành hay không và tổng chi phí.
GateNews1giờ trước
Ant Group mở mã nguồn mô hình Ling-2.6-flash: 104B tham số với 7,4B tham số hoạt động, đạt nhiều mốc SOTA
Tin tức từ Gate, ngày 29 tháng 4 — Trọng số mô hình Ling-2.6-flash của Ant Group hiện đã được mở mã nguồn công khai, trước đây chỉ có sẵn thông qua API. Mô hình có tổng cộng 104 tỷ tham số với 7,4 tỷ tham số được kích hoạt cho mỗi lần suy luận, cửa sổ ngữ cảnh 256K và giấy phép MIT. Các phiên bản độ chính xác BF16, FP8 và INT4
GateNews1giờ trước
Sam Altman 发布 Codex 双模式截图,办公與编程功能正式分流
Giám đốc điều hành OpenAI Sam Altman đã đăng vào ngày 29 tháng 4 trên nền tảng X những ảnh chụp và tuyên bố, Codex đang ra mắt phiên bản giao diện hướng dẫn mới: khi người dùng lần đầu truy cập phải chọn một trong hai chế độ, lần lượt là Excelmogging và Codemaxxing. Người dùng hoạt động hàng tuần của Codex hiện đã vượt quá 4 triệu, và các kịch bản sử dụng đã mở rộng từ tạo mã sang các mục đích không mang tính kỹ thuật.
MarketWhisper1giờ trước
Codex của OpenAI ra mắt giao diện hai chế độ: Excelmogging cho công việc văn phòng, Codemaxxing cho lập trình
Tin tức từ Gate News, ngày 29 tháng 4 — Giám đốc điều hành OpenAI Sam Altman hôm nay đã công bố trên X một giao diện Codex được thiết kế lại, giới thiệu hai chế độ riêng biệt cho người dùng. "Excelmogging" nhắm đến các tác vụ văn phòng hằng ngày với giao diện được đơn giản hóa và khẩu hiệu "Cùng công cụ, giao diện đơn giản hơn," kèm các tác vụ ví dụ như
GateNews2giờ trước
Mỹ: Dự thảo lệnh hành pháp của Nhà Trắng cho phép mô hình Anthropic Mythos gia nhập chính phủ
Theo một báo cáo do Axios dẫn từ các nguồn tin cho biết vào ngày 28 tháng 4, Nhà Trắng đang xây dựng các hướng dẫn, cho phép mọi cơ quan liên bang bỏ qua việc công nhận rủi ro chuỗi cung ứng (SCRD) của Anthropic, đồng thời giới thiệu các mô hình mới để chính phủ sử dụng, bao gồm cả mô hình Mythos thuộc hệ sinh thái Anthropic. Về vấn đề này, trong tuyên bố chính thức của mình, Nhà Trắng cho biết rằng bất kỳ tuyên bố chính sách nào cũng sẽ được công bố trực tiếp bởi Tổng thống, và mọi thông tin khác chỉ là suy đoán.
MarketWhisper2giờ trước