Foresight News 消息,分布式 AI 实验室 Gradient 发布 Echo-2 分布式强化学习框架,旨在打破 AI 研究训练效率壁垒。该框架通过在架构层实现 Learner 与 Actor 的解耦,旨在降低大模型的后训练成本。据官方数据显示,该框架可将 30B 模型的后训练成本从 4500 美元降低至 425 美元。
Echo-2 利用存算分离技术进行异步训练(Async RL),支持将采样算力卸载至不稳定显卡实例与基于 Parallax 的异构显卡。该框架配合有界陈旧性、实例容错调度以及自研 Lattica 通讯协议等技术,在维持模型精度的前提下提升训练效率。
此外,Gradient 计划推出 RLaaS(强化学习即服务)平台 Logits,目前已面向学生与研究人员开放预约。