512张H200分布式RL训练106B模型,开源突围重围

新智元报道
编辑:元宇
【新智元导读】Prime Intellect发布的INTELLECT-3,在数学、代码等多项基准测试中取得同规模最强表现。该模型旨在将训练前沿模型的技术栈开放给社区,推动大规模RL研究的普及与发展。
最近,Prime Intellect正式发布了INTELLECT-3。
这是一款拥有106B参数的混合专家(Mixture-of-Experts)模型,基于Prime Intellect的强化学习(RL)技术栈训练。
在数学、代码、科学与推理的各类基准测试上,它达成了同规模中最强的成绩,甚至超越了不少更大的前沿模型。
Prime Intellect已经把完整的训练流程——包括模型权重、训练框架、数据集、RL环境和评测体系——全部开源,希望能推动更多关于大规模强化学习的开放研究。
INTELLECT-3使用的训练软件与基础设施,与即将在Prime Intellect平台向所有人开放的版本完全一致。
这意味着未来每个人、每家公司都能拥有对最先进模型进行后训练的能力。
多项基准,斩获SOTA
INTELLECT-3是一个106B参数的Mixture-of-Experts(MoE)模型,基于GLM 4.5 Air进行了监督微调(SFT)和强化学习训练。
它在数学、代码、科学和推理类Benchmark上均取得了同体量中的最强表现。

训练框架
训练中,Prime Intellect使用了以下核心组件:
PRIME-RL:自研的分布式RL框架,支持监督微调和大规模MoE模型的强化学习。
Verifiers 与 Environments Hub:统一的环境接口与生态,用于各类智能体式RL环境与评测。
Prime Sandboxes:高吞吐、安全的代码执行系统,用于智能体代码类环境。
算力编排:在64个互联节点上的512张NVIDIA H200 GPU完成调度与管理。
INTELLECT-3完整使用PRIME-RL进行端到端训练。
这套框架与Verifiers环境深度整合,支撑从合成数据生成、监督微调、强化学习到评估的整个后训练体系。
通过与Environments Hub的紧密连接,训练系统可以顺畅访问不断扩展的环境与评测任务集合。
PRIME-RL最显著的特点是全分布式(async-only)。
研究团队在上一代INTELLECT-2时就已经确认:
RL的未来一定是分布式的,也就是始终处于轻微off-policy的状态。
因为在长时序智能体rollout中,分布式是唯一能避免速度瓶颈、真正扩大训练规模的方式。

过去6个月,研究团队重点做了大量关于性能、稳定性和大规模效率的消融实验,INTELLECT-3正是这些研究的成果。
Prime Intellect也将在即将上线的Lab平台提供托管式PRIME-RL,访问者无需处理复杂基础设施就能进行大规模RL训练。
训练环境
INTELLECT-3的训练环境由Verifiers库构建,并托管于Environments Hub,这是Prime Intellect面向社区的RL环境与评测中心。
Verifiers是当前领先的开源工具,用来为模型构建RL环境与评测任务。
它提供模块化、可扩展的组件,让复杂环境逻辑也能以简洁方式描述,同时保持极高性能与吞吐。
传统的RL框架通常把环境强绑定在训练仓库里,使得版本管理、消融与外部贡献都不方便。
Environments Hub则把基于Verifiers的环境作为独立、可锁定版本的Python模块发布,并统一入口点,让任务可以独立版本化、共享与持续迭代。

INTELLECT-3使用的所有环境和评测,均已公开在Environments Hub。
为了支持强化学习,Prime Intellect大幅扩展并升级了自研的Sandboxes基础设施。
在几千条并发rollout中安全执行外部代码,需要一个具备亚秒级启动、毫秒级执行延迟的容器编排层。
虽然Kubernetes提供了底层能力,但常规架构并无法满足这种高速度的训练需求。
Prime Sandboxes可以绕过Kubernetes控制面板,通过Rust直接与pod通信,做到接近本地进程的延迟;即使在大规模并发下也能在10秒内启动,且每个节点可稳定运行数百个隔离沙箱。
在Verifiers中,研究人员将沙箱启动与模型首轮推理并行,从而完全消除代码执行前的可感知等待时间。
算力调度
研究人员在64个互联节点上部署了512张NVIDIA H200 GPU。
最大工程挑战是如何在可能出现硬件故障的分布式系统里保持确定性与同步。
资源准备:使用Ansible做基础设施即代码、自动发现硬件,并进行InfiniBand预检以隔离慢节点或故障节点。
调度:通过Slurm + cgroup v2确保任务可以干净退出,不会留下占用GPU显存的残留进程。
存储:用Lustre提供高吞吐训练I/O,用NVMe NFS作为快速元数据与便捷SSH存储。
可观测性:通过DCGM + Prometheus监控,能在问题扩大前快速发现并下线不稳定节点。
训练方案
INTELLECT-3主要分两阶段:
基于GLM-4.5-Air的监督微调,以及大规模RL训练。
两个阶段以及多轮消融实验都在512张H200 GPU上运行,总共持续两个月。
研究人员训练了覆盖数学、代码、科学、逻辑、深度研究、软件工程等类别的多样化RL环境,用来提升模型的推理与智能体能力。
所有环境均已在Environments Hub上公开。

所有基准测试也都提供了标准化且验证过的实现。
未来,Prime Intellect的工作重点包括:
扩展智能体式RL:研究人员将继续训练,并更强调智能体环境,预计能在更多任务上获得进一步提升。
更丰富的RL环境:Environments Hub已拥有 500+ 任务,涵盖研究、电脑使用、定理证明、自动化和专业领域。INTELLECT-3 只用到了其中一小部分,下一步是让RL覆盖更多、更高质量的社区任务。
长时序智能体:研究人员正在让模型能够自我管理上下文(如裁剪上下文、分支推理、维护轻量外部记忆),从而让长时序行为真正可通过RL训练。未来也会探索专门奖励长时序推理的环境。
Prime Intellect正在构建开放的超级智能技术栈,把训练前沿模型的能力交到每个人手里。
INTELLECT-3 也证明:即使不是大实验室,也可以训练出与顶尖团队同台竞技的模型。
参考资料:
https://www.primeintellect.ai/blog/intellect-3
秒追ASI
⭐点赞、转发、在看一键三连⭐
点亮星标,锁定新智元极速推送!
相关攻略
人民财讯3月17日电,企查查APP显示,近日,智元机器人关联公司智元创新(上海)科技股份有限公司“面向机器人的人工智能策略训练系统及方法”专利公布。企查查专利摘要显示,该申请保证了环境和动作数据的严
3月13日,证券时报记者从大晓机器人获悉,该公司已开源开悟世界模型3 0(Kairos 3 0)-4B系列具身原生世界模型。Kairos 3 0-4B是全球首个可端侧驱动具身智能本体控制的世界模型,
新京报贝壳财经讯(记者韦英姿)3月10日,腾讯混元3D团队宣布开源业界首个面向世界模型的强化学习后训练框架WorldCompass。腾讯混元3D团队表示,这是此前发布的混元世界模型1 5 最新强化学
这项由Meta GenAI与斯坦福大学联合开展的突破性研究发表于2024年12月16日,论文编号为arXiv:2412 10360v1。研究团队深入探索了视频理解大型多模态模型的设计奥秘,最终推出了
在工业智能化向纵深推进的今天,时序数据早已成为解锁产业升级的核心密钥。“温度、压力、流量、结构形变等带有时间标签的动态数据,是工业系统运行的真实写照,更是工艺优化、安全管控、效率提升的关键抓手。”上
热门专题
热门推荐
根据Gartner最新市场报告,2025年全球PC出货量突破2 7亿台,同比增长9 1%。在人工智能技术浪潮与AI PC算力升级需求的双重驱动下,整个PC行业正迈入一个全新的增长周期。作为细分市场的重要力量,游戏笔记本电脑也迎来了关乎性能、体验与场景定义的关键换代节点。 回顾行业发展,英特尔于202
TUSD是一种与美元1:1锚定的合规稳定币,由TrustToken团队推出。它通过第三方机构定期审计和银行账户托管确保透明度,旨在提供可靠的数字美元解决方案。其用途涵盖交易、支付、DeFi及跨境结算,但用户仍需关注其中心化托管、监管变化及智能合约安全等潜在风险。
OpenClaw 生态中那个关键的“眼睛”和“手”——Peekaboo v3,正式回归了。这不仅是一次版本更新,更像是一次关键的“补完”。它让 AI 不再只是停留在聊天框里给出建议,而是真正获得了观察屏幕、点击按钮、操作真实桌面的能力。 过去几个月,OpenClaw 的热度经历了一个典型的周期:从概
微信小游戏《找个球》,玩的就是眼力。每张看似相同的图片里,都藏着好几处“破绽”——有的明显,有的则隐蔽得让人抓狂。从简单的卧室场景,到复杂的宴会、雨夜,关卡越往后,画面细节越多,挑战也越大。想通关?秘诀就一个:沉住气,从左到右,一寸一寸地对比。 为了方便大家攻克难关,这里整理了一份全关卡通关攻略图合
《找个球》第10关攻略详解:如何快速找出15处不同?本关场景围绕经典角色“嬛嬛”与“大胖橘”展开,挑战在于发现两幅图片间的细微差别。这些差异点主要隐藏在人物的发饰造型、衣领褶皱、服饰花纹等细节处。同时,背景中的花草形态、秋千绳索乃至庭院摆设也可能存在巧妙改动。想要高效通关,建议玩家采用分区对比法,先





