摩尔线程MTT S5000参数曝光:率先完成GLM-5适配
2月11日,智谱正式发布新一代大模型GLM-5。摩尔线程基于SGLang推理框架,在旗舰级AI训推一体全功能GPU MTT S5000上,Day-0完成了全流程适配与验证。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
凭借MUSA架构广泛的算子覆盖与强大的生态兼容能力,摩尔线程成功打通了模型推理全链路,并深度释放MTT S5000的原生FP8加速能力,在确保模型精度的同时显著降低了显存占用,实现了GLM-5的高性能推理。此次快速适配,不仅印证了MUSA软件栈的成熟度,更充分展现了国产全功能GPU对最新大模型即时、高效的支持能力。

GLM-5与MTT S5000的国产双强联合,将为开发者带来可对标国际顶尖模型的极致编程体验。无论是在函数补全、漏洞检测还是Debug场景中,该组合均表现卓越,以显著增强的逻辑规划能力,从容应对各类复杂的长程任务挑战。
GLM-5核心特性:
定义Agentic Engineering新高度
作为GLM系列的最新里程碑版本,GLM-5定位为当下顶尖的Coding模型,整体性能较上一代提升20%。其核心突破在于Agentic Engineering(代理工程)能力——不仅具备深厚的代码功底,更拥有处理复杂系统工程与长程Agent任务的实力,能够实现从需求到应用的端到端开发。

在全球权威的Artificial Analysis榜单中,GLM-5位居全球第四、开源第一。

GLM-5在编程能力上实现了对齐Claude Opus 4.5,在业内公认的主流基准测试中取得开源模型SOTA。在SWE-bench-Verified和Terminal Bench 2.0中分别获得77.8和56.2的开源模型最高分数,性能超过 Gemini 3 Pro。

在内部Claude Code评估集合中,GLM-5在前端、后端、长程任务等编程开发任务上显著超越上一代的GLM-4.7(平均增幅超过20%),能够以极少的人工干预,自主完成Agentic长程规划与执行、后端重构和深度调试等系统工程任务,使用体感逼近Opus 4.5。
摩尔线程核心优势:软硬协同的全栈算力底座
MTT S5000是专为大模型训练、推理及高性能计算而设计的全功能GPU智算卡,基于第四代MUSA架构“平湖”打造。其单卡AI算力最高可达1000 TFLOPS,配备80GB显存,显存带宽达到1.6TB/s,卡间互联带宽为784GB/s,完整支持从FP8到FP64的全精度计算。
依托MUSA全栈平台,MTT S5000原生适配PyTorch、Megatron-LM、vLLM及SGLang等主流框架,助力用户实现“零成本”代码迁移。无论是构建万卡级大规模训练集群,还是部署高并发、低延迟的在线推理服务,MTT S5000均展现出对标国际主流旗舰产品的卓越性能与稳定性,旨在为行业筑牢坚实、易用的国产算力底座。
MTT S5000正式地址:
https://www.mthreads.com/product/S5000
此次实现对GLM-5模型的快速支持,正是摩尔线程基于MTT S5000构建的软硬协同技术能力的集中体现:
底层架构与生态兼容:天生适配,极速迁移
针对GLM-5的长序列推理场景,MTT S5000凭借充沛的算力储备与高计算密度,结合对稀疏Attention的架构级支持,在大规模上下文处理中依然保持高吞吐与低延迟。同时,MUSA软件栈的敏捷性是实现Day-0适配的关键。基于MUSA架构的TileLang原生算子单元测试覆盖率已超过80%,使得绝大多数通用算子可直接复用,显著降低移植成本,并能快速跟进前沿模型结构与新特性演进。
原生FP8加速:SGLang 框架深度优化
基于高性能的SGLang-MUSA推理引擎及MTT S5000的硬件原生FP8计算单元,摩尔线程实现了推理效率的跃升。与传统BF16相比,原生FP8在保持GLM-5卓越的代码生成与逻辑推理能力(精度无损)的同时,大幅降低了显存占用,并显著提升了推理吞吐量,为大规模部署提供了更高性价比的方案。
独创ACE引擎:通信计算并行,释放极致吞吐
针对大模型分布式推理中的通信痛点,MTT S5000利用独创的异步通信引擎(ACE),将复杂的通信任务从计算核心中卸载,实现了物理级的“通信计算重叠”。这一机制有效释放15%的通信被占算力,配合首创的细粒度重计算技术(将开销降至原有的1/4),全方位提升计算效率与系统吞吐量。
超长上下文支持:专为AI Coding打造
通过高效算子融合及框架极致优化,MTT S5000在确保代码生成质量的同时显著降低了响应延迟。无论是处理复杂的代码库分析,还是运行长周期的智能体(Agent)任务,均能保持首字延迟(TTFT)低、生成速度快的流畅体验。MTT S5000与GLM-5的软硬双强组合,在函数补全、漏洞检测等核心场景的表现超越同级,充分释放模型的规划能力和Debug能力,是执行长程开发任务的理想选择。
从GLM-4.6、GLM-4.7到GLM-5,摩尔线程已将“发布即适配”化为常态,这种对主流软件栈的无缝兼容与敏捷响应,充分证明了国产全功能GPU及MUSA软件栈的成熟度与稳定性,确保开发者能第一时间触达最新模型能力,从而携手共建蓬勃发展的国产AI生态。
相关攻略
北京商报讯(记者 王蔓蕾)近日,北京智源人工智能研究院(以下简称 "智源研究院 ")正式发布重磅验证成果:六款AI芯片、三大模型、同构+异构千卡——众智FlagOS以统一技术栈完成AI训练 "全要素 "验证
机器之心发布大模型开发者常面临一个两难选择:要速度,还是省显存?通常情况下,想要跑得快,显存会爆;想省点显存,计算效率又会被频繁的同步和流水线气泡大幅拖垮。原生的 torch compile 虽然好
机器之心编辑部这应该是今天刚刚出炉的、最炸裂的文章。在很多算子开发的微信群组,已经掀起了轩然大波。「这或许是超人类智能在软件领域的真正首次展露。」英伟达许冰刚刚在 X 上发出了如此断言。他所评论的,
机器之心编辑部2025 年 4 月,Sand ai 开源了 MagiAttention v1 0 0,定义了下一代分布式 Attention 的全新设计和系统框架。历经一年的深耕,今天Sand ai
2026年伊始,全球AI算力战场烽烟再起。英伟达依托CUDA生态形成了近乎垄断的技术壁垒,“缺芯少魂”仍是中国AI产业发展的现实挑战。在此背景下,深圳市大数据研究院持续深耕人工智能等前沿科技领域,并
热门专题
热门推荐
索拉拉是什么币?未来能涨多少?索拉拉币的详细信息介绍 最近,圈内有个热议的话题:知名公链Solana正式确定了它的中文名——“索拉拉”。这个名字并非来自项目方的单方面决定,而是由社区发起、最终获得官方认可的集体智慧结晶。它取代了大家此前更耳熟能详的“索拉纳”。那么,这个新名字背后的索拉拉币究竟是什么
流动性是加密市场的静默引擎 想象一下,当市场的脉搏变弱,交易不再活跃,会发生什么?流动性,这个常常被忽视的指标,恰恰是维持价格稳定的关键。一旦它开始减弱,市场的脆弱性便会暴露无遗。交易量大幅下滑,买卖资产就像在狭窄的通道中穿行,一个不小心,就可能引发剧烈的价格波动。 这种情形并不罕见,通常在年末清淡
你是否在寻找安全便捷的云端文件存储方案? 坚果云很可能就是你需要的答案。作为一款高效的云存储服务,它让数据同步与文件管理变得异常轻松。本文将详细介绍坚果云的多种文件上传方法,帮助你快速掌握核心操作流程。 注册与登录坚果云 首先,访问坚果云的官方网站,完成账户的注册步骤。随后使用账号密码登录,系统将呈
OPPO K15 Pro系列4月1日发布:存储配置引热议 OPPO官方已正式宣布,K15 Pro系列新品将于4月1日正式发布。值得注意的是,尽管尚未正式亮相,该系列的两款新机目前已在OPPO官方商城开放预约。然而,官网配置信息揭示了一个值得关注的现象:全系列目前仅提供12GB运行内存(RAM)版本,
击败《红色沙漠》采石场的马罗尼采石机械后,BOSS战并未真正结束。游戏的深度探索,实际上始于一处隐秘遗迹的触发。你需要寻找到那个特定的入口,然后纵身跃下,方能正式踏入这片鲜为人知的地下秘境。 落地之后,挑战即刻开始。这片地下遗迹并非安宁之地,首先迎接你的往往是那些极具攻击性的球形守卫者,它们行动迅捷





