曦和发布S3推理GPU芯片:融资30亿后,如何实现算力超车

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
雷递网 乐天 1月28日
在大模型产业从“训练驱动”走向“推理驱动”的关键拐点上,国产GPU厂商正重新审视算力的商业价值与交付方式。
1月27日,专注于推理 GPU 的曦望(Sunrise)发布新一代推理 GPU 芯片启望S3,并披露其围绕推理场景构建的算力产品体系及共建推理云生态计划。这也是曦望在近一年累计完成约 30 亿元战略融资后的首次集中公开亮相。
在国产 GPU 行业逐步从“拼性能参数”转向“拼单位经济性”的背景下,曦望选择将战略重心明确锚定在推理算力这一更具长期确定性的赛道。
从“拼参数”到“算清账”,S3 聚焦推理效率与成本

与强调峰值算力和通用能力的训推一体 GPU 路线不同,曦望在启望S3 芯片上继续强化其“All-in 推理”的定位。
曦望联席CEO王勇在发布会上表示,AI 行业正在进入以应用落地为核心的下半场,推理逐步超越训练,成为主要算力消耗场景。相比训练阶段的一次性高投入,推理更强调长期交付能力、单位成本和系统稳定性,这也正在改变GPU的竞争逻辑。
据介绍,启望S3是一款面向大模型推理深度定制的 GPGPU 芯片,围绕真实推理负载,对芯片架构、存储体系与互联方式进行了系统级设计。相比上一代产品,S3 在典型推理场景下的整体性价比提升超过 10 倍。
在算力与存储设计上,S3 支持从 FP16 到 FP4 的精度自由切换,在保证模型效果的前提下显著提升低精度推理效率;同时率先在国内 GPGPU 产品中采用 LPDDR6 显存方案,显存容量较上一代提升 4 倍,缓解了大模型推理中常见的显存瓶颈问题。
在DeepSeek V3/R1满血版等主流大模型推理场景中,S3 的单位 Token 推理成本较上一代降低约 90%。王勇表示,这使“百万 Token 一分钱”从概念走向可规模化部署的工程能力。
王勇表示,曦望的推理 GPU 并非单点硬件创新,而是通过芯片架构、软件体系与算力交付方式的一体化设计,将硬件能力稳定转化为可交付、可计价的推理算力。目前,曦望已构建与CUDA兼容的基础软件体系,支持推理应用低成本迁移与持续优化,相关能力已覆盖 ModelScope 平台 90% 以上主流大模型形态。
围绕启望 S3,曦望同步发布了面向大模型推理的寰望 SC3-256 超节点方案,可高效支撑 PD 分离架构与大规模专家并行(EP)部署,适配千亿、万亿级参数的多模态 MoE 推理场景。
在交付形态上,寰望 SC3 采用全液冷设计,核心能效指标PUE表现极致。曦望方面表示,在同等算力规模下,该方案的整体交付成本控制在千万元级别,相较行业内同类亿元级方案降低一个数量级。
同时,曦望还推出覆盖 PCIe、OAM 模组、一体机及 AI 计算集群在内的 S3 产品矩阵,覆盖从单机推理到大规模集群部署的多样化需求。
不只卖芯片,重构算力交付的推理“云模式”
如果说 S3 回答的是“推理算力如何更便宜”,那么曦望共建的推理云计划,则进一步指向“算力如何更好用”。
随着推理逐渐成为大模型算力消耗的主要来源,推理算力在实际落地中普遍存在资源碎片化、运维复杂、成本不可预测等挑战。相比训练阶段的一次性投入,推理更强调持续交付能力与长期单位成本,这也对算力交付方式提出了新的要求。
在此背景下,曦望通过生态共建推理云视为其推理算力体系中的关键一环。依托自研推理 GPU,曦望实现从底层芯片到上层平台的全栈优化,将硬件能力以平台化方式稳定释放,从而降低模型适配和系统部署复杂度,形成面向应用落地的完整算力交付路径。

曦望联席 CEO 王湛表示,新一代的AI算力平台,应具备软硬件深度协同、资源利用高度弹性、技术门槛低且运行稳定可靠等特征。基于这一判断,曦望通过云化方式对算力交付模式进行重构,使推理算力从“设备能力”转化为可标准化、可规模化的服务能力。
据介绍,共建推理云以启望 S3 为底座,通过 GPU 池化与弹性调度,将分散的算力资源整合为统一的推理算力池,并以 MaaS(Model as a Service)作为核心入口,向企业提供开箱即用的大模型推理服务。企业无需关注底层硬件配置和集群运维,即可按需调用模型能力,并根据业务负载灵活扩展算力规模。
在稳定性与运维层面,共建推理云在千卡级集群场景下可用性达到 99.95%,横向扩展效率超过 95%。
在这一目标之下,曦望联合商汤科技、第四范式等生态伙伴,共同发起“百万 Token 一分钱”推理成本计划。曦望方面表示,该计划并非单一产品能力的展示,而是多方围绕推理算力成本形成的协同共识,标志着大模型推理正在从“技术可行”走向“经济可行”,为 AI 应用规模化落地提供清晰的成本锚点。
推理算力走向“系统工程”,生态协同成关键变量
随着推理算力竞争从单点技术走向系统工程能力比拼,产业协同的重要性日益凸显。
中国工程院院士、浙江大学信息学部主任吴汉明在发布会上表示,推理时代的算力竞争,已演进为涵盖芯片、系统架构、软件平台和应用场景的综合能力竞争,需要构建从芯片到系统、从技术到应用的完整创新链条。
发布会现场,曦望与浙江大学签署战略合作协议,联合成立“智能计算联合研发中心”,围绕光互连 GPU 超节点架构、半导体虚拟制造(计算光刻)以及 AI 高精度气象预测等前沿方向展开协同研究。
此外,曦望还与中交信科集团、杭钢数字科技、浙江算力科技、三一集团、协鑫科技等企业达成战略合作,推动推理算力在交通、制造、医疗等行业的落地应用。
曦望董事长徐冰表示,随着大模型进入规模化应用阶段,AI 产业正从“训练驱动”转向“推理驱动”。相比一次性投入巨大的训练,推理更强调长期交付能力、单位成本和系统稳定性。
他指出,曦望并不希望只做一家卖芯片的公司,而是围绕推理场景,构建“芯片+系统+生态”的整体布局,让推理算力真正成为可规模化、可持续的基础设施。2025年,曦望芯片交付量已突破万片。
“谁能持续降低推理成本,谁就掌握了 AI 产业的成本曲线。”徐冰表示,曦望希望通过推理算力体系的系统性创新,助力 AI 应用实现规模化落地与可持续增长。
雷递由媒体人雷建平创办,若转载请写明来源。
相关攻略
OpenClaw的爆火,让众多AI应用开发者第一次直面了高昂的Token账单——一个用户请求可能触发多轮工具调用,每次调用都携带超长上下文,实际的API成本远超预期,甚至可能达到订阅费用的数十倍。如何有效控制Token成本,正成为AI Agent开发者面临的核心挑战与增长瓶颈。 这显然不是可持续的商
这项由瑞士洛桑联邦理工学院(EPFL)、意大利卢加诺大学(USI)、韦斯利安大学、巴黎脑研究所(ICM)以及宾夕法尼亚州立大学联合开展的研究,以预印本形式发布于2026年4月,论文编号为arXiv:2604 03480。对这一交叉领域感兴趣的读者,可以通过该编号在arXiv平台上查阅完整原文。 一、
北京商报讯(记者 陶凤 王天逸) 人工智能领域又传来一条振奋人心的消息。4月8日,摩尔线程正式宣布,其旗舰级AI训推一体全功能GPU——MTT S5000,已经成功完成了对智谱新一代旗舰模型GLM-5 1的Day-0极速适配。这意味着,推理部署与训练复现的全部流程,现在都能在这条国产算力路径上获得支
如何用SQL求解逻辑推理题:经典楼层分配谜题实战 今天我们来探讨一个非常有趣的技术应用:使用SQL来求解逻辑推理题。这听起来或许有些大材小用,但正是这种跨界应用,充分展现了SQL语言的强大灵活性以及开发者分析问题的思维能力。我们将以一个经典的五人楼层分配谜题作为案例,逐步拆解如何用纯粹的SQL找到答
一个学生忽视了一行代码,结果发现了一件很不对劲的事:在一个多模态医学AI项目中,这行代码原本负责让模型读取图像数据。但因为这次疏忽,模型实际上完全没有看到任何图片。按理说系统应该报错,或者至少拒绝回
热门专题
热门推荐
领克首款GT概念跑车亮相北京车展,由中欧团队联合打造。新车采用经典GT比例与低趴宽体设计,配备液态金属蓝涂装与2+2座舱,设有高性能模式按键可激活空气动力学套件。车辆采用后驱布局与AI智能运动控制系统,百公里加速约2秒,设计融合瑞典极简美学并参考全球用户反馈。
英伟达推出12GB显存版RTX5070移动GPU,与8GB版同步上市。两者均基于Blackwell架构,核心规格相同,仅显存容量不同。此举旨在缓解GDDR7芯片供应压力,为OEM提供灵活配置,加速笔记本产品布局,更大显存可更好满足游戏与AI应用需求。
微星将于5月15日推出两款26 5英寸雾面WOLED显示器MAG276QRY28和276QRDY54,售价分别为2499元和6299元。均采用第四代WOLED面板,具备QHD分辨率、VESADisplayHDRTrueBlack500认证、1500尼特峰值亮度及99 5%DCI-P3色域覆盖。276QRY28刷新率为280Hz,高阶款276QRDY54支持4
中芯国际2026年第一季度营收176 17亿元,同比增长8 1%;净利润13 61亿元,同比增长0 4%。公司预计第二季度收入环比增长14%至16%,毛利率指引上调至20%至22%。这反映出公司在行业复苏中展现出财务韧性,并通过运营优化增强了短期增长势头。
手机修图、相机降噪、视频去雾……这些我们日常使用的图像处理功能,其背后都离不开人工智能(AI)技术的驱动。通常,AI模型的训练逻辑是:向模型展示大量“低质图像”与“优质图像”的配对数据,让它学习如何将前者转化为后者。然而,天津大学计算机视觉团队近期发表的一项研究(arXiv:2604 08172)揭





