首页 游戏 软件 资讯 排行榜 专题
首页
AI
DeepSeek发布AI新架构,梁文锋详解技术优化核心

DeepSeek发布AI新架构,梁文锋详解技术优化核心

热心网友
32
转载
2026-01-01


免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

新智元报道

编辑:编辑部

【新智元导读】2026新年第一天,DeepSeek发表了梁文锋署名的重磅新论文,提出了一种名为「mHC(流形约束超连接)」的新架构,在27B参数模型上,仅增加约6.7%的训练时间开销,即可实现显著性能提升。

刚刚,DeepSeek送上2026年新年第一个王炸。

这次的创新是,mHC(流形约束超连接)新架构。


标题:mHC:Manifold-Constrained Hyper-Connections

链接:https://arxiv.org/abs/2512.24880

在这篇论文中,DeepSeek提出了流形约束超连接(mHC),将矩阵投影到约束流形上优化残差连接空间,从而确保稳定性,彻底颠覆了传统AI架构认知——

可以扩大残差流通道宽度(residual stream width),而在算力和内存上的代价却微乎其微。


图1: 残差连接范式示意图

继Hyper-Connections(HC)开辟「残差连接宽度可扩展」路线之后,mHC直接把这一思路推上实用化的快车道。

DeepSeek这次直击AI痛点,给同行上了一课!

值得一提的是,这次梁文锋署名,但解振达、韦毅轩、Huanqi Cao为核心贡献者,解振达为通讯作者。

DeepSeek,或敲响ResNet丧钟

这简直是为「模型优化玩家」量身打造的王牌秘方。

过去,超连接(hyper-connections)更多只是学术圈的小众尝试。

而现在,DeepSeek直接把它升级为基础架构的核心设计要素。

这也正是拥趸一直以来对DeepSeek的期待:数学上的洞察力+硬件层面的极致优化。

顶级大语言模型(LLM)中,ResNet结构或许即将被淘汰。


毕竟,残差流通道宽度一直是扩展模型的「烦人瓶颈」。

这波操作,也再次展现了DeepSeek典型的风格:对同行的温和降维打击——

你们两年时间都在打磨微结构,调整DS-MoE?挺可爱哈。

来看看我们怎么玩:把一个理论上看起来还不够成熟的高级原语,直接做实,顺手解锁游戏下一关。

他们在论文中写道:「我们的内部大规模训练实验进一步验证了mHC在大规模应用中的有效性。」


这句话在DeepSeek的原生稀疏注意力(Natively trainable Sparse Attention,NAS)那篇论文里可没有。

在27B模型的系统级基准测试结果中,新架构mHC在绝大多数基准测试中持续超越基线模型并优于HC,这证明其在大规模预训练中的有效性。


换句话说,DeepSeek信心十足,不怕同行知道自己的「杀招」。

这给了DeepSeek的铁粉Teortaxes很大信心,他有九成把握:mHC会进入DeepSeek V4。


核心方法

Manifold-Constrained Hyper-Connections (mHC)

这个方法的关键目标,就是在Hyper-Connections的拓扑设计下恢复身份映射属性。这样,就可以在大规模训练与现实基础模型任务中体现实际价值。

mHC与传统残差连接和HC的根本差异在于:传统残差连接只保留简单的输入 + 输出形式(稳定但表达受限);Hyper-Connections (HC)强化连接能力,但牺牲了稳定性与效率。

而mHC的思路是:将Hyper-Connections的参数空间约束到特定的流形(manifold)上,以恢复身份映射结构。

技术细节

受恒等映射原则的启发,mHC的核心思想是在一个特定流形上对残差映

进行约束。尽管原始的恒等映射通过强制来保证训练稳定性,但这种做法从根本上阻断了残差流内部的信息交互,而这种交互对于充分发挥多流(multi-stream)架构的潜力至关重要。

因此,作者提出将残差映射投影到一个既能维持跨层信号传播稳定性、又能促进残差流之间相互作用的流形上,从而在保证稳定性的同时保留模型的表达能力。

为此,他们将约束为双随机矩阵,即矩阵元素非负,且每一行与每一列的元素之和均为 1。

形式化地,记为双随机矩阵所构成的流形(亦称Birkhoff多面体),将约束在其投影上,其定义为:


需要注意的是,当n=1时,双随机条件会退化为标量1,从而恢复为原始的恒等映射。选择双随机性能够带来若干对大规模模型训练具有重要意义的严格理论性质:

1.保范性:双随机矩阵的谱范数有上界 1,即。

这意味着该可学习映射是非扩张的,从而能够有效缓解梯度爆炸问题。

2.组合闭包性:

双随机矩阵集合在矩阵乘法下是封闭的。这保证了跨越多层的复合残差映射
仍然是双随机的,从而在整个模型深度范围内保持稳定性。

3.通过Birkhoff多面体的几何解释:

集合构成Birkhoff多面体,即置换矩阵集合的凸包。

这提供了清晰的几何直观:残差映射可以被看作是若干置换的凸组合。

从数学上看,此类矩阵的反复作用会单调地增强不同信息流之间的混合程度,从而有效地充当一种鲁棒的特征融合机制。

参数化与流形投影

在本节中,作者详细介绍了mHC中
、以及的计算过程。

给定第l层的输入隐藏矩阵,首先将其展平成向量,以保留完整的上下文信息。随后,遵循原始HC的建模方式,得到动态映射和静态映射,具体如下:


随后,通过如下方式得到最终满足约束的映射:


其中,表示Sigmoid函数。

Sinkhorn–Knopp(⋅) 算子首先通过指数运算保证所有元素为正,然后执行交替的迭代归一化过程,使矩阵的行和列分别归一到1。

具体而言,以正矩阵作为初始值,归一化迭代过程为:


随着迭代次数增加,当时,该过程收敛到一个双随机矩阵。

在实验中,取作为一个实用的近似值。

高效的基础设施设计

通过一系列严格的工程优化,作者成功将mHC(取n=4)部署到大规模模型中,训练开销仅增加约 6.7%。

内核融合

作者观察到,在mHC中,当对高维隐藏状态进行操作时,RMSNorm会带来显著的延迟。

为此,他们将「除以范数」的操作重新排序,使其发生在矩阵乘法之后。该优化在数学上是等价的,但在工程实现上显著提升了效率。

此外,我们采用混合精度策略,在不牺牲计算速度的前提下最大化数值精度,并将多个具有共享内存访问模式的算子融合为统一的计算内核,以降低内存带宽瓶颈。

基于公式(10)至(13)中给出的输入与参数设置,作者实现了三个专用的 mHC计算内核。


利用上述内核计算得到的系数,他们又引入了两个额外的计算内核来应用这些映射。

该框架能够简化复杂计算流程内核的实现,并在较小工程代价下充分发挥内存带宽的潜力。

重计算

n路残差结构在训练过程中会引入显著的内存开销。

为缓解这一问题,作者在前向传播结束后丢弃mHC内核产生的中间激活,并在反向传播阶段通过重新执行mHC内核(不包含计算量较大的层函数F)来即时重计算这些激活。

因此,对于连续的L_r个层组成的一个模块,只需存储第一层的输入。

在忽略轻量级系数、同时考虑到F中的pre-norm开销后,表3总结了在反向传播中需要保留的中间激活以及在L_r个连续层中被重计算的瞬时激活。


随后,他们通过最小化与L_r对应的总内存占用来确定最优的块大小。


DualPipe中的通信重叠

在大规模训练中,流水线并行(pipeline parallelism)是缓解参数与梯度内存占用的标准实践。

具体而言,他们采用了DualPipe调度策略,该策略能够有效地重叠跨节点(scale-out)的互连通信流量,例如专家并行与流水线并行中的通信开销。

然而,与单流(single-stream)设计相比,mHC中提出的n-流残差结构会在流水线阶段之间引入显著的通信延迟。

此外,在阶段边界处,对所有Lr层重新计算mHC内核也会带来不可忽略的计算开销。为了解决这些瓶颈,作者对DualPipe调度进行了扩展(见下图),以在流水线阶段边界实现更高效的通信与计算重叠。


原文图4:mHC的通信–计算重叠机制。

具体而言,为避免阻塞通信流,他们MLP(即FFN)层的内核放置在一个独立的高优先级计算流上执行。

同时,在注意力层中,他们刻意避免使用长时间运行的持久化内核(persistent kernels),以防止产生长时间的停顿。

该设计允许对已重叠的注意力计算进行抢占,从而在保持计算设备处理单元高利用率的同时,实现更加灵活的调度。

此外,重计算过程被与流水线通信依赖解耦,这是因为每个阶段的初始激活x0l已经被缓存在本地。

实验结果

DeepSeek团队首先检验了27B模型的训练稳定性和收敛性。

如下图(a)所示,mHC有效缓解了在HC中观察到的训练不稳定性,相比基线最终降低了0.021的损失。

下图(b)中的梯度范数分析,进一步证实了这种改善的稳定性,表明mHC展现出显著优于HC的,稳定性与基线相当。


原文图5: 流形约束超连接(mHC)的训练稳定性,展示了 (a) mHC与HC相对于基线的绝对训练损失差距,以及 (b) 三种方法的梯度范数。所有实验均采用27B模型。

在多样化基准测试集上,mHC全面提升了下游性能,在所有任务上持续超越基线,并在大多数任务上优于HC。

值得注意的是,与HC相比,mHC进一步增强了模型的推理能力,在BBH上实现了2.1%的性能提升,在DROP上实现了2.3%的提升。

这证明其在大规模预训练中的有效性。


原文表4:27B模型的系统级基准测试结果。 本表比较了基线、HC和mHC在8个不同下游基准测试中的零样本和少样本性能。

为了评估方法的扩展性,DeepSeek报告了mHC在不同规模下相比基线的相对损失改进。

结果表明,即使在更高的计算预算下,mHC依然稳健保持性能优势,仅轻微衰减。

此外,研究团队考察了训练过程中的动态变化,展示了3B模型的token扩展曲线。

综合来看,这些发现验证了mHC在大规模场景下的有效性。这一结论得到了我们内部大规模训练实验的进一步证实。


原文图6:mHC相比基线的扩展特性。 (a) 计算扩展曲线:实线展示了不同计算预算下的性能差距。每个点代表模型大小和数据集大小的特定计算最优配置,从3B和9B扩展到27B参数。(b) Token扩展曲线:3B模型在训练期间的轨迹。每个点代表模型在不同训练token数下的性能。

理想情况下,单层映射应满足双随机约束,即前向信号增益与后向梯度增益均等于1。

然而,为提升计算效率,实际实现中使用的Sinkhorn-Knopp算法必须限制迭代次数,这次实验中为20次。

因此,如下图(a)所示,后向梯度增益会略微偏离1。在下图(b)所示的复合映射情况下,偏离有所增加但仍保持有界,最大值约为1.6。


原文图7:流形约束超连接(mHC)的传播稳定性。 本图展示了27B模型中 (a) 单层映射与 (b) 复合映射 的传播动态

值得注意的是,与HC中近3000的最大增益幅度相比,mHC将其降低了三个数量级。

这些结果表明,mHC相比HC显著增强了传播稳定性,确保了前向信号与后向梯度的稳定流动。

此外,团队观察到,对于HC,当最大增益较大时,其他值也往往显著,这表明所有传播路径普遍存在不稳定性。相比之下,mHC始终产生稳定的结果。


原文图8:可学习映射的可视化,展示了HC(第一行)与mHC(第二行)的代表性单层及复合映射。每个矩阵通过对选定序列内所有token取平均计算得出。y轴和x轴上的标签分别表示前向信号增益(行和)与后向梯度增益(列和)。

更多详情请参阅原论文。

参考资料:

https://arxiv.org/abs/2512.24880

https://x.com/teortaxesTex/status/2006628917428334631

秒追ASI

⭐点赞、转发、在看一键三连⭐

点亮星标,锁定新智元极速推送!


来源:https://www.163.com/dy/article/KI767KU00511ABV6.html
免责声明: 游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

相关攻略

DeepSeek论文元旦发布:梁文锋详解大模型架构新章节
AI
DeepSeek论文元旦发布:梁文锋详解大模型架构新章节

机器之心编辑部新年第一天,DeepSeek 发布了一篇新论文,提出了一种名为mHC(流形约束超连接)的新架构。该研究旨在解决传统超连接在大规模模型训练中的不稳定性问题,同时保持其显著的性能增益 。简

热心网友
01.03
梁文锋署名论文:DeepSeek元旦新架构开启AI新篇章
科技数码
梁文锋署名论文:DeepSeek元旦新架构开启AI新篇章

来源:机器之心新年第一天,DeepSeek 发布了一篇新论文,提出了一种名为 mHC (流形约束超连接)的新架构。该研究旨在解决传统超连接在大规模模型训练中的不稳定性问题,同时保持其显著的性能增益

热心网友
01.01
DeepSeek发布AI新架构,梁文锋详解技术优化核心
AI
DeepSeek发布AI新架构,梁文锋详解技术优化核心

新智元报道编辑:编辑部【新智元导读】2026新年第一天,DeepSeek发表了梁文锋署名的重磅新论文,提出了一种名为「mHC(流形约束超连接)」的新架构,在27B参数模型上,仅增加约6 7%的训练时

热心网友
01.01
南洋理工大学突破AI记忆瓶颈:无差错计算让注意力永不衰减
科技数码
南洋理工大学突破AI记忆瓶颈:无差错计算让注意力永不衰减

这项由南洋理工大学雷靖迪、复旦大学张迪以及南洋理工大学波利亚·苏佳妮娅共同完成的研究发表于2025年12月,论文编号为arXiv:2512 12602v1。研究团队首次提出了 "无误差线性注意力 "(E

热心网友
12.30

最新APP

火柴人传奇
火柴人传奇
动作冒险 04-01
街球艺术
街球艺术
体育竞技 04-01
飞行员模拟
飞行员模拟
休闲益智 04-01
史莱姆农场
史莱姆农场
休闲益智 04-01
绝区零
绝区零
角色扮演 04-01

热门推荐

洛克王国世界40级进阶无推图阵容打法
手机教程
洛克王国世界40级进阶无推图阵容打法

洛克王国世界40级进阶无推图阵容打法攻略 在《洛克王国世界》的成长之旅中,达到40级是一个关键的进阶门槛。许多玩家可能会发现自己并未刻意组建一支成型的推图队伍,面对这个挑战时有些无从下手。这篇攻略将为你详细解析一套无需专门推图阵容的通关思路,帮助你利用现有资源,轻松突破40级进阶关卡。 核心阵容搭配

热心网友
04.04
这城有良田主C红品宝玉词条选择逻辑
手机教程
这城有良田主C红品宝玉词条选择逻辑

这城有良田主C僚属红品宝玉词条搭配攻略 在《这城有良田》中,红品宝玉的词条选择,是决定你主C僚属最终伤害上限的核心环节。面对各式各样的属性词条,不少玩家会感到困惑:如何搭配才能最大程度激发核心输出的潜力?本文将为你系统解析主C位红品宝玉的挑选逻辑与进阶策略,助你在资源投入上实现收益最大化,显著提升队

热心网友
04.04
哔哩猫app适配手表设置
游戏攻略
哔哩猫app适配手表设置

哔哩猫手表版优化指南:适配小屏的关键设置 想在智能手表上流畅体验哔哩猫?直接安装手机版本,往往会遇到界面拥挤、操作不便的问题。其实,只需调整几个核心选项,就能让哔哩猫完美匹配手表的小屏幕,操作体验大幅提升。 1、DPI优化:精准调节显示密度 手表屏幕空间有限,默认的显示比例常常导致文字过大、布局浪费

热心网友
04.04
《深海迷航冰点之下》咖啡机使用攻略
游戏攻略
《深海迷航冰点之下》咖啡机使用攻略

《深海迷航冰点之下》咖啡机使用全攻略:生存必备热饮制作指南 在《深海迷航冰点之下》这片危机四伏的极地海域中,新手面临的第一个致命威胁往往是持续不断的体温流失。与前作不同,身体失温在游戏前期是核心生存挑战之一。有效应对失温的方法主要有:尽快解锁并制作抗压潜水服的升级模块——防寒服、靠近能提供热源的炽热

热心网友
04.04
三国志王道天下吕布骑阵容玩法攻略
手机教程
三国志王道天下吕布骑阵容玩法攻略

三国志王道天下吕布骑阵容玩法攻略 在策略手游《三国志王道天下》中,构建强力阵容是核心乐趣。以飞将吕布为核心的群雄骑兵队,以其惊人的爆发力与爽快的操作体验,备受玩家关注。本攻略将为你详细解析这套阵容的构建精髓、核心机制与实战搭配思路,助你打造一支所向披靡的突击铁骑。 阵容构成 这套阵容以纯粹的群雄阵营

热心网友
04.04