蚂蚁AI连发两款万亿参数大模型,实力进阶
刚刚过去的国庆,各行各业进入放假模式,但大模型行业却一刻也没闲着。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
过去的半个月,国内外大模型的头部团队有十余款重磅产品发布,但每个团队的产品侧重不同。
其中,九月下旬,阿里发布以Qwen3-Max为代表的全家桶产品,大秀了一把肌肉;九月末,DeepSeek和Anthropic瞄准真实编程场景,先后发布了DeepSeek V3.2-Exp和Claude Sonnet 4.5,此外,智谱也拿出GLM-4.6,目标冲击国内最强代码模型。
有人全盘布局,也有人专攻精尖,在大模型领域竞争驶向深水区后,各个公司战略路线出现了分野。
10月9日凌晨,蚂蚁百灵大模型团队奇袭般官宣了一款自家最新语言大模型Ling-1T,参数量达到1000B(即1万亿参数)。然而,就在十天前,百灵团队才将自研Ring-1T-preview大模型开源。
短短十天内,发布并开源两款万亿参数模型,如此密集的产品发布让蚂蚁百灵大模型成为了行业热议对象。
与此同时,这样毫无保留的开源动作,也让业界猜测:蚂蚁到底意图何在?
01
探索智能上限是终极目标
据(公众号:)了解,蚂蚁集团研发的基础大模型取名“百灵”,寓意“百试百灵”,也蕴含科技普惠之意,和阿里一样,蚂蚁也是独立团队独立研发,Ling-1T和Ring-1T-preview分别是蚂蚁百灵团队研发的非思考模型和思考模型。
过去半年时间里,蚂蚁一直在对百灵大模型进行迭代优化,并且自上而下形成了三条技术探索路线:
一条是以MoE架构为基础的非思考模型Ling-Series,另一条是思考模型Ring-Series,第三条是原生全模态大模型Ming-Series。
如今,蚂蚁百灵团队在Ling和Ring两款模型路线上都已经将参数量扩大到万亿参数。
万亿参数,几乎等同于人类大脑神经元数量,相当于让AI拥有等同于人脑的处理能力,但万亿参数非常难训。目前,国内能达到万亿参数规模的大模型也是凤毛麟角。
除了刚才提到的百灵大模型Ling-1T和Ring-1T-preview,目前国内公开资料可查的万亿参数大模型只有Kimi K2、阿里Qwen3-Max和腾讯混元大模型等少数几个模型,可见大模型领域“万亿俱乐部”的门槛之高。
虽然今年以来盛行“数据撞墙论”和“预训练终结”的观点,但越来越多科学家也形成了一个新的共识:更大的参数,更多的数据,仍然能带来持续的性能提升。
阿里的算法负责人林俊旸公开表态:Scaling Law仍然没见顶,训练数据的增加,参数规模的扩大,都还能看到模型性能的提升。
杨植麟的Kimi团队更是克服万难闷头苦干,终于在两个月前,拿出了万亿参数的旗舰模型K2。通义千问团队直接提出了“大就是好”的暴论,并且让Qwen3坚定不移地沿着“Just Scale it”的扩展路径前进。
由此可见,大家都还在朝着“探索智能上限”出发。
02
百灵大模型加速涌现
据了解,过去一年里,平均7天就有一款高性能大模型诞生。可以说,国内不缺大模型。
但在参数和效率之间,能做到完美平衡的大模型却不多。
就拿万亿参数模型来说,模型变大了,往往会牺牲推理速度,推理速度上去了,准确率又很难达到。业界知名的旗舰款大参数模型,都能在推理能力和思考效率上做到很不错的平衡。
这个平衡点,被称之为帕累托最优,我们经常用多维基准测试的分数来量化对比。这次蚂蚁发布的Ling-1T在公开的对比榜单中,表现让人非常意外。
下图是Ling-1T在部分权威基准评测的表现,红色加粗代表Ling-1T的得分获得Top1,黑色加粗下划线表示Top2:

我们重点关注的编程与数学推理(Coding & Math)两个维度上,Ling-1T表现非常亮眼,甚至多个得分超过DeepSeek。在知识理解方面,Ling-1T也比Kimi、GPT-5主干模型等的得分,高出几分。
这意味着,Ling-1T的深度思考能力和泛化能力,以及逻辑推理能力,都非常全面。因此,Ling-1T会非常擅长从事代码生成、软件开发、竞赛数学、专业数学、逻辑推理等场景。
但对于万亿参数模型来说,除了综合性能,还需要考虑一个问题:推理正确率。这就需要引入竞赛数学榜单AIME 25竞赛数学榜单AIME 25的挑战,Ling-1T的成绩如下:

Ling-1T在AIME 25测试中,与DeepSeek-V3.1-Terminus、Kimi-K2-Instruct-0905(开源)以及GPT-5-main、Gemini-2.5-Pro(闭源)这些旗舰模型对比,展示出更短的思考路径和更高的推理准确率,能做到支持128K长文本窗口处理能力,每个token做到约50B参数的激活量。
这样的成绩,源自蚂蚁百灵团队长时间的积累与创新。
依托于团队储备的二十万亿Token高质量文本语料训练,Ling-1T吃进了大量优质知识。在预训练阶段,Ling-1T的训练团队让由Ling Scaling Laws自我设置关键超参,简单地说,就是让大模型自我优化。
同时在强化训练阶段,加入了百灵团队原创的LPO策略优化算法,让模型回答得更对。
此外,团队还额外提出了“语法-功能-美学”的混合奖励机制,提高模型审美。下面这张是Ling-1T工程师绘制的模型架构图:

不止是刚发布的Ling-1T和9月30日发布的Ring-1T-preview,蚂蚁实际上已经形成了完整的百灵大模型家族。
从尺寸上,包含从160亿总参数到1万亿总参数的大语言模型产品矩阵;从模态上,包含了能看能听能说能画的,从理解到生成能统一的大模型;
从场景上,也形成了包括手机上可以运行的Ling-mini,还有能在中小企业服务器上部署的Ling-flash,以及云端可调用的Ling-1T。

这些模型,在过去一段时间,无论是社区榜单还是实际使用上,都得到了很多有效回应。
蚂蚁百灵团队开发的全模态模型Ming-lite-omni v1.5甚至在Hugging Face模型趋势榜(any to any)排到过第一的位置。
Ring-1T-preview发布完的第二天,就冲上了Hugging Face模型榜Text Generation总榜排名第三,排名第四的也是9月Ling团队发布的混合架构思考模型Ring-flash-linear-2.0。
图灵奖得主Yann LeCun(杨立昆)甚至点赞并评论“Impressive”(了不起),了解这位特立独行大佬的网友表示:“ LeCun愿意给LLM(大模型)说句好话不容易”。
一位苹果工程师量化完跑起来模型,评价蚂蚁百灵模型的性能“Getting closer to GPT-5 at home”(在本地部署上的性能接近GPT-5)。
这些技术从业者和开发者们的真实声音,给予了百灵模型非常正向的反馈。
03
探索AGI,亟需参与者们的共建意识
百灵团队,如此快速地跻身“万亿参数俱乐部”,背后跟蚂蚁的战略动作分不开。作为一家成立了20年的互联网公司”,蚂蚁在AI领域的投入一直是非常巨大的。
去年蚂蚁20周年时候,蚂蚁集团董事长井贤栋宣布:未来20年,蚂蚁要做一家科技驱动、创新驱动的公司。蚂蚁集团还提出了AI First战略,并将其与“支付宝双飞轮”和“加速全球化”一齐,并称为蚂蚁集团的三大战略。
而Ling-1T和Ring-1T-preview的出现,则是蚂蚁AI First战略持续加速的表现。
不选择闭源道路,而是选择了开源,足以证明,蚂蚁想干一件更长远的事:
通过技术开放的方式,不断迭代技术,构建一个真正开放的AGI生态。
根据AI科技评论了解,目前“万亿参数俱乐部”里能做到完全开源的,只有蚂蚁百灵的Ling-1T和Ring-1T-preview,以及Kimi的K2。
在大模型参数军备竞赛愈演愈烈的2025年,投入如此巨大之后,蚂蚁选择直接开源,看似让人费解。
但如果了解大模型开源背后的意图,就会明白,当Ling-1T和Ring-1T-preview这样万亿参数模型,公布了背后的训练数据、算法、模型,开发者可以直接利用这些“庞然大物”作为起点,快速构建复杂的应用程序,无需关心底层模型的训练。一个“使用-反馈-迭代”的正向循环,将极大推动技术共建,加快智能涌现。
这条"技术平权化"的道路,我们并不陌生。今年年初,DeepSeek的横空出世,已经为众多中国大模型头部玩家们指明了道路。
今年接任蚂蚁集团CEO的韩歆毅,曾在内部技术日上表达了蚂蚁AI的主张:
“大家说(蚂蚁)聚焦AI应用,还要不要做基础大模型,年初讨论的时候我们答案非常坚决,一定要,因为如果基于AI做服务和应用,就像训练一个人去做所有的事,追求智能上限,会让这个人更加聪明,能够做更多、更好的服务。我们很坚定去探索AGI、探索智能上限。”
蚂蚁还专门成立了InclusionAI开源组织,建设了大模型全栈技术,包含强化学习推理框架AReaL、多智能体框架AWorld等,这些技术也已经通过开源、开放合作的形式与行业共享共建,让创作者可以交流共创。
能看得出来,相比于登台唱戏,蚂蚁更加愿意把戏台搭好,AI的基础设施铺设好,才能吸引更多的人来共建,真正迈向AGI。
作者丨齐铖湧
编辑丨陈彩娴
原创文章,未经授权禁止转载。详情见转载须知。
相关攻略
大模型私有化部署的成本控制,是企业决策时必须面对的核心挑战。硬件采购、软件授权与持续运维的人力投入,构成了部署预算的主要部分。如何确保每一分投入都产生最大价值?流程自动化,特别是RPA(机器人流程自动化)技术的深度应用,正成为优化成本结构的关键杠杆。本文将从成本构成的多维度剖析出发,结合实在智能RP
在多模态人工智能领域,如何让机器协同理解图像与文本是一项核心挑战。超大模型通过一套精密的信息整合机制,高效处理并融合不同模态的数据。本文将深入解析这一过程的关键步骤与技术原理。 一、数据预处理与特征提取 处理多模态数据的第一步是进行标准化预处理,将图像、文本等原始信息转化为模型可处理的统一格式,为后
将大规模AI模型成功部署到实际产品与服务中,其挑战远超单纯的技术实现。这本质上是一项需要精密权衡的系统工程,核心目标在于实现模型强大能力、有限计算资源与终端用户体验三者之间的动态平衡。为达成这一目标,我们需要从以下几个关键层面进行系统性优化。 一、模型性能优化:提升AI“大脑”的推理效率 首要任务是
当我们探讨超大模型(或称大语言模型)的强大能力时,其背后对用户隐私与数据安全的特殊要求不容忽视。尤其是在处理个人敏感信息时,这一问题变得尤为复杂和关键。这主要源于模型复杂的算法结构及其处理海量数据的特性。那么,在AI模型的应用中,具体有哪些隐私与数据安全的关键环节需要企业和技术团队重点关注呢? 一、
探讨大模型技术时,其多语言处理能力始终是一个核心议题。这项能力如同一把双刃剑,既开启了前所未有的应用场景,也伴随着一系列复杂的深层挑战。本文将深入剖析大模型多语言能力的应用价值与潜在难题。 应用:跨越语言边界的可能性 大模型的多语言特性,正在全球范围内驱动多个行业的实质性变革与效率提升。 机器翻译与
热门专题
热门推荐
《恋与深空》温泉剧情推广视频因男主角半裸、女主角抚摸互动及喘息音效,被质疑内容露骨擦边。玩家意见分化,部分认为超出浪漫氛围,部分视为常见亲密刻画。官方已回应并处理举报。该游戏此前也曾因尺度问题引发讨论,此次争议再次引发对女性向恋爱游戏内容边界的探讨。
玩家可通过关注游戏官方渠道获取《烹饪牌局》公测信息,或利用游戏社区APP的订阅功能接收推送通知。此外,查询正规手游开测时间表也能了解测试计划。结合这些方法,可及时掌握游戏公测动态。
短线交易盈利5%到30%区间分批抛出较为合理。主流币目标常为5%-15%,小币种或高波动行情可放宽至20%-30%。需结合市场动态调整:震荡市5%-8%可止盈,牛市可设20%-30%目标并配合移动止盈,熊市反弹则3%-5%应果断卖出。可运用分批止盈技巧平衡风险与收益,并严格执行纪律,确保止盈止损相匹配。
索尼重申其PSPlus服务不会大规模采用新作首日入库模式,与XboxGamePass策略形成对比。其会员服务分层明确:基础档提供经典老游戏,进阶档主打历史游戏库,高级档侧重云游戏和复古体验。官方表示每年仅精选少数独立游戏首日入库,所有入库内容均经严格筛选,并借此平台为优质独立游戏提供曝光机会。
索尼解释PlayStation商店30%抽成是维系开发者生态的“关键投入”,超万名开发者参与其中。该抽成支撑着平台运营体系,但索尼因此面临反垄断诉讼,被指控滥用市场地位。目前PS5数字版游戏销量占比已达85%,玩家对商店依赖度显著上升。





