Claude强到不敢发的Mythos,被质疑用了字节Seed技术
Claude最强“神话”模型,可能用到来自字节的技术?
这条猜测直接冲上了热搜榜。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

这款被形容为“强到不敢公开发布”的Mythos模型,确实极大地刺激了人们对下一代大语言模型架构的想象空间。
社区讨论的焦点,正集中在它是否采用了“循环语言模型”(Looped Language Model)这一创新架构上。这个概念,恰恰源自字节跳动Seed团队与多所高校合作发表的一篇学术论文,连AI领域的泰斗Yoshua Bengio也参与了其中。

关键的线索,就藏在Anthropic官方公布的一组测试数据里。
字节的论文明确指出,图搜索是循环算法相比标准RLVR(强化学习与值响应)具有巨大理论优势的领域之一。回过头来看Mythos,它正是在“广度搜索优先的图搜索测试”(GraphWalks BFS)这项任务中,表现出了对竞争对手GPT-5.4的碾压性优势。

80%对21.4%,接近四倍的差距。值得注意的是,在其他类型的任务上,并没有出现如此异常的巨大分差。这似乎暗示,Mythos的这种进步很可能并非源于通用的“规模扩展法则”(Scaling Law),而是来自某种底层的架构创新。
循环语言模型:同一层“多转几圈”,小模型也能碾压大模型
GraphWalks BFS测试,本质上是给模型一个复杂的图结构,要求它执行广度优先搜索——从起点出发,一层一层地访问所有相邻节点。
标准的Transformer模型处理这类问题时,只能进行一次前向传播,从头走到尾,输出结果,其内部并没有“迭代”这个概念。而Mythos能在图遍历任务上拿到80%的高分,表明它的内部很可能在进行“反复计算”,对同一组信息来回处理了多遍。
那么,什么样的架构能够实现这种“反复计算”呢?
字节Seed团队在论文中提出的LoopLM(循环语言模型)提供了一个可能的答案。

简单来说,LoopLM架构有三个核心特点:
第一,它不依赖生成冗长的“思维链”文本来进行思考,而是在模型的内部潜空间进行迭代,不会额外输出更多的token。
第二,它能根据问题难度自动调节“思考”步数:简单题少想几步,难题则多想几步。
第三,也是最重要的一点,它在预训练阶段学习的就不仅仅是“如何预测下一个token”,而是“如何在潜空间里进行思考”。
在实验中,研究团队训练了名为Ouro的系列循环语言模型,这些模型内置了循环思考机制。

测试结果令人印象深刻:1.4B参数的Ouro模型,其性能可以对标约4B参数的传统模型。而2.8B参数的Ouro模型,能力则相当于8B到12B参数的传统模型。

循环模型的能力提升究竟从何而来?论文进一步分析了“知识存储”与“知识操作”的区别。
“知识存储”的容量本质上是有限的,大约每个参数2比特,无论采用什么架构,这个数字基本不变。循环机制本身并不会让模型“记住”更多的事实性知识。
但“知识操作”就完全不同了。将已知的事实组合起来进行多跳推理、执行程序、搜索图结构——这类能力会随着循环步数和训练数据量的增加而呈指数级增长。
换句话说,循环模型并没有给AI一个更大的静态知识库,但它让AI在现有知识库内部进行搜索、组合和推理的能力,提升了一个数量级。
三条线索指向循环模型架构
那么,Mythos究竟是不是采用了循环模型架构呢?除了GraphWalks测试这个最明显的迹象,社区还总结出了另外几条线索。

第一条线索,即前面详细讨论的广度优先图搜索测试结果。Mythos在该项上的分数不仅是GPT-5.4的四倍,相比其前代模型Opus-4.6的提升幅度也异常巨大。

第二条线索,涉及效率与速度的矛盾。Anthropic的报告指出,Mythos完成每个任务所使用的token数量仅为Opus-4.6的五分之一,但它的响应速度反而更慢(价格也贵了五倍!)。
这在标准Transformer的框架下很难解释:生成的token少,意味着解码步骤少,按理说应该更快才对。然而,循环模型恰好能解释这个矛盾:大量的推理计算并非发生在token生成层面,而是发生在内部的潜空间迭代中,计算量消耗在了“看不见的地方”。
第三条线索,是Mythos在网络安全领域的突出表现。在CyberGym测试中,Mythos拿到了83.1%的分数,而Opus-4.6为66.6%,领先了近17个百分点。此外,Mythos还被发现能找出上千个零日漏洞,主流操作系统和浏览器几乎无一幸免。
漏洞发现的本质,其实就是对程序的控制流图进行遍历,找到一条从用户输入点到危险函数的执行路径——这又是一个图的可达性问题。看,又回到了图遍历,而这恰恰是循环架构天生的强项。
当然,说了这么多,目前终归只是业界的分析和猜测。Anthropic官方没有公开任何关于Mythos底层架构的信息,并且很可能未来也不会公开。
但有一句话值得深思:Scaling Law(规模扩展法则)带来的改善是全面而均匀的,而架构创新则会在与其“归纳偏置”高度匹配的特定任务上,创造出异常尖锐的性能峰值。

循环Transformer的归纳偏置,正是迭代图算法。而Mythos表现出的那个异常尖峰,恰好就出现在图遍历任务上。
或许,Anthropic什么也没说,但测试数据已经替它说明了一切。
字节论文:
https://arxiv.org/abs/2510.25741
参考链接:
[1] https://x.com/ChrisHayduk/status/2042711699413926262
[2] https://aiia.ro/blog/claude-mythos-looped-language-model-theory
相关攻略
Claude最强“神话”模型,可能用到来自字节的技术? 这条猜测直接冲上了热搜榜。 这款被形容为“强到不敢公开发布”的Mythos模型,确实极大地刺激了人们对下一代大语言模型架构的想象空间。 社区讨论的焦点,正集中在它是否采用了“循环语言模型”(Looped Language Model)这一创新架
国产大模型DeepSeek迎来重大更新:快速模式与专家模式上线 最新消息显示,国产AI大模型DeepSeek再次迎来重要升级。4月8日,用户在访问DeepSeek时发现,输入框上方新增了“快速模式”与“专家模式”两个选项。根据官方说明,快速模式专注于日常对话场景,响应速度快,同时支持图片和文件中的文
飞书接入指南:为你的团队嵌入一位AI同事 如果你身处国内互联网或科技行业,对飞书这款高效协作平台一定非常熟悉。如今,它已不仅是团队沟通工具,更成为众多企业的数字化工作中枢。那么,能否让团队成员在飞书内部,直接调用强大的AI智能助手来提升效率呢?答案是肯定的。本指南将手把手教你,如何将OpenClaw
面对复杂连续任务的长程规划,现有的生成式离线强化学习方法往往会暴露短板。它们生成的轨迹经常陷入局部合理但全局偏航的窘境。它们太关注眼前的每一步,却忘了最终的目的地。针对这一痛点,厦门大学和香港科技大
当下,全球AI领域的竞争早已告别“拼参数”的粗放阶段,资本市场的考量愈发务实——谁能将AI研发投入转化为真实利润,谁就能抢占先机。在这场从“技术概念”到“商业实效”的转型竞赛中,率先跑通商业闭环的企
热门专题
热门推荐
Lemonaid是什么 如果你正为音乐创作寻找得力助手,那么Lemonaid很可能就是答案。它是一款专门面向专业音乐人打造的AI音乐生成工具,核心能力在于自主生成包含完整旋律、和声与节奏的乐曲。无论是想要一段氛围感十足的背景音乐,还是为具体场景定制配乐,它都能提供高度逼真且质量上乘的作品。工具提供了
苹果也要出折叠屏,传闻已经有几年了,从目前供应链、分析师与知名爆料者释放的信息来看,这款与市面大折都不一样的阔折叠似乎已经蓄势待发,大概率今年下半年就要正式面市。今天我们就来为大家汇总一波,没准儿就有你想知道的消息。 关于苹果折叠屏手机的传闻,已经流传了好几年。如今,综合供应链、分析师以及各路知名爆
《刺客信条:黑旗重制版》官宣之际,这款新海盗游戏为何能抢先赢得玩家口碑? 当游戏界的焦点都集中在《刺客信条:黑旗重制版》的正式公布时,一款名为《风启之旅》(Windrose)的开放世界海盗生存建造游戏,却凭借其过硬的品质与独特的玩法融合,悄然在玩家社区中掀起热议。这款由乌兹别克斯坦团队Kraken
产品介绍 提到云端智能视频创作,腾讯智影是一个绕不开的名字。这款由腾讯推出的平台,本质上是一个一站式的在线视频工厂,集成了从素材挖掘、剪辑、渲染到最终发布的全链路功能,旨在为用户提供全方位的视频创作解决方案。更吸引人的是,它不仅免费开放,还深度整合了多项前沿AI技术,目标很明确:让视频化表达这件事,
《王者荣耀世界》线下活动风波:合影互动引争议,职业素养与网络舆论深度探讨 近日,《王者荣耀世界》的一场线下玩家见面会,因台上一次短暂的合影互动,意外成为全网热议的焦点。活动中,一位男粉丝上台与角色扮演者(Coser)合影时,主动做出比心手势以示友好,却未得到身旁Coser的任何回应。男生举着手势在原





