罗福莉观点:实现AGI后的下一步是机器自进化

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
“干活消耗的Token量是简单问答的10倍甚至100倍,成本大幅提高。”
回答月之暗面CEO杨植麟“为什么涨价”的问题时,智谱CEO张鹏这样说道。
上文这组问答,发生在今天举行的2026中关村论坛年会开源主题圆桌上。和三个月前清华主导的AGI-Next开源论坛不同,今天的开源主题圆桌上多了一些新面孔。

年初的AGI-Next上,演讲嘉宾除了智谱创始人唐杰和杨植麟外,还有彼时的Qwen技术负责人林俊旸。
几个月时间过去,林俊旸以一种戏剧性的方式从阿里迅速离职。而在这场圆桌上,除了杨植麟和张鹏,基模界的另一位代表是小米MiMo大模型负责人罗福莉,以及无问芯穹联合创始人兼CEO夏立雪、香港大学助理教授、博士生导师、Nanobot团队负责人黄超。
和罗福莉现身同步的是MiMo-V2-Pro近期在模型市场的火热表现。OpenRouter最新周榜数据显示,小米MiMo-V2-Pro模型拿下周榜第一,成为OpenRouter史上首个周Token消耗量超3万亿的模型。

小米也凭借MiMo-V2-Pro的出色表现,与智谱、MiniMax、阶跃星辰、DeepSeek等一众国产大模型厂商包揽周榜前六名。
和AGI-Next不同,今天的圆桌会谈并不仅仅聚焦模型。除了月之暗面、智谱、小米三大基模厂商代表之外,无问芯穹是清华系孵化的AI Infra企业, Nanobot是港科大在今年初发布的开源Agent框架。
换句话说,这场论坛从Agent生态出发,实际上涵盖了整个AI行业的产业链。
值得关注的是,几个月前AGI-Next举行时,智谱刚刚上市3天,创始人唐杰主导了那一场论坛。而在今天的开源主题圆桌上,主导对话的杨植麟和月之暗面,刚刚在昨日传出了考虑赴港IPO的消息。
特殊的时间节点,加上中关村论坛的“舞台”,这一场圆桌论坛被迅速推到行业的聚光灯下。

01
谈OpenClaw时代机遇|夏立雪:每两周Token翻一倍
杨植麟:现在最流行的就是OpenClaw,大家在日常使用或者类似产品时,觉得什么最有想象力或印象深刻?我们从技术角度,先请张鹏谈谈对OpenClaw和相关Agent的看法。
张鹏:我把它称作一个“脚手架”。它提供了在模型基础上搭建非常牢固、方便且灵活的可能性。普通人可以以极低门槛使用顶尖模型,尤其是在编程和整体能力方面。以前想法受限于不会编程等技能,现在通过简单交流就能完成,这是一个非常大的突破。
夏立雪:我最开始用不太适应,习惯了聊天式交互,感觉OpenClaw很慢。后来发现它其实是能帮我完成大型任务的。从按Token聊天到现在能完成任务的Agent,想象力空间提升了,但对系统能力要求也变大了,这就是为什么一开始会觉得卡。
作为基础设施厂商,我看到的是机遇和挑战。我们的资源要支撑起这个快速增长的时代。比如我们公司从1月底开始,每两周Token量翻一番。现在的Token用量就像当年100兆手机流量的时代。我们需要更好的优化和整合,让每一个鲜活的人都能用起来。这对整个社区是巨大的优化空间。
罗福莉:我认为OpenClaw是一个非常革命性和颠覆性的事件。虽然深度Coding的人首选可能还是Code,但用过OpenClaw的人会感受到它在Agent框架设计上是领先于Code的,Code的最新更新其实都在向OpenClaw靠近。
它给我的最大价值在于“开源”:这有利于社区深入参与。它把国内次顶级闭源模型的上限拉得非常高,在绝大部分场景下任务完成度已非常接近最新模型,同时又靠Skill体系保证了下限。
此外,它点燃了大家的想象力。大家发现大模型外的Agent层有巨大空间,更多人不仅是研究员,开始参与AGI变革,这在一定程度上替代了重复工作,释放了时间去做更有想象力的事。
黄超:首先是在交互模式上,OpenClaw给了大家一种“更有活人感”的体验。之前的Agent工具感更强,而OpenClaw以“软件切入”的方式,更接近大家想象中的个人贾维斯(J.A.R.V.I.S.)。
其次,它证明了架构Agent的框架可以既简单又高效。它让我们重新思考:是否需要一个All-in-one的超级智能体,还是需要一个轻量级操作系统或脚手架式的小管家?它让大家更有“玩起来”的心态,撬动生态里的所有工具,通过Skills或Tool的设计,赋能各行各业。
02
杨植麟问张鹏:为什么涨价?
杨植麟:张鹏,智谱最近发布了新的GLM Turbo模型,对Agent做了增强,能否介绍一下新旧模型的不同?以及观察到的提价策略反映了什么市场情况?
张鹏:发布Turbo主要是为了从“简单的对话”转向“干活”。OpenClaw让大家看到大模型能干活,但干活背后的Token消耗非常高,需要规划、尝试、Debug、处理模糊需求。Turbo在这些方面做了优化,本质上是多智能体协同架构,但在能力上有偏向性加强。
关于提价,因为干活消耗的Token量是简单问答的10倍甚至100倍,成本大幅提高。长期低价竞争不利于行业发展,调整价格是为了回归正常的商业价值,让我们能持续优化模型,提供更好的服务。
杨植麟:随着开源模型和推理算力形成生态,Token量爆发,逐渐从训练时代变成推理时代。请教夏立雪,这对无问来说意味着什么?
夏立雪:我们一直在思考AGI时代的基础设施是什么样子,以及如何一步步实现它。
当前脚下的问题在于AI带来的暴增需求,对系统效率提出了更高的优化要求。我们通过软硬件打通来解决,接入了几乎所有种类的计算芯片,连接国内几十种芯片和算力集群,让资源用在刀刃上,提升转换效率。我们打造了一个标准化的Token工厂。
但这还不够,Agent更像人,能以秒/毫秒级思考和发起任务。而现有的云计算基础设施是为“人”设计的(分钟级操作),限制了Agent。我们需要打造更智慧化的工程,让基础设施能适应AI的高频需求。
基础设施本身也应该是一个智能体,能够自我进化、自我迭代,形成自主组织。Agent之间能更好地通信和协作。基础设施和AI的发展不应隔离,而应产生化学反应,实现真正的软硬协同和算法与基础设施的协同。
03
谈国产模型|罗福莉:推理需求爆发,今年可能增长100倍
杨植麟:罗福莉,小米最近通过发布新模型和开源技术对社区做出了贡献,小米做大模型有什么独特优势?
罗福莉:我想先不谈小米的独特优势,而是谈谈中国大模型团队的优势。
两年前,中国团队在算力受限,尤其是互联带宽受限的情况下,做出了突破:在低端算力限制下,通过模型结构创新(如DPCV3、M1、MA等)去追求最高效率。这给了我们勇气和信心。
虽然现在国产芯片不再受限,但这种对高效率、低推理成本的探索依然重要。例如,现在的Hybrid、SPA、Linear Attention结构等。
为什么结构创新重要?因为OpenClaw越用越聪明的前提是推理Context。现在的难题是:怎么在1M或10M的长上下文下,做到成本够低、速度够快?只有这样,才能激发高生产力任务,实现模型自迭代,在复杂环境中依靠超长Context完成自我进化。
我们现在正在探索Long Context Efficient架构,以及如何在真实长距离任务上做到稳定和高上限。
更长期看,随着推理需求爆发,今年可能增长100倍,竞争维度将下探到算力、推理芯片甚至能源层面。
04
谈Agent迭代|黄超:Memory应该走向分层设计
杨植麟:黄超,你开发了Nanobot等有影响力的Agent项目,从研发或应用层面,接下来哪些技术方向值得关注?
黄超:关于Planning:现在的问题在于,面对长程任务和非常复杂的上下文(比如500步甚至更长),很多模型不一定能做好规划。这本质上是因为模型可能不具备这样的隐性知识,特别是在复杂垂直领域。我觉得未来的Planning需要把很多已有的复杂任务知识固化到模型里。
当然,Skill和Harness本质上也是为了缓解Planning带来的错误,因为提供了高质量的Skill,可以帮助模型去完成比较难的任务。这是针对Planning的解决方案。
然后是Memory:现在Memory永远存在信息压缩不准确、记不准的问题。在长线任务和复杂场景下,Memory会暴增,带来很大的压力。现在各类LLM和Agent都采用最简单的文件系统、Markdown格式的Memory,通过共享文件来做。我觉得未来的Memory应该走向分层设计,让Memory更通用。
因为现在的整个Memory机制很难通用,比如Coding场景、深度学习、多媒体领域,模态差别很大。如何对这些Memory做很好的检索索引、做到更高效,永远是一个权衡。
另外一点是,OpenCode让大家创建Agent的门槛大幅降低之后,未来可能不止一个Agent。我看到Kimi也有Agent Swarm(智能体群)机制,相当于未来每个人会拥有一群Agent。一群Agent相比于单个Agent,上下文会暴增,现在还没有一套很好的机制去管理,尤其对复杂Coding、科研发现来说,不管对模型还是对Agent架构,压力都很大。
对于Tool Use这块:现在Skill还是存在MCP当年的问题,就是质量不保障、有安全问题。现在Skill确实很多,但高质量Skill比较少,低质量Skill会很影响任务完成度。另外,Skill也很难避免恶意问题。
所以Tool Use这块可能需要靠社区,把Skill发展得更好,升级到在执行过程中进化出新Skill的能力。
这就是我觉得当下Agent存在的一些痛点和未来潜在的方向。
05
“在模型行业,12个月已经很遥远。”
杨植麟:最后我们来做一个开放式展望。想请各位用一个词来描述接下来十二个月大模型发展的趋势,以及你的期望。这次我们先从黄超开始。
黄超:我觉得,在AI领域谈十二个月,其实已经是一个很遥远的时间了,很难判断十二个月之后会发展成什么样。原来这里面写的是五年,但我觉得把时间缩短到一年,反而更真实。
如果让我用一个词来概括,我会选“生态”。
现在“龙虾”让大家变得非常活跃,但我认为,未来Agent真正重要的方向,是从一个“个人助手”进一步转变成一个真正的“打工人”角色。也就是说,它不能只是因为新鲜、好玩而被大家使用,而是要真正沉淀下来,成为大家日常工作的工具,甚至成为一个真正的coworker。
所以我觉得,这件事一定需要整个生态共同努力。尤其是开源非常重要——当相关技术探索,包括模型层面的很多技术,都开源出来之后,整个生态才有机会一起共建。不管是模型迭代、Skills平台迭代,还是各种工具的发展,我觉得都需要更好地围绕Agent来构建,创造一个更适合它生长的生态。
从我个人的感受来看,一个比较明显的趋势是:未来很多软件,可能未必还是主要给人用的。过去的软件默认是面向人的,而人需要GUI;但未来很多软件,可能会越来越面向Agent原生使用,也就是Agent Native。这样的话,可能会出现一种很有意思的状态:人最终只使用那些能让自己感到快乐的GUI。
所以我们也看到,整个生态正在从GUI、MCP,逐渐转向CLI这样的模式。我觉得这背后说明,整个软件系统、数据体系,以及各种技术能力,都需要逐步变成Agent Native的模式。只有这样,Agent的发展才会真正丰富起来。
罗福莉:我觉得,把这个问题缩小到一年,其实非常有意义。因为如果放到五年,从我自己对AGI的定义来看,我甚至会觉得它已经实现了。
如果要用一个词来描述接下来一年里,AGI进程中最关键的一件事,我认为会是“自进化”。
虽然这个词听起来有点玄,过去一年大家也提过很多次,但我最近才真正对它有了更深的体会。更重要的是,我开始看到“自进化”这件事,已经出现了一个更务实、可落地、可实操的路径。
原因在于,借助于足够强大的模型,我们之前在c h a t这个范式下,其实并没有真正发挥出预训练模型的上限。而这个上限,现在正在被Agent框架激活。尤其是当模型开始执行更长时间任务的时候,我们会发现,它是可以自己学习、自己进化的。
一个很简单的尝试就是:在现有的Agent框架里,给它叠加一个可验证的约束条件,再给它设置一个loop,让模型不停下来,持续地围绕目标迭代优化。这样我们就会发现,它能够不断拿出更好的方案。
如果这种自进化持续下去,现在其实已经可以跑一两天了,国内很多模型基本都能做到,当然这也和任务难度有关。比如在一些科学研究任务里,像探索更好的模型结构,因为模型结构本身有明确的评估标准,比如更低的perplexity,这类任务就比较适合验证。我们已经发现,在这种确定性较高的任务上,模型能够自主运行和演化两三天。
所以从我的角度看,自进化是目前唯一一个真正有机会创造“新东西”的方向。它不是简单替代现有人的生产力,而是像顶尖科学家一样,去探索这个世界上原本还不存在的东西。
其实一年前,我还觉得这个进程可能需要三到五年;但就在最近,我开始觉得这个时间尺度应该缩短到一到两年。也就是说,我们很可能在近期就能看到:大模型叠加一个很强的自进化Agent框架后,对科学研究带来至少指数级的加速。
因为我最近已经观察到,我们组内做大模型研究的同学,他们的workflow本身就高度不确定、依赖创造力。而借助Claude Code,再加上顶尖模型,基本已经能够把我们自己的研究效率提升接近十倍。
所以我非常期待,这样的范式能够辐射到更广泛的学科和领域。我觉得这是接下来非常重要的一件事。
夏立雪:我的关键词是“可持续Token”。因为我看到,现在整个AI的发展仍然处在一个长期持续推进的过程中。我们也希望,它能够真正具备长期的生命力。
从基础设施的角度来看,一个非常现实的问题是:资源终究是有限的。就像我们当年讲“可持续发展”一样,现在站在“Token工厂”的视角,我们能不能持续、稳定、大规模地提供Token,让顶尖模型真正长期地服务更多下游场景,我觉得这是一个非常关键的问题。
所以现在我们也需要把视角放宽到整个生态。从最早的能源,到转化为算力,再到转化为Token,最终转化成实际的经济价值和GDP,这里面应该形成一个可持续的、经济化的迭代链路。我们不仅要把国内的各种算力资源用起来,也在努力把这些能力输出到海外,让全球资源能够被打通和整合。
所以我认为,“可持续”还有一层含义,就是希望把具有中国特色的Token经济学真正建立起来。
过去我们讲的是Made in China。我们看到,中国能够把低成本、高效率的制造能力转化成优质商品,再输出到全球。那今天我们想做的,某种程度上可以理解为AI Made in China:把中国在能源等方面的优势,通过Token工厂,可持续地转化成优质Token,并输出到全球。
如果能够做到这一点,中国就有机会成为世界的“Token工厂”。这也是我今年非常期待看到的——中国为全球人工智能发展所带来的独特价值。
张鹏:大家可能都在仰望星空,那我就稍微落地一点。如果让我讲未来十二个月里最关键、也最大的问题,我觉得关键词就是“算力”。
因为刚才大家提到的这些技术进展,包括智能体框架,确实让很多人的创造力得到释放,效率也可能提升十倍。但前提是,大家得用得起、也用得上。如果因为算力不够,一个问题提出来以后,要等很久都得不到答案,那肯定是不行的。
也正因为这个原因,我们现在很多研究进展,包括很多原本想做的事情,其实都在一定程度上受到了限制。
我记得前两年,亚勤院士( 编者注:张亚勤,中国工程院外籍院士、清华大学智能产业研究院院长)好像也在中关村论坛说过一句话,大意是:“没卡没感情,谈卡伤感情。”我觉得今天其实又有点回到了这个状态,只不过这次情况又不太一样。就像刚才提到的,我们现在已经进入了推理阶段,而之所以会转向推理阶段,是因为需求真的在爆发,而且是十倍、百倍地爆发。
刚才也提到,效率可能提升了十倍,但需求可能是一百倍,甚至还有大量需求根本没有被满足。那怎么办?这就需要我们大家一起来想办法了。
相关攻略
“干活消耗的Token量是简单问答的10倍甚至100倍,成本大幅提高。”回答月之暗面CEO杨植麟“为什么涨价”的问题时,智谱CEO张鹏这样说道。上文这组问答,发生在今天举行的2026中关村论坛年会开
文 | 字母AI“干活消耗的Token量是简单问答的10倍甚至100倍,成本大幅提高。”回答月之暗面CEO杨植麟“为什么涨价”的问题时,智谱CEO张鹏这样说道。上文这组问答,发生在今天举行的2026
AI正在走向“为了采取正确行动而思考”。编译整理|莘歆来源 | 盒饭财经(ID:daxiongfan)头图及封面来源 | 网络及即梦制作在X(推特)上宣布离职后的22天,林俊旸发了一篇长文。3月2
Anthropic一次内部配置失误,意外将其最机密的技术底牌公之于众。据《财富》杂志26日独家报道,一款名为 "Claude Mythos "、内部代号 "Capybara "的全新旗舰模型已完成训练并进入
梦晨 发自 凹非寺量子位 | 公众号 QbitAI林俊旸,离职阿里千问后首次发声。他没有回应离职风波或宣告去向,而是发长文探讨从“推理模型时代的思考”到“智能体时代的思考”的转变。整篇文章谈的是技术
热门专题
热门推荐
猎豹浏览器免安装网页版入口是https: web lemur-browser com,具备界面简洁响应迅速、多端同步无缝衔接、安全防护层级丰富、文档处理能力突出、资源兼容性广泛覆
据昆仑万维集团消息,3月27日下午,昆仑万维(300418 SZ)旗下天工AI顺利举办“世界模型前沿技术与天工AIGC全家桶大模型生态”专场发布会,携Matrix-Game 3 0、SkyReels
本报(chinatimes net cn)记者石飞月 北京报道大模型未来会走向哪里?OpenClaw的爆火似乎为全行业指明了一个方向,但接踵而至的舆论质疑,又让这个答案变得扑朔迷离。3月27日,在2
Anthropic一款尚未发布的新AI模型因数据泄露意外曝光,引发市场对AI颠覆网络安全行业的担忧再度升温,网络安全板块股价周五盘前全线下挫。据《财富》杂志报道,Anthropic正在开发并已开始向
3月初,腾讯在深圳总部楼下设立“龙虾站”,引发千人排队尝鲜。OpenClaw掀起的“全民养虾”热潮,在短短一个月内让更多人看到了AI Agent深入业务场景的价值,随即推动Token调用量大规模增长





