首页 游戏 软件 资讯 排行榜 专题
首页
AI
MetaAI新突破:Transformer潜藏意识仅3%算力实现55%性能跃升

MetaAI新突破:Transformer潜藏意识仅3%算力实现55%性能跃升

热心网友
33
转载
2025-10-31

这项研究给予我们一个深刻的启示:即便Transformer架构在今天已经相当成熟,我们只需对其核心的自回归机制进行微小却精准的改进,依旧能够带来令人意想不到的性能飞跃。

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

来自Meta FAIR部门的研究员François Fleuret发布了一篇题为《The Free Transformer》的论文,提出了一种对现有解码器Transformer模型的巧妙扩展。

这项创新技术的精髓在于,它让模型在生成每个词汇之前,能够在内部形成一个类似计划草案的潜在决策,而不再像传统方式那样边写边想。

实验数据证实,这种先规划后执行的模式,在编程、数学和推理等各类任务中都带来了显著的性能提升。

AI写作的模式局限

我们现在所熟知的解码器Transformer,例如GPT系列模型,在生成文本时采用逐词递进的方式。它预测下一个词汇时,完全依赖于已经生成的所有前文内容。

假设我们要训练一个模型来撰写影评,而评论又分为正面和负面两类。

一个标准的解码器Transformer自然能够学会书写这两种评论。但它的工作机制是逐字逐句地输出文本——模型可能在写了几句话之后,根据已经表达的关于这部电影的观点,来判断接下来应该继续赞美还是转为批评。

它并没有一个全局性的、事先确定的决策机制:比如我现在要写一篇负面评论。这种正面或负面的概念,实际上是随着文字生成过程,隐含在概率计算中的后续推断。

这种方式存在几个潜在的问题。

它需要模型具备极大的容量和复杂的计算能力,才能从已生成的零散词汇中,反推出一个整体的意图,这种操作效率非常低下。

如果在生成过程的早期,出现了几个存在偏差、模棱两可或者前后矛盾的用词,整个生成过程就可能偏离方向,后续内容也难以调整回来。

关键的概念,比如正面或负面,并非由模型主动构建,而是在拟合训练数据时被动形成的。这使得模型在面对分布以外的数据时,可能表现得相当脆弱。

Free Transformer为模型赋予自主规划能力

Free Transformer的核心思路是,在模型的自回归生成过程中,引入一些额外的、不受训练样本直接控制的随机变量,让模型能够依据这些变量来动态调整文本的生成。

回到电影评论的例子。模型可以首先使用一个内部的随机布尔值,一次性确定接下来要生成的是正面评价还是负面评价。

有了这个全局性的决策机制,模型就不再需要从已经生成的零散词句中费力地推断意图。

实现这个想法,需要借助一种名为变分自编码器(Variational Autoencoder,简称VAE)的框架。

在生成新内容时,操作流程相当简洁:模型先采样一个随机变量Z,然后像普通的Transformer一样,基于这个Z来生成整个序列。

真正的挑战在于训练过程。我们希望模型学会将有意义的信息(例如评论的情感倾向)编码到潜变量Z中。

这就需要一个编码器。在训练时,编码器会读取一个完整的训练样本(比如一篇已有的正面评论),然后生成一个与之匹配的Z。解码器再借助这个Z,尝试去重构原始的评论。

通过联合优化编码器和解码器,模型就学会了如何将序列的全局属性(情感、主题等)压缩进Z,并利用Z来指导生成过程。

这里存在一个关键点:必须限制从编码器流向Z的信息量。否则,编码器可能会耍小聪明,直接把整个原文复制到Z中,解码器就可以轻松完成重构。这在训练时看起来表现完美,但在实际生成时,没有了编码器,模型就束手无策了。

VAE理论通过计算Z的分布与一个标准先验分布之间的KL散度来控制信息量,并将其作为一个惩罚项加入到总的损失函数中。

Free Transformer的结构设计非常巧妙。它并非一个全新的模型,而是对标准解码器Transformer的微小改造。

它将随机噪声Z注入到模型的中间层。

更为精妙的是,编码器直接复用了模型的前半部分网络层,只额外增加了一个非因果关系的Transformer块和两个线性层。

非因果关系意味着这个模块可以同时看到整个输入序列,这对于捕捉全局信息至关重要。

这样的设计,对于一个28层的1.5B模型来说,额外开销大约是1/28,约等于3.6%。而对于一个32层的8B模型,开销约为1/32,即3.1%。

仅用约3%的计算开销,就能带来大幅性能提升,这几乎相当于享用了一顿免费的午餐。

实验结果验证其有效性

为了验证Free Transformer是否真正学会了利用潜变量Z,研究人员设计了一个精巧的合成数据集。

每个数据样本的生成规则如下:以64个下划线_开始。随机选择一个大写字母,在序列的随机位置,用8个该字母组成的目标替换掉下划线。以很小的概率,将任意字符替换为感叹号,作为噪声。在尾部附上一个提示,比如 a>,告知目标字母是什么。

研究人员用这个数据集训练了模型,并设置了不同的KL散度阈值(κ),这个阈值控制了模型可以向Z中注入多少信息量。

结果非常直观。当KL阈值很低时,模型几乎不使用Z,表现与普通Transformer无异(图左上)。所有生成的序列都各不相同。

当阈值稍微提高,模型开始将目标位置信息编码到Z中。在图右上的绿色框里,所有序列共享同一个Z,它们的目标都出现在了相同的位置。

当阈值进一步提高,模型不仅编码了位置,还编码了噪声(感叹号)的模式。图左下的绿色框里,不仅目标位置完全一样,连感叹号出现的位置都完全相同。

当阈值过高时,模型投机取巧,把整个序列的信息都塞进了Z,导致生成了错误的序列(图右下)。

这个实验清晰地证明,Free Transformer确实学会了根据任务需求,自主地将最关键的全剧信息(目标位置、噪声模式)封装到潜变量Z中。

接下来是基于真实世界的基准测试。研究人员使用了1.5B和8B两种规模的模型,与结构相同的标准解码器Transformer进行对比。

为了保证公平,所有超参数都沿用了基线模型的设定,没有为Free Transformer做特殊优化。

结果显示,在需要推理能力的基准任务上,如HumanEval+(代码生成)、MBPP(代码生成)和GSM8K(小学数学应用题),Free Transformer都取得了显著的性能提升。

在8B模型上,当允许每个token引入半比特信息时,性能提升最为明显。

为了验证这种改进在更大规模的训练下是否依然有效,研究团队使用1T(万亿)级别的token训练了8B模型。

结果再次证实了之前的发现。无论是在训练结束时还是在训练后期的平均性能上,Free Transformer在推理、数学和多项选择问答任务中都稳定地优于基线模型。

这项工作的深远意义

Free Transformer以一种极为高效的方式,对标准解码器Transformer的内在偏好进行了改进。

它让模型有能力从训练数据中发现潜在的结构性信息,并利用这些结构来指导内容的生成过程。

在某种意义上,这与思维链或强化学习中的推理模型有异曲同工之妙。后者是在token层面,通过显式的文本来进行推理;而Free Transformer则是在模型的潜在空间中,通过自编码的方式进行一种更深层次的、隐性的规划。

将这两种方法结合起来探索,无疑是一个充满潜力的研究方向。

这项工作还仅仅是一个开端。研究人员指出,模型的训练过程有时不稳定,这可能是编码器和解码器优化过程耦合导致的,未来可以探索不同的优化策略。随机嵌入Z的形式也可以有多种选择。

它在更大规模的模型和数据集上的表现,仍有待进一步探索。

这项研究给予我们的启示是,即使在Transformer架构已经非常成熟的今天,对其核心的自回归机制进行微小却深刻的改造,依然能带来意料之外的性能突破。

AI不仅在学会如何表达,更在学会如何思考。

来源:https://www.51cto.com/article/828342.html
免责声明: 游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

相关攻略

阿里千问 AI 眼镜接入蚂蚁 GPASS:语音解锁共享单车、停车缴费
AI
阿里千问 AI 眼镜接入蚂蚁 GPASS:语音解锁共享单车、停车缴费

当AI眼镜学会“跑腿”:语音解锁单车,无感支付停车费 近来,智能穿戴领域的一个新动向值得关注:阿里旗下的千问AI眼镜,正式接入了蚂蚁集团的GPASS平台。这可不是一次简单的功能叠加,它意味着,诸如共享单车骑行、停车缴费这一系列高频的“AI办事”功能,开始从手机屏幕转移到了你的眼前。 简单说,借助GP

热心网友
04.06
Workbuddy注册额外积分
AI
Workbuddy注册额外积分

角色定位与核心任务目标 明确了基本定位后,我们直接切入核心:作为一名专业的文章优化师,我的核心职责在于,将那些带有明显AI生成特征的文本,深度重塑为拥有个人特色与行业洞见的优质内容。 换句话说,这项任务的关键在于实施一次“精准的换血手术”。你必须严格保证原文所有的事实依据、核心观点、逻辑框架,以及每

热心网友
04.06
OpenClaw使用kimi web_search返回401问题
AI
OpenClaw使用kimi web_search返回401问题

1 故障现象:OpenClaw无法联网搜索的典型报错 许多开发者在配置OpenClaw AI助手的搜索功能时,常常会遭遇一个典型故障:日常对话交互完全正常,但一旦触发需要联网查询信息的指令,界面便会立刻弹出“抱歉,我目前无法使用网络搜索功能(需要配置 API 密钥)”或“HTTP 401: Inv

热心网友
04.05
1.4 万亿词元!阿里 Qwen3.6-Plus 刷新全球最大 AI 聚合平台 OpenRouter 日调用量纪录
AI
1.4 万亿词元!阿里 Qwen3.6-Plus 刷新全球最大 AI 聚合平台 OpenRouter 日调用量纪录

1 4 万亿词元!阿里 Qwen3 6-Plus 刷新全球最大 AI 聚合平台 OpenRouter 日调用量纪录 这事儿挺震撼的。就在4月4日,全球最大的AI模型聚合平台OpenRouter在其官方账号上公布了一个爆炸性数字:阿里刚刚发布的千问新模型Qwen3 6-Plus,上线仅仅一天,日调用量

热心网友
04.04
Solidus Ai Tech(AITECH)币是什么?怎么样?AITECH工作原理和代币经济学概述
web3.0
Solidus Ai Tech(AITECH)币是什么?怎么样?AITECH工作原理和代币经济学概述

Solidus AI 是什么 在AI与Web3加速融合的当下,一个名为Solidus AI的项目提出了自己的解决方案。它将自己定位为“Web3原生的AI HPC基础设施”,其蓝图相当清晰:以位于欧洲的环保高性能计算(HPC)数据中心为基石,向上构建一个计算与AI工具市场,并最终通过AITECH代币完

热心网友
04.03

最新APP

火柴人传奇
火柴人传奇
动作冒险 04-01
街球艺术
街球艺术
体育竞技 04-01
飞行员模拟
飞行员模拟
休闲益智 04-01
史莱姆农场
史莱姆农场
休闲益智 04-01
绝区零
绝区零
角色扮演 04-01

热门推荐

《洛克王国》世界圣羽翼王打法攻略-圣羽翼王技能与实战详解
游戏攻略
《洛克王国》世界圣羽翼王打法攻略-圣羽翼王技能与实战详解

速览攻略:世界圣羽翼王核心打法与全面解析 本攻略将为你完整呈现《洛克王国》世界圣羽翼王的通关秘籍,深度剖析两种高效实战打法:追求极致速度的“燃薪虫四回合速通”与稳定输出的“酷拉无限连击流”。文章将进一步解析这位翼系精灵王的技能机制、属性克制关系及其在PVE与PVP中的实战定位,帮助你彻底掌握应对其隐

热心网友
04.06
《异种航员2》工程系统详解-工作坊与资源管理指南
游戏攻略
《异种航员2》工程系统详解-工作坊与资源管理指南

速览:工程系统核心机制解析 在《异种航员2》中,工程系统是整个抵抗力量赖以运转的“战略后勤中枢”。无论是研发新武器、生产重型装甲还是制造先进飞行器,所有实体装备的产出都依赖于此。简言之,该系统的核心运作围绕着两大关键:工程师人力的高效配置与全球稀缺资源的精细化调度。工程师的数量直接决定了每个项目的建

热心网友
04.06
《洛克王国世界》治愈兔位置详解-任务与战斗关键精灵
游戏攻略
《洛克王国世界》治愈兔位置详解-任务与战斗关键精灵

核心速览 在《洛克王国世界》中,治愈兔是一位兼具功能性任务角色与实战辅助能力的精灵。它的价值不仅在剧情推进中体现,更在于对战里出色的治疗与防护表现。本文将为你全面解析治愈兔的精准获取位置、种族属性特点以及实战技能搭配,助你顺利捕捉并最大化其在队伍中的作用。所有关键信息将通过清晰的图文内容详细展示,确

热心网友
04.06
《红色沙漠》传说之狼打法-传说之狼击杀流程详解
游戏攻略
《红色沙漠》传说之狼打法-传说之狼击杀流程详解

速览 在《红色沙漠》中,挑战传说之狼这一强大的任务BOSS,需要玩家进行充分的准备并遵循完整的任务流程。整个过程环环相扣,你必须首先参与塞莱斯特家族的势力任务,通过完成任务将家族声望提升至指定等级,才能解锁【传说之狼】的专属讨伐任务,最终直面这个传说中的强大生物。 红色沙漠传说之狼怎么打 归根结底,

热心网友
04.06
《宝可梦Pokopia》舒适度提升攻略-环境等级与栖息地优化指南
游戏攻略
《宝可梦Pokopia》舒适度提升攻略-环境等级与栖息地优化指南

【宝可梦Pokopia】舒适度全解析:快速提升环境等级的核心秘诀 你是否正在探索《宝可梦Pokopia》世界,并希望有效提升宝可梦栖息地的舒适度?舒适度不仅是衡量宝可梦快乐程度的晴雨表,更是解锁游戏核心内容、加速发展的关键驱动指标。本攻略将系统性地为你揭示提升舒适度的核心途径,涵盖从装饰栖息地、建造

热心网友
04.06