EPFL等机构发现大语言模型的内部思维与人类创造性大脑高度同步

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
这项由瑞士洛桑联邦理工学院(EPFL)、意大利卢加诺大学(USI)、韦斯利安大学、巴黎脑研究所(ICM)以及宾夕法尼亚州立大学联合开展的研究,以预印本形式发布于2026年4月,论文编号为arXiv:2604.03480。对这一交叉领域感兴趣的读者,可以通过该编号在arXiv平台上查阅完整原文。
一、为什么要研究AI与创意大脑的关系
相信大家都有过类似的体验:盯着桌上一个普通的回形针,脑子里突然蹦出各种奇思妙想——它能当书签、能弯成项链吊坠,甚至能撬开手机的SIM卡槽。这种从一个点出发,向四面八方发散出无数可能性的能力,心理学上称之为“发散性思维”,它正是人类创造力的核心引擎。与之相对的,则是“收敛性思维”,即从众多可能性中精准定位到唯一正确答案,比如解一道数学题。
近年来,以ChatGPT为代表的大语言模型,在创造力测试中的表现令人惊讶。研究人员使用经典的心理学工具“替代用途测试”(Alternate Uses Task, AUT)来衡量这种能力:给出一个普通物品(比如“风筝”或“砖头”),要求尽可能多地想出它不寻常的用途,然后由评审根据创意程度打分。结果显示,一些顶尖AI模型的得分已经达到甚至超过了普通人类的平均水平。
然而,一个更深层的问题随之浮现:AI在行为上表现出创意,但其内部的“思考过程”,真的和人类大脑产生创意时的状态相似吗?这就好比一个人能流利地说外语,但我们无法确定他是在用这门语言思考,还是仅仅在套用翻译模板。研究团队的目标,正是解开这个谜题。
这个问题的重要性,远不止于学术好奇。如果AI在处理创意任务时,其内部的信息处理方式能够映射到人类大脑的运作模式,那就意味着AI在某种程度上“理解”了创造力,而非仅仅在统计学层面进行模仿。这对于我们理解AI的本质,以及如何设计更优秀的AI系统,具有深远的意义。
为了回答这个问题,研究团队将神经科学领域的“功能性磁共振成像”(fMRI)技术,与对AI模型内部数学表示结构的系统测量相结合,专门针对主动创意思考任务进行比较。这是历史上首次有人将这两条路径放在一起,进行如此系统的研究。
二、实验是怎么设计的
研究团队使用了神经科学家贝蒂等人于2018年收集的一批珍贵数据。数据来自170名健康参与者,他们在核磁共振扫描仪中完成了两项任务。
第一项是创意任务,即前述的替代用途测试(AUT):参与者看到物品名称后,需要想出最有创意的用途,并报告他们认为最原创的那个想法。第二项是非创意控制任务,即“物体特征任务”(Object Characteristics Task, OCT):看到同一个物品名称后,只需报告其最明显的物理特征(如看到“砖头”回答“红色”或“很重”)。两项任务使用相同的46个物品,结构高度对称,唯一区别在于是否要求创意输出。经过数据清洗,最终保留了162名参与者的有效数据。
处理大脑数据时,团队首先对原始磁共振信号进行了标准化处理,包括去除干扰、消除趋势、标准化和滤波。随后,他们采用“广义线性模型”统计方法,从原始脑信号中提取出每一次试验对应的大脑激活模式。这个过程,类似于从一段嘈杂的录音中,精确分离出每个音符的频率特征。
分析区域的选择也很有讲究。团队重点关注了两个与创造力密切相关的大脑网络:一是“默认模式网络”(Default Mode Network, DMN),它在人发呆、做白日梦或自由联想时异常活跃,被认为是创意产生的神经基础;二是“额顶网络”(Frontoparietal Network, FPN),负责认知控制和高级推理,帮助评估和筛选浮现的想法。作为对照,他们还分析了与创意思维基本无关的“躯体运动网络”,以排除干扰因素。
在AI侧,团队向一系列不同规模的开源大语言模型输入了与参与者完全相同的任务指令和物品名称,然后提取模型每一层的内部激活向量作为其“思维表示”。这里有一个关键创新:他们不仅提取了模型看到输入提示后的激活状态(提示词阶段),还提取了模型生成回答后的激活状态(生成阶段),以期捕捉完整的处理过程。
衡量AI表示与大脑激活之间相似度的方法,叫做“表征相似性分析”(Representational Similarity Analysis, RSA)。其核心思路可以这样理解:假设有46首不同的歌曲,让两个人分别评价每两首歌之间的相似度。如果两人的评价模式高度吻合——比如他们都认为某两首歌特别像,某两首歌截然不同——那就说明两人的音乐品味在深层结构上一致,即便他们描述歌曲的词汇完全不同。RSA正是用同样的逻辑,比较大脑对不同物品的响应模式与AI对相同物品的内部表示结构,从而量化两者在几何空间上的相似度。
此外,参与者对每个AUT任务的回答,均由四位独立评审进行创意评分(1-5分)。评审间的一致性系数(ICC)达到0.75,这在统计学上属于“良好一致性”,确保了评分结果的可靠性。
三、模型越大、越有创意,就越像人类创意大脑
研究团队测试了近20个不同的开源大语言模型,参数量从2.7亿跨越到720亿,涵盖了Gemma、Llama、Qwen、Falcon等多个主流系列。
分析模型在提示词阶段的内部激活与人类默认模式网络响应的对齐程度时,一个清晰的规律浮现出来:模型参数量越大,对齐得分越高,两者之间的皮尔逊相关系数达到了0.58(p < 0.05)。这意味着,这种正相关关系不太可能是随机出现的。换句话说,一个720亿参数的大模型,比一个2.7亿参数的小模型,更能“复现”人类大脑进行创意思考时的内部状态。
更有趣的发现还在后面。当团队将每个模型的AUT得分(由谷歌Gemini模型评估其输出创意程度)与对齐得分进行关联分析时,同样发现了显著的正相关关系(相关系数0.51,p < 0.05)。也就是说,AI在创意任务上表现得越出色,其内部思维结构就越接近人类大脑产生创意时的神经模式。
这个发现具有双重意义。从神经科学角度看,它暗示默认模式网络所编码的创意信息,某种程度上也存在于大语言模型足够深层的表示空间中;从AI研究角度看,它提供了一种基于神经科学的新评估维度,超越了单纯的行为测试分数。
然而,这种美好的对应关系在模型开始生成回答后,出现了明显弱化。当使用“提示词+模型回答”阶段的激活进行分析时,对齐得分与模型大小的相关系数骤降至接近零(0.01),与AUT得分的相关系数也下降到0.37且不再显著。这意味着,一旦模型真正“开口说话”,它的内部状态就开始偏离人类大脑的创意模式。
对此,研究团队提出了两种可能解释。其一,不同规模的模型在输出层面可能趋向于生成相似的答案,因为它们都基于相似的大规模文本数据训练,这种“创意同质化”会掩盖模型间的差异。其二,模型越大,其生成的回答在长度、结构和质量上与人类的简短回答差距可能越大,导致直接比较变得困难。这个发现指出了一个重要局限:目前的对齐分析主要在输入处理阶段成立,生成阶段的动态机制仍有待深入探索。
在额顶网络方面,分析显示其对齐得分与AUT性能之间存在显著正相关(相关系数0.55),但与模型大小的相关性并不显著(相关系数-0.18)。这说明,默认模式网络和额顶网络在与AI规模的关系上呈现出不同模式:额顶网络的对齐更多地与模型本身的“创意能力”相关,而非单纯的参数量。
为了确认这些效应是创意思维特有的,而非普遍规律,团队进行了两个关键的对照实验。首先,使用非创意的OCT任务数据重复分析时,无论是模型大小还是AUT得分,与默认模式网络的对齐均不显著。其次,当分析目标换成与创意基本无关的躯体运动网络时,同样未发现显著相关。这种“双重解离”模式有力地证明,先前观察到的对齐效应,确实是由“创意相关任务”和“创意相关大脑网络”共同决定的,而非偶然。
四、越深的层,越懂创意
大语言模型内部由多层网络组成,每一层都对输入信息进行不同程度的加工,好比流水线上的不同工序。已有研究表明,靠前的层通常处理基础的词汇和语法信息,而靠后的层则处理更抽象、更与任务相关的高级语义信息。
研究团队发现,在所有测试的模型中,与默认模式网络对齐程度最高的,往往是那些靠后的层。他们计算了每个模型“最佳对齐层”的相对位置(层编号除以总层数),发现这个相对深度与对齐得分之间存在显著正相关(相关系数0.54,p < 0.05)。
从分布来看,峰值集中在相对深度0.5到0.75的区间,即大多数模型的中后段层是与创意大脑响应最相似的部分。这个结果与创造力作为高级认知功能的定位是一致的——大脑默认模式网络负责的是复杂的联想和抽象思维,而非基础词汇处理;对应到AI中,也理应是那些处理高级抽象表示的深层网络与之最为接近。
五、训练方式决定了AI对“创意大脑”的亲疏远近
研究中最具洞察力、也最富实际意义的部分,在于分析了不同训练策略如何影响AI与大脑创意响应之间的对齐关系。
团队将参与者的大脑数据按创意得分高低分为两组:高创意响应组(评分≥2.0,共1358个样本)和低创意响应组(评分<2.0,共1978个样本)。评分虽为1-5分,但由于分布左偏(多数回答创意程度不高),以2.0为界能大致均衡样本量。随后,他们测量了几个不同版本的Llama-3.1-8B模型与这两组数据的对齐程度。
这些版本包括:未经任何微调的基础预训练版本(Llama-3.1-8B);经过标准指令跟随微调的对话版本(Llama-3.1-8B-Instruct);经过“创意偏好优化”微调的版本(CrPO-Llama-3.1-8B-Instruct-cre),该版本专门针对新颖性、惊喜感、多样性和质量等创意维度进行了优化;经过模拟人类行为微调的版本(Llama-3.1-Minitaur-8B),该模型被训练用于预测和复现人类在各种认知任务中的实际行为;以及经过推理链训练的版本(DeepSeek-R1-Distill-Llama-8B),该模型通过学习DeepSeek-R1系统生成的“逐步推理”过程进行微调。
在提示词阶段,所有版本表现相似,对高、低创意的大脑响应均有一定程度的正向对齐,差异不大。这表明,在“尚未开始思考”的阶段,不同训练策略带来的差异尚未充分显现。
真正的分歧出现在模型生成回答之后。标准指令微调版本(Llama-3.1-8B-Instruct)对高、低创意响应保持了相近的对齐程度,相对均衡。而创意优化版本(CrPO)则表现出明显的“选择性”:它对低创意大脑响应的对齐程度显著下降,而对高创意大脑响应仍保持了相当程度的对齐。这完全符合其训练目标——它被专门训练以生成更有创意的内容,因此其内部表示结构自然地向高创意的神经几何形状靠拢,同时远离低创意的形状。
人类行为模拟版本(Minitaur)则呈现出另一种有趣模式:它对高、低创意的大脑响应都有所提升。团队认为,这是因为该模型被训练以复现实实在在的人类行为,包括那些创意程度参差不齐的普通回答,因此其表示空间与人类神经响应的整体分布更加吻合。
基础预训练版本(未指令微调的Llama-3.1-8B)在生成阶段几乎丧失了对两种创意水平的所有对齐。这很可能是因为,没有经过指令微调的基础模型,根本无法有效理解和遵循创意任务的要求,因此其“尝试完成任务”时的内部状态,与真正进行创意思考的人类大脑状态毫无关联。
最引人注目的,是推理链训练版本(DeepSeek-R1-Distill)的表现:它对高创意大脑响应呈现负向对齐,而对低创意大脑响应呈现正向对齐。这是一个方向完全反转的戏剧性结果。
这个结果的含义深刻:经过推理链训练(即学习“先分析问题,再逐步推导答案”的思维模式)的模型,其内部表示结构实际上与人类创意思考时的神经模式背道而驰。推理链训练让模型擅长有条理的收敛性思维,而创意大脑活跃时的神经几何形状,与这种分析推导式的处理模式在表示空间上处于相反方向。简言之,AI学会了“理性推理”,却在某种意义上“失去”了对创意大脑的感应能力。
六、这对AI开发意味着什么
研究团队在讨论中指出,目前大多数主流的AI后训练策略,如训练模型解数学题、写代码、进行逻辑推理,本质上都是在优化收敛性思维——这些任务通常有标准答案,便于机器自动评判,训练起来高效。然而,这项研究的结果暗示,过度强调这类训练,可能会在无意中削弱模型的发散性思维能力,让模型的内部表示结构越来越远离人类创意神经几何的形状。
一个具体的证据就是推理链训练版本的表现:它不仅在对齐层面出现反转,从直觉上也符合许多人的观察——经过推理链训练的AI给出的答案往往更“规整”,但在创意上有时显得保守或千篇一律。相反,专门针对创意优化的版本,则在对齐上呈现出更符合预期的选择性模式。
可以说,大脑对齐分析提供了一种超越行为测试的、更深层的评估维度。一个模型在创意测试上得分高,并不必然意味着其内部机制真正在“以类似人类的方式”进行创意处理;反之,如果一个模型的内部表示在神经层面与创意大脑高度对齐,这可能意味着它掌握了更接近人类创造性认知的某种计算原理。
归根结底,这项研究像一次精密的“内窥镜检查”,让我们首次窥见AI在“思考创意”时,其内部状态与人类创意大脑之间的共鸣与分歧。更大的模型、更高的创意能力、更深的网络层次,都会让AI的“创意思维”更接近人类大脑的运作方式——但前提是训练方向要对路。否则,即便参数再多,若一味朝着“理性推理”的方向前进,只会让AI的“大脑”越来越不像那个能够天马行空、浮想联翩的人类心智。这对于一个充满复杂问题、迫切需要真正创意的世界而言,是一个关乎AI发展方向的根本性提醒。感兴趣深入了解研究细节的读者,可通过arXiv编号2604.03480查阅完整论文。
Q&A
Q1:替代用途测试(AUT)是什么,为什么用它来研究创造力?
替代用途测试是心理学中衡量发散性思维的经典工具。测试者会得到一个普通物品的名称(如“砖头”或“回形针”),然后尽可能多地想出该物品不寻常的用途,最后由评审根据答案的创意程度打分。这个测试能有效反映一个人从单一出发点产生多元、原创想法的能力,被广泛认为是衡量创造力的可靠指标,因此被用来同时评估人类参与者和大语言模型的创意表现。
Q2:推理链训练为什么会让AI与创意大脑的对齐出现“反转”?
推理链训练让模型学会逐步逻辑推导的思维方式,这种模式本质上是收敛性的,目标是找到唯一正确答案。而人类进行创意思维时活跃的大脑网络(默认模式网络),对应的则是发散、自由联想的神经几何状态。两种思维方式在大脑表示空间中处于相反的方向。因此,推理链训练会将模型的内部表示结构推向与创意大脑响应相反的方向,导致其对高创意响应出现负向对齐。
Q3:表征相似性分析(RSA)是怎么比较AI和大脑的?
RSA的核心思路是比较“相似度结构”,而非直接比较数值。研究团队将46个物品分别输入AI并呈现给人类参与者,然后分别计算每两个物品之间在AI内部表示空间中的距离,以及在大脑响应模式中的距离,从而形成两个“距离矩阵”。如果AI认为某两个物品很相似(距离近),同时大脑响应也认为它们相似,就说明两者的几何结构是对齐的。这种方法不要求AI和大脑使用相同的“语言”,只需它们对物品之间关系的“感知结构”一致即可。
相关攻略
这项由瑞士洛桑联邦理工学院(EPFL)、意大利卢加诺大学(USI)、韦斯利安大学、巴黎脑研究所(ICM)以及宾夕法尼亚州立大学联合开展的研究,以预印本形式发布于2026年4月,论文编号为arXiv:2604 03480。对这一交叉领域感兴趣的读者,可以通过该编号在arXiv平台上查阅完整原文。 一、
北京商报讯(记者 陶凤 王天逸) 人工智能领域又传来一条振奋人心的消息。4月8日,摩尔线程正式宣布,其旗舰级AI训推一体全功能GPU——MTT S5000,已经成功完成了对智谱新一代旗舰模型GLM-5 1的Day-0极速适配。这意味着,推理部署与训练复现的全部流程,现在都能在这条国产算力路径上获得支
如何用SQL求解逻辑推理题:经典楼层分配谜题实战 今天我们来探讨一个非常有趣的技术应用:使用SQL来求解逻辑推理题。这听起来或许有些大材小用,但正是这种跨界应用,充分展现了SQL语言的强大灵活性以及开发者分析问题的思维能力。我们将以一个经典的五人楼层分配谜题作为案例,逐步拆解如何用纯粹的SQL找到答
一个学生忽视了一行代码,结果发现了一件很不对劲的事:在一个多模态医学AI项目中,这行代码原本负责让模型读取图像数据。但因为这次疏忽,模型实际上完全没有看到任何图片。按理说系统应该报错,或者至少拒绝回
雷递网 乐天 3月31日智谱CEO张鹏今日在智谱2025年年报沟通会上表示,智谱曾经历过质疑,经历过挫折,但无数事实反复验证了一个判断——智能上界的提升,是大模型AGI时代唯一的 "第一性 "。张鹏说,
热门专题
热门推荐
Ja vaScript 生态常用库曝高危漏洞,数百万应用面临代码执行风险 一个在Ja vaScript生态中广泛使用的 `form-data` 库,最近曝出了一个高危安全漏洞(编号CVE-2025-7783)。这事儿影响可不小,波及了数百万个依赖该库的应用。攻击者一旦利用这个漏洞,就能执行恶意代码,
宇树科技和阿里将有出海战略级合作:宇树机器人上手阿里电脑打字 或将落地速卖通 4月9日,一则来自申妈朋友圈的消息引发了业内关注。据知情人士透露,宇树科技与阿里巴巴之间,正在酝酿一项重要的出海战略合作。 这并非空xue来风。就在近日,宇树科技的最新款机器人R1,被发现现身于阿里巴巴的西溪园区。更有趣的
长沙女子报警“救母” 警方紧急止付42万元 最近,长沙发生的一起案件,给所有为子女婚事操心的父母敲响了警钟。一位女士急匆匆跑进派出所报案,原因是她怀疑自己的母亲可能遭遇了电信反诈。接警后,民警的反应堪称教科书级别,立即启动了紧急止付程序,成功冻结了高达42万元的涉案资金,为当事人挽回了巨额损失。 随
近期,战神新作传闻再起:2026年会是奎爷回归之年吗? 最近游戏圈里可不太平静,几条在社交平台上流传的消息,把玩家的胃口又吊了起来——传闻称,战神系列全新的正统续作,有望在2026年4月正式揭开面纱。需要厘清的是,目前索尼和圣莫尼卡工作室确实在忙活《战神:希腊三部曲》的重制版,但这次传闻指向的,是另
小米汽车因一张P图冲上热搜第一:Tim Cook出任小米汽车CEO? 今天科技圈的热搜榜,被小米汽车意外“霸占”了。不过,这次的主角既不是新车发布,也不是什么营销大动作,而是一张来自网友的、脑洞大开的P图。 事情是这样的。前几天,苹果CEO蒂姆·库克宣布将于今年9月退休,这消息本身就够重磅了。结果,





