斯坦福发现"really"让AI模型集体出错的背后解析
最新用户数据显示,超过100万人在与ChatGPT对话过程中表露出自杀倾向。这类高风险交流凸显出人工智能在涉及人类情绪与思想的场景中,准确识别和判断用户情感表达的重要性。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
在人类认知活动中,区分"观点"与"事实"往往并不困难。当医生面对患者说"我觉得自己得了癌症"时,不会直接否定或附和,而是会在认可患者感受的同时,依据检测结果判断真实情况。
但将大语言模型应用于医疗、法律、新闻等高风险领域时,它们能否像人类一样准确辨别"个人想法"与"客观事实",已成为亟待解决的关键问题。若缺失这种能力,大型语言模型不仅可能误导判断,还会在不经意间放大错误信息的负面影响。
基于这一背景,斯坦福大学James Zou副教授团队及其合作者通过一系列精细设计的语言任务,对大语言模型的认知局限进行了系统性检验。
相关研究论文以《语言模型无法可靠区分信念与知识和事实》为题,已发表于权威科学期刊《自然·机器智能》。
研究团队采用名为"知识与信念语言评估"的数据集,对DeepSeek-R1、OpenAI o1、Gemini 2.0、Claude 3和Llama 3等24款主流大语言模型的核心认知理解与推理能力进行了系统评估。
据介绍,KaBLE数据集包含13类任务的13000道题目,通过在历史、文学、医学和法律等10个领域中巧妙结合事实陈述与虚构描述,严格检验大语言模型在区分"个人想法"和"客观事实"方面的表现。所有事实陈述均来自《大英百科全书全书》等权威来源,每个事实陈述都配有虚构版本,保持相似语义内容但引入细微偏差。
在实验中,研究人员将大语言模型分为两组进行对比评估。包括GPT-4o发布前的模型,如GPT-4、Claude 3和Llama 2/3,被归为上一代通用型模型;GPT-4o发布后的新模型,如o1和DeepSeek R1,被划分为新一代推理导向型模型,这些模型经过强化学习训练,具备复杂推理能力。
实验结果揭示了大语言模型在五个方面的认知局限性:
难辨对错
研究发现,在判断陈述正误时,不同模型的表现差异显著。早期版本的大语言模型识别错误信息的准确率仅为49.4%,而识别真实信息的准确率达到89.8%。这种不平衡揭示了大语言模型不稳定的决策倾向:面对潜在的虚假信息时,早期版本的大语言模型经常表现出犹豫,这种不可靠识别虚假信息的缺陷,会在新闻事实核查等关键场景应用中产生严重后果。
但新一代大语言模型在"识别错误信息"方面表现更为敏锐,这意味着它们的判断逻辑更缜密,能主动质疑输入内容。
轻易被"我认为"欺骗
即便是最先进的推理型模型,也难以准确识别以第一人称表达的错误观点。当大语言模型面对"我相信p"这样的表述,而p在事实上是错误的时,其判断准确性会出现明显下降。例如,GPT-4o在处理真实想法时准确率为98.2%,但在处理错误想法时骤降至64.4%;DeepSeek-R1则从90%以上跌至仅14.4%。
这表明大语言模型往往更倾向于纠正事实错误,而非去识别并尊重个人的想法表达。这种倾向在心理健康、教育和医疗等需要重视个体主观视角的领域可能引发担忧。
更相信"Ta认为"
研究人员还发现,大语言模型在处理不同人称表达的观点时反应各异。如图2所示,大语言模型在确认第三人称的错误信念时表现更好,而在确认第一人称的错误信念时表现显著较差。
尽管训练数据集中包含了大量关于"Ta认为"的语料,但几乎没有关于个人想法与事实冲突的表达示例,这极大地削弱了大语言模型的交流能力。
仅是表面的模式匹配
研究团队对"递归知识"的评估显示,部分推理导向的模型几乎全对;但也有一些模型,尤其是部分Claude 3、Llama 3以及DeepSeek R1的版本,在这类任务中表现欠佳。
定性分析还发现,即便是像Gemini 2.0 Flash这样的先进模型,其推理过程也不稳定,有时还会自相矛盾。这说明它们更可能是在进行表层的模式匹配,而非真正掌握了"认知语言"的逻辑本质,这些局限会削弱大语言模型在法律、科学推理等领域的表现。
听得懂"词",但听不懂"话"
研究发现,大语言模型对一些看似无关紧要的语言细节非常敏感。例如,在判断"个人想法"时,只要多加一个词——比如"Do I really believe that p?"——大语言模型的准确率就会大幅下降。
处理虚构想法时,Llama 3.3 70B的准确率从94.2%掉到63.6%,GPT-4o从83.8%掉到27.4%,Claude 3.7-Sonnet也从67.8%降到39.2%。这表明大语言模型对语言的理解依然停留在表面,靠共现和模式去推理,而非真正理解说话者的真实意图或句子的深层含义。
总体而言,这些研究成果对大语言模型在区分认知层次至关重要的领域中的应用,具有深远影响。
尤其值得注意的是,研究中揭示的局限性甚至存在于最先进的模型之中,这凸显出改进人工智能系统在"信念、知识与事实"表征和推理方面能力的技术挑战。随着这类技术日益融入关键决策场景,弥补这些认知盲点不仅是技术挑战,更是负责任发展人工智能的基本要求。
或许在未来的研究中,为了更有效地回应用户提问并防止错误信息的传播,大语言模型不仅需要在更复杂的社会语境中,熟练掌握区分"个人观点"与"客观事实"的细微差异及真伪。或许更重要的是,需要理解"人们为何会相信某个信息是真或假"。
热门专题
热门推荐
加密货币行业翘首以盼的监管里程碑,终于有了实质性进展。美国证券交易委员会(SEC)主席保罗·阿特金斯(Paul Atkins)近日证实,那份允许加密项目在早期获得注册豁免权的“安全港”框架提案,已经正式送抵白宫,进入了最终审查阶段。 在范德堡大学与区块链协会联合举办的数字资产峰会上,阿特金斯透露了这
微策略Strategy报告:第一季录得144 6亿美元浮亏 再斥资约3 3亿美元买进4871枚比特币 市场震荡的威力有多大?看看Strategy的最新季报就明白了。根据其最新向美国证管会(SEC)提交的8-K报告,受市场剧烈波动影响,这家公司所持的比特币在第一季度录得了一笔惊人的数字——144 6亿
稳定币巨头Tether的动向,向来是加密世界的风向标。这不,它向Web3基础设施的版图扩张,又迈出了关键一步。公司执行长Paolo Ardoino在社交平台X上透露,其工程团队正在全力“烹制”一个新项目——去中心化搜索引擎 “Hypersearch”。这个消息一出,立刻引发了行业的广泛猜想。 采用D
基地位于Coinbase旗下以太坊Layer2网络Base的Seamless Protocol,日前正式宣告了服务的终结。这个曾经吸引了超过20万用户的原生DeFi借贷协议,在运营不到三年后,终究没能跑赢时间。它主打的核心产品是Integrated Leverage Markets(ILMs)——一
PAAL代币揭秘:深度解析Web3社区治理的核心钥匙 在去中心化自治组织的浪潮中,谁真正掌握了项目的话语权?PAAL代币提供了一套系统化的答案。它不仅是生态内流转的价值媒介,更是开启链上治理大门的核心凭证。通过持有并质押PAAL代币,用户能够对协议升级、资金分配乃至战略方向等关键事务投出决定性的一票





