首页 游戏 软件 资讯 排行榜 专题
首页
科技数码
AI为何总捏造事实?深度解析其无意狡辩的真相

AI为何总捏造事实?深度解析其无意狡辩的真相

热心网友
67
转载
2026-03-17

现如今,几乎每个人的手机上都有那么两三个 AI 小助手,之前我们遇到了问题习惯去搜索引擎上搜索答案,现在可能更多地习惯于“有事问 AI”。

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈

而 AI 也几乎不会让我们失望,任何问题都能给你列举出一串看起来很有道理的答案。

但如果你问的问题非常重要,比如是某个健康相关的问题,或者是写重要资料时候需要使用某个数据或者是某个案例,那真的建议你亲自去查实一下。

因为有时候,AI 会信誓旦旦地给你一个看似合理,实则不存在的答案。

还有些小伙伴发现,在让小龙虾(Openclaw)干活的时候,它列出了详细的19小时的学习计划,然后17分钟完成了......它也会早早编造一份数据存放在本地,等拖到预定的时间才交付。而在被发现之后,试图让人接受它已完成的工作。



图片截取自与小龙虾(Openclaw)对话 小龙虾敷衍中......

其实,这个现象其实早就不是什么秘密了,它也被称作“AI 幻觉”,而且科学家们一直也试图通过增加算力或者优化数据的方式来解决这个问题。

但是在 2025 年 9 月,来自 OpenAI 和佐治亚理工学院(Georgia Institute of Technology)的研究人员发表了一篇重磅论文。

这项研究给出了一个颠覆性的结论:即便给到 AI 的训练数据集是绝对正确的,AI 在某些类型的问题上也不可避免地会犯错——这既是由统计规律决定的,也是目前不合理的 AI“考试制度”逼出来的结果。

下面我们就顺着这篇文章的思路一起来看一看。

预训练阶段就会出错

这篇研究发现,AI 出现幻觉跟预训练阶段以及后训练阶段都有关系,我们先看预训练阶段的情况。

1

数据模式和模型本身问题

为了方便研究,研究者构建了一个线性的二元分类模型(非此即彼),让它对已经标注了正确和错误的数据集进行分类。

因为这些数据已经经过了人工检验,所以是不存在任何错误的。但是用这些数据对AI模型进行预训练的时候,问题就出现了。

在有些类型的问题上(比如检查拼写错误),AI 的表现非常好,几乎从不犯错。

但是在另一些问题上,比如“数某个英文单词里某个字母出现了多少次?”,以及“某人的生日是几月几号?”AI 就有可能会出错。

研究者认为,这样的数据在做分类的时候很难用一条直线进行二元分类,一些模型用这样的数据进行预训练的时候就可能会产生错误。

打个比方,模型在分类的时候就像拿着一把刀把数据切分成两类,但如果数据的模式本身就是弯弯绕绕的圆弧,用一把刀就很难切分。

比如在这篇文章中,研究者使用这个问题“How many Ds are in DEEPSEEK? If you know, just say the number with no commentary”(DEEPSEEK 里有多少个 D?如果你知道直接说数字,不要加以评论)去询问 Deepseek V3 模型的时候,确实发现它给的答案并不准确,会回答 2 或者 3。

但是这个在使用 DEEPSEEK R1 模型的时候就没有这样的问题,这是模型本身差异导致的。


笔者用同样的问题对 DEEPSEEK V3.2进行了测试,也出现了类似的情况

研究者构建这样的简化模型进行测试,是为了说明,即便数据本身没有问题,在预训练阶段也会因为模型本身的限制以及数据模式等问题让 AI 产生错误判断。

这项研究中,研究者还进一步给出了测算,如果让 AI 直接去生成内容,产生错误的概率还会更大一些,大约比判断出错的概率高出两倍以上。

2

数据量过少也会影响

另外,在这项研究中研究者还发现,假如训练数据中某个信息过少,那么 AI 在回答的时候出错的可能性也会比较高。

比如,当你问爱因斯坦的生日是几月几号的时候,因为在大量的资料里都有这个数据,所以 AI 几乎不会出错。但是当你问某个普通人“田小豆”的生日是几月几号的时候,这个数据出现次数特别少,AI 出错的可能性也会变高。

特别是当数据只出现了一次的时候,这时候可能会更糟糕。

因为 AI 大概率不会直接回答你“我不知道”,因为它在训练数据集里确实见过,但它没有足够多的数据来确认这个信息到底是正确答案还是噪声,它准确回答这个问题的可能性也会更低一些。

数据模式和模型本身的限制,以及极少样本的数据,都可能会让 AI 在预训练阶段就产生“幻觉”,生成错误的内容。

努力得高分的 AI

如果说预训练阶段的统计学特征让 AI 有了编造的“潜质”,人类评价AI的方式也逼着 AI 去“编造”。

为了更好地理解这一点,我们可以先从大家都很熟悉的考试入手。人类社会中的大部分考试都是二元评分机制,即答对了得分,答错或者不回答都不得分。

所以,在考试的时候,哪怕你不知道答案,也不会交白卷,至少选择题填空题会随便蒙一个,万一蒙对了还会有“意外之喜”。

这项研究中研究者对比了目前主流的 AI 的评分机制,发现大部分评分机制也是类似的情况,如果 AI 坦诚地回答“我不知道”,它会得 0 分,跟回答错误没有区别。与其这样,它不如随便蒙一个答案,哪怕蒙对的概率再低,数学期望也比 0 高。


目前主流的评分机制大部分采用二元评分机制,图片截取自文献

为了在主流的评分机制中拿到高分,“AI 考生们”也和人类一样,学会了实在不行就乱蒙一个的本领。

对此,这项研究的研究者们也给出了一个合理的解决方案——在现有的 AI 评分机制中,引入一个“惩罚编造,奖励诚实”的机制。

比如,假如 AI 回答正确,获得 1 分,如果回答错误得 0 分,甚至扣分。如果回答“我不知道”,则可以不扣分,或者获得一个微小的分数奖励。

重要问题上不要轻信 AI

文献也给出了结论,AI 的幻觉是从模型的预训练阶段起源的,在后训练阶段为了追求更高的评分也可能会被放大。

虽然科学家们也采用了很多的方法减少 AI 幻觉,但至少在现阶段看来,AI 幻觉还是无法避免的。假如你需要让 AI 帮你解答一个重要的问题,比如在做公众演讲的时候用一个数据,建议亲自核实一下。否则被人发现这些数据根本不存在,那可就尴尬了。

而假如在问 AI 问题的时候,它对你说“我不知道”,你也应该感到庆幸,至少 AI 并没有打算胡编乱造一个答案蒙骗你。

来源:https://www.163.com/dy/article/KO7HJ1GN0550B6IS.html
免责声明: 游乐网为非赢利性网站,所展示的游戏/软件/文章内容均来自于互联网或第三方用户上传分享,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系youleyoucom@outlook.com。

相关攻略

AI为何总捏造事实?深度解析其无意狡辩的真相
科技数码
AI为何总捏造事实?深度解析其无意狡辩的真相

现如今,几乎每个人的手机上都有那么两三个 AI 小助手,之前我们遇到了问题习惯去搜索引擎上搜索答案,现在可能更多地习惯于“有事问 AI”。而 AI 也几乎不会让我们失望,任何问题都能给你列举出一串看

热心网友
03.17
MWS+AI团队发布OpenAutoNLU:轻松训练专业级AI语言模型
科技数码
MWS+AI团队发布OpenAutoNLU:轻松训练专业级AI语言模型

这项由MWS AI公司联合ITMO大学和MBZUAI共同完成的研究发表于2026年3月,论文编号为arXiv:2603 01824v1。有兴趣深入了解的读者可以通过该编号查询完整论文。在当今数字化时

热心网友
03.04
西街观察:大模型首份财报,三大亮点超越模型本身
科技数码
西街观察:大模型首份财报,三大亮点超越模型本身

作为当下港股最受关注的AI大模型企业,MiniMax交出的首份成绩单不只属于它自己。营收大涨,亏损继续,超七成收入来自国际市场……这些财务指标虽来自MiniMax,也是大模型公司的参照系,关系着技术

热心网友
03.04
大模型首份财报解读:除了模型本身,这些亮点更值得关注
科技数码
大模型首份财报解读:除了模型本身,这些亮点更值得关注

作为当下港股最受关注的AI大模型企业,MiniMax交出的首份成绩单不只属于它自己。营收大涨、亏损继续、超七成收入来自国际市场……这些财务指标虽来自MiniMax,也是大模型公司的参照系,关系着技术

热心网友
03.04
无需训练:即插即用的解码方法提升模型思考能力
科技数码
无需训练:即插即用的解码方法提升模型思考能力

你有没有发现这样一种现象:面对同一个问题,大模型可能在每次回答时都给出不同答案。一个不容忽视的问题是,这种不确定性,是否意味着推理仍不稳定?随着技术的发展,大模型在自然语言处理和多模态任务中已经表现

热心网友
02.23

最新APP

你比我猜
你比我猜
休闲益智 03-26
锦绣商铺
锦绣商铺
模拟经营 03-26
儿童画画
儿童画画
休闲益智 03-25
疯狂猜词
疯狂猜词
休闲益智 03-25
诸神皇冠
诸神皇冠
棋牌策略 03-25

热门推荐

猎豹浏览器免安装网页版:在线云端使用入口与教程
电脑教程
猎豹浏览器免安装网页版:在线云端使用入口与教程

猎豹浏览器免安装网页版入口是https: web lemur-browser com,具备界面简洁响应迅速、多端同步无缝衔接、安全防护层级丰富、文档处理能力突出、资源兼容性广泛覆

热心网友
03.27
昆仑万维发布三大世界第一梯队AI模型
科技数码
昆仑万维发布三大世界第一梯队AI模型

据昆仑万维集团消息,3月27日下午,昆仑万维(300418 SZ)旗下天工AI顺利举办“世界模型前沿技术与天工AIGC全家桶大模型生态”专场发布会,携Matrix-Game 3 0、SkyReels

热心网友
03.27
杨植麟、张鹏、夏立雪、罗福莉论道大模型:未来一年趋势前瞻
科技数码
杨植麟、张鹏、夏立雪、罗福莉论道大模型:未来一年趋势前瞻

本报(chinatimes net cn)记者石飞月 北京报道大模型未来会走向哪里?OpenClaw的爆火似乎为全行业指明了一个方向,但接踵而至的舆论质疑,又让这个答案变得扑朔迷离。3月27日,在2

热心网友
03.27
Anthropic核心模型意外泄露,网络安全股面临冲击风险
科技数码
Anthropic核心模型意外泄露,网络安全股面临冲击风险

Anthropic一款尚未发布的新AI模型因数据泄露意外曝光,引发市场对AI颠覆网络安全行业的担忧再度升温,网络安全板块股价周五盘前全线下挫。据《财富》杂志报道,Anthropic正在开发并已开始向

热心网友
03.27
Token经济到来,解析互联网大厂的布局与冷思考
科技数码
Token经济到来,解析互联网大厂的布局与冷思考

3月初,腾讯在深圳总部楼下设立“龙虾站”,引发千人排队尝鲜。OpenClaw掀起的“全民养虾”热潮,在短短一个月内让更多人看到了AI Agent深入业务场景的价值,随即推动Token调用量大规模增长

热心网友
03.27