马嘉祺AI绘画作品惊艳亮相大模型精准还原明星风采

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
你有被AI“稳稳接住”过吗?
前段时间,ChatGPT对“哥布林”的莫名执着在国外社交平台火了一把,逼得OpenAI官方不得不发博客研究《哥布林从哪来的》。他们发现,这种小癖好已经刻进了模型的“底层代码”,想修正只能简单粗暴地加一条规则:“永远不要谈论哥布林”。

而在中文互联网,ChatGPT的“灵魂印记”无疑是那句“我会稳稳地接住你”。这句话已经演变成一个网络热梗,催生了大量表情包,连同其他常见的“人机味”表达一起,完成了病毒式传播。
平心而论,这句话本身并不“机械”,甚至可以说情感充沛。问题在于,它被用得过于频繁和顺手,几乎成了万能回复模板,这才让原本温暖的承诺显得廉价而刻意。

如今,这个源自中文区的迷因已经火到了海外。《连线》杂志近日就以《ChatGPT在美国患上了“哥布林”狂热症,而在中国,它只想“稳稳地接住你”》为题进行了报道。文章指出,不止是ChatGPT,可能很快就会有更多AI模型争先恐后地要“接住”用户了。
另一边,国内厂商MiniMax的工程团队则发布了一份详细的内部排查报告,彻底厘清了此前闹得沸沸扬扬的“不认识马嘉祺”事件。他们发现,模型并非真的“不认识”,而是“爱在心口难开”——话到嘴边却说不出来。当然,这个问题现在已经被修复了。

01 ChatGPT的“贴心”口癖
无论是解数学题,还是为生成图片写提示词,ChatGPT似乎都特别钟情于回复:“我会稳稳地接住你”。
这句话的英文原型“I will catch you steadily [when you fall]”,其含义接近于英语中表示支持与理解的常用语“I've got you”。但在中文语境里,“我会稳稳地接住你”听起来就有些用力过猛,显得过分亲昵,让习惯了含蓄表达的母语者感到些许不适。

更何况还有进阶版本:“我就在这里,不躲,不退,不避,不逃,稳稳接住你。”这连古早言情小说里的深情男主角都未必说得出口。偶尔听到一次尚可,反复出现就难免让人想翻白眼。
就连OpenAI最新发布的GPT-image-2示例图中,都有中国研究员陈博远对着生成结果抓狂玩梗:“它又学会了稳稳接住!”

AI写作检测工具Pangram的联合创始人Max Spero指出,这种模型死咬特定短语并过度使用的现象,被称为“模式崩溃”。这通常源于后训练阶段的人工反馈机制。
Spero解释道:“我们很难告诉模型:‘这样写确实很好,但如果你把这种好句式连用10次,那它就不再是好句子了。’”
关于ChatGPT为何对这句话“走火入魔”,目前有两种主流的解释。
第一种解释指向生硬的机翻。英文中的“I've got you”轻松简洁,但直译成“我会稳稳接住你”就显得格外沉重。有用户翻看聊天记录发现,模型常在应表达“理解”的语境下使用“接住”一词,这暗示模型可能误解了该词在特定上下文中的含义。
研究也佐证了这一点:分析显示,ChatGPT中文回答的语言特征(如介词使用数量)更接近英语写作习惯。即便聊天机器人能用中文流畅对话,其底层逻辑仍受训练语料影响,导致产出带有明显的“翻译腔”,例如句子结构冗长或不必要地复杂。Pangram的创意技术专家Lu Lyu就表示:“这种明显的‘翻译腔’被带到了AI生成的中文句子里。”
第二种解释则与“治疗语态”的流行有关。那些原本属于心理咨询场景的专业表达,正逐渐渗透进日常对话。在成为网络热梗前,“稳稳接住”一词在中文里几乎只出现在心理治疗语境中(排除其物理字面意义)。《连线》杂志指出,在中文心理学讨论中,“接住”某人意味着为其提供一个“包容的空间”,让其能安全地倾诉情绪。
通过强化学习,AI模型变得越来越善于“讨好”人类,这种倾向正是“人类评估者更偏好顺从、讨好型回复”所导致的结果。正如OpenAI在关于“哥布林”的博客中所记录的,即使是一个极其微小的奖励信号,也可能像滚雪球一样,最终演变成一种普遍现象。
值得注意的是,这句“口头禅”似乎正在扩散。《连线》杂志称,可能很快就会有更多AI模型争相要“接住”用户了。最近,有中国用户在社交媒体上发帖称,包括Claude和DeepSeek在内的其他大模型也开始频繁使用这句话。这可能是由于训练材料相似,或是模型间相互学习(知识蒸馏)导致的。无论如何,这句话短期内恐怕不会从我们的视野中消失。

02 MiniMax的“舌尖”失语
聊完ChatGPT在海外引发的热议,再来看看MiniMax在国内因“不认识马嘉祺”而引发的技术思考。
事件的起因是一位网友在处理数据时,发现了一个有趣的bug:MiniMax的模型似乎无法识别“嘉祺”这两个字。

这并非偶然,在不同接口和平台上,该问题几乎都能稳定复现。于是,“MiniMax不认识马嘉祺”“痛失粉丝群体”等调侃开始流传。甚至有人开玩笑说,以后在OpenRouter上遇到匿名模型,可以用这招来判断它是不是MiniMax。
当然,这个方法现在肯定失效了,因为MiniMax在M2.7版本中已经修复了这个问题。他们的工程团队还发布了一份详细的内部排查报告,不仅彻底厘清了问题根源,还将它与之前遇到的小语种乱码问题联系起来,找到了一个直接的解决方案。
简单来说,MiniMax确认他们的M2.5模型其实是“认识”马嘉祺的。之所以“说不出口”,是因为在后训练阶段出现了一个尴尬的小插曲:“嘉祺”这个名字由于出现频率极低,被大量的噪声数据干扰,导致模型在输出时遇到了障碍。

大语言模型处理文字并非直接“看到”。流程是:先用分词器将文本切分成token,再将token转化为向量送入模型计算,最后通过输出层从庞大的词表中选出下一个最可能生成的token。
MiniMax检查了分词结果,发现“马嘉祺”被正确切分为“马”和“嘉祺”两个token,互转过程正常。但关键在于,“嘉祺”作为一个整体token,并非高频词。
团队最初假设:如果模型在预训练时见到的是“嘉”和“祺”两个独立token,而在后训练或推理时却将“嘉祺”视为一个整体token,那么这个整体token可能因训练不足而导致生成概率偏低。
然而,进一步检查推翻了这一假设。他们查看了“嘉祺”的词向量范数分布,发现其并未表现出未充分训练token常有的异常偏小特征。语义近邻检索也显示,“嘉祺”的向量周围聚集着“亚轩”“千玺”“祺”“耀文”“嘉”等人名token,后面还有“王一博”“徐坤”“肖战”等明星名字。这说明预训练模型不仅见过“嘉祺”,还将其正确地归入了中文人名语义簇。

于是,问题被锁定在后训练阶段。团队发现,后训练数据中包含“嘉祺”的样本不足5条,极其稀少。对于后训练而言,如果一个token几乎没有作为目标答案出现过,它在生成端就很难获得稳定的训练信号。
但这仍无法完全解释现象:如果只是后训练数据缺乏,为何模型还能理解“嘉祺”并回答相关问题,却唯独说不出这个名字?
为了解答这个问题,排查范围缩小到了模型的首尾两端:负责“看懂”的输入侧词嵌入,和负责“说出”的输出层。
对比预训练与后训练模型的词嵌入发现,“嘉祺”对应的向量几乎没有变化,处于正常分布。这解释了模型为何仍能理解相关信息:输入侧的语义表征完好无损。

真正的异常出现在输出层。计算发现,“嘉祺”对应的输出层向量在后训练后发生了显著漂移,其变化幅度在整个词表中排名靠前。这意味着,经过后训练,“嘉祺”在输出空间中的位置被大幅改写了。


更直观的证据来自近邻结构分析。在预训练阶段,“嘉祺”在输出空间中的邻居大多是语义相关的人名。而在后训练之后,其附近涌入了大量特殊标记和噪声token。输出空间的局部结构被挤压,“嘉祺”从一个清晰的人名token,变成了与人名、工具标记、乱码混杂的“模糊地带”。这就是“认识但说不出”的技术根源:模型在生成时,无法稳定地将它从混乱的邻居中筛选出来。
扩大检查范围后,团队发现类似的漂移并非个例。一些低频词、小语种token和噪声token,在后训练中同样出现了输出侧表征漂移。这也解释了此前遇到的小语种混杂问题:其本质与“嘉祺”事件相同,都是由于特定token在后训练中覆盖不足,导致输出表征混乱,进而引发生成错误。
那么,如何解决呢?答案朴素得有些令人莞尔:“罚抄”500遍。
MiniMax没有简单地只为“马嘉祺”补充几条数据,因为那只是修补一个点。他们想验证的是:如果问题源于词表覆盖不足,能否通过系统性提高整个词表在后训练中的曝光度来修复?
于是,他们构造了一批“词表覆盖合成数据”:将全部20多万个token随机分组,每组约8000个,打乱后构成对话样本,要求模型重复。最终生成约500条对话,确保每个token至少作为生成目标出现20次。
这个设计为每个token的生成频率设置了下限。即使某个token在常规后训练数据中极为罕见,它也不会在输出侧完全失去训练信号。结果证明该方法有效。加入覆盖数据后,模型不仅能正常说出“马嘉祺”,此前一些低频词丢字、替换的问题也得到了修复,小语种混杂现象也明显缓解。
这正应了那句老话:好记性不如烂笔头。看似复杂的技术难题,有时只需要最朴素的解决思路——记不住生僻词,那就多抄几遍词典。
03 下一个问题
将ChatGPT的“稳稳接住”与MiniMax的“不认识马嘉祺”放在一起审视,会发现它们并非两个孤立的笑话,而是指向大模型能力拼图中不同但相关的脆弱环节。
一个问题出现在表达风格层面:模型过于偏爱某种能获得高奖励、彰显安全感与贴心的句式,并将其滥用,最终从有效的“情绪支持”滑向令人出戏的“人机味”。
另一个问题则出现在生成机制底层:模型在输入侧能理解某个token的语义,却因后训练覆盖不足导致输出侧表征漂移,从而“卡在嘴边”说不出来。
前者是“说得太顺”,后者是“说不出口”。但它们共同提醒我们:大模型的语言能力并非一个浑然天成、均匀可靠的完整体,而是由预训练、分词、后训练、奖励机制、输出层等多个环节拼接而成的结果。任何一个环节出现微小偏差,都可能在最终对话中放大为具体而滑稽的现象。
“稳稳接住”的背后,是模型如何学习并内化人类偏好,如何在安全、友好与共情之间寻找边界。如果一个表达因短期反馈良好就被无限强化,成为应对万事的“标准答案”,那暴露的其实是后训练中对“好回答”的定义仍不够精细和场景化。
“不认识马嘉祺”则揭示了长尾、低频token在后训练中被稀释、表征发生漂移,导致“理解”与“表达”之间产生裂痕。这暴露了模型在应对长尾词、小语种及复杂token组合时的稳定性短板。
从用户视角看,这些问题成了传播迅速的网络热梗;从工程视角看,它们则是观测、复现并修复模型行为的宝贵入口。
大模型的发展,早已超越了单纯比拼知识广度和响应速度的阶段。真正的挑战在于,如何让它在不同的语言、文化和场景中,都能实现稳定、自然且分寸得当的表达。
不该“稳稳接住”的时候,别强行接住。该说“马嘉祺”的时候,也别卡在嘴边。这或许就是当下AI语言模型走向成熟所必须通过的考验。
相关攻略
中国移动公布了其在人工智能Token生态领域的未来战略。公司计划通过闭源模型接入、开源模型部署及协同共建三种路径,打造优质的Token供给矩阵,以强化自主可控能力并满足定制化需求。未来3至5年,将投入百亿级Token生态资源,并建设千亿级算力基础设施,旨在与合作伙伴共同开拓万亿级AI产业市场。
5月8日,一则消息在圈内传开:阶跃星辰即将完成近25亿美元(约合软妹币170亿元)的融资。更关键的是,公司已拆除红筹架构,正加速筹备赴港IPO。这意味着,继智谱、MiniMax之后,又一家国产大模型巨头即将登陆港股市场。 这笔融资一旦落定,其规模将超过昨日刚刚公布的月之暗面20亿美元融资,刷新国内大
新华三在领航者峰会上发布面向万亿参数大模型的算力平台,指出AI发展需应对Token经济范式转移、自主结构性矛盾及系统性性能瓶颈三大命题,强调关键在于算、网、存、云、安、维的整体协同。为此,公司升级全栈AI基础设施,致力于通过“算力×联接”提供高性价比解决方案,推动AI实际落地与价值实现。
大模型幻觉难以根除,强行压制会牺牲多样性。研究将其定义为“自信的错误”,倡导“忠实不确定性”:模型应诚实表达内在置信度,而非追求绝对正确。未来智能体需具备元认知能力,在不确定时主动说明,实现输出与内部状态的对齐。
智谱AI近期完成了一项关键战略收购,以不超过3 61亿元的总对价,全资收购北京红钻科技有限公司。此次交易包括8162万元的股权收购及承接约2 789亿元债务,核心目标是将位于北京中关村软件园的钻石大厦总部物业资产正式纳入麾下。随着工商变更登记完成,此项资产交割已全面落地。公开资料显示,北京红钻科技主
热门专题
热门推荐
冥山山脉地处世界最东端,终年浓雾笼罩,地势险峻、妖魔横行,属高危区域。挑战者需精心准备角色、装备与补给,谨慎规划路线,摸清地形并避开威胁。途中应收集资源、解锁地图、掌握妖魔弱点,善用道具、管理状态,也可借助门派支持。综合运用这些策略,方能提升生存几率,成功征服险境。
本文详细介绍了在OKX平台完成注册与登录的完整流程。从下载官方应用开始,逐步引导用户完成手机号或邮箱验证、设置安全密码等开户步骤。同时,也涵盖了后续的登录方法、基础安全设置建议,以及遇到常见问题时的解决思路,旨在为用户提供清晰、安全的入门指引。
本文介绍了欧乙交易平台现货页面的基本布局与核心功能,重点解析了行情图表、深度图、委托订单簿等关键区域的查看方法。详细说明了限价单、市价单等不同类型委托单的挂单策略与操作步骤,包括如何设置价格与数量。旨在帮助用户快速理解现货交易界面,掌握基础的挂单技巧,提升交易操作的效率与准确性。
本文梳理了OKX欧易平台用户可能遇到的几类常见问题,包括账号登录异常、身份验证失败以及交易限额查询。针对每种情况,分析了可能的原因,如网络环境、设备安全、信息填写错误等,并提供了清晰的自查与解决步骤。同时,详细说明了如何在平台内查看不同资产与交易对的当前限额,帮助用户更顺畅地进行数字资产管理和交易操作。
本文详细介绍了在欧意OKX平台进行安全设置的核心步骤,重点讲解谷歌验证器、资金密码与防钓鱼码的配置方法与重要性。通过分步指南与实用建议,帮助用户建立多层次防护体系,有效防范钓鱼攻击与未授权访问,保障数字资产安全。强调定期检查与安全意识是维护账户长期安全的关键。





