谷歌内存论文疑被抄袭,华人学者控诉业内学术不公

免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
新智元报道
编辑:好困 Aeneas
【新智元导读】把闪存股一夜干崩的谷歌顶会论文,出大事了。TurboQuant的核心方法,两年前就被一位华人学者做完、发完顶会、代码全部开源了。谷歌不仅没正面提及,而且还恶意操纵实验数据把成果贬成「次优」,即使收到邮件也拒不改正,这就是大科技公司赤裸裸的学术霸凌!
就在刚刚,谷歌塌房了!
前几天,谷歌一篇即将在ICLR 2026亮相的新论文,直接把存储巨头美光和西部数据的股价干崩了。
Cloudflare CEO激动地发推称:「这是谷歌的DeepSeek时刻!」


就在AI圈沉浸在兴奋中,全世界都在为这篇论文欢呼之时,谷歌居然火速塌房了。
3月27日晚上10点,一条推文打破了狂欢。
苏黎世联邦理工学院博士后,RaBitQ算法的第一作者高健扬公开表示:
TurboQuant论文在描述RaBitQ时存在严重问题,包括不正确的技术声明和误导性的理论、实验对比——而这些问题在投稿前就已向作者指出,对方承认了,但选择不修正。
翻译过来就是,谷歌的这篇论文,不仅抄袭了他们的核心代码,还强行拉踩!


具体来说,TurboQuant在核心方法(随机旋转)上与高健扬此前已发表的RaBitQ高度相似,但谷歌不仅未在正文中客观探讨,还在明知故犯的情况下,将RaBitQ的理论结果贬低为「次优」。
而且,根据披露的邮件记录,TurboQuant团队早在一年前就被私下告知了这些问题,但从未修正。

原文地址:https://zhuanlan.zhihu.com/p/2020969476166808284?wec h a tShare=1&s_r=0
文章发布几小时后,各大平台的评论区里,全是网友们对谷歌激动地声讨。

对于RaBitQ,高健扬已经做了两年研究,发表了两篇顶会,而且代码全部开源。
然而现在,谷歌转手就把他的成果「重新发明」了一遍,还荣登顶会,获得全行业的称赞。
这简直就是利用大厂光环歪曲事实的学术霸权行为!
谷歌的吃相太难看了
这次学术争端,核心思路集中在向量量化上。
向量量化,就是把高维空间里的向量「压小」,在尽量不丢失信息的前提下省内存、省计算。此问题可以追溯到香农的信源编码理论,是信息论里最经典的问题之一。
早在2024年5月,高健扬团队就在arXiv上发布了RaBitQ。

论文地址:https://arxiv.org/abs/2405.12497
他们的核心思路是:
在量化之前,先对向量做一次随机旋转(Johnson-Lindenstrauss变换)。旋转之后,向量每个坐标的分布变得可预测,就可以用更高效的方式做量化。
虽然想法看起来很简洁,但背后的理论工作却很扎实。
在24年9月,团队又发表了扩展版论文,严格证明了这种方法达到了理论计算机顶级会议FOCS 2017给出的渐近最优误差界。
因此,高健扬被邀请到FOCS的Workshop做报告。随后,RaBitQ先后发表在数据库领域顶会SIGMOD 2024和SIGMOD 2025上,代码全部开源。
谁能想到,这居然给谷歌的研究者们提供了方便。
他们这次发表的TurboQuant,核心也是随机旋转+向量量化,这不就是RaBitQ在2024年5月就公开发表的核心架构吗?
可以说,谷歌,这就是在赤裸裸地抄袭!

谷歌这篇论文,已经被称赞为「彻底改变AI格局」了
一封邮件,三个质疑,全部「已读不回」
有人问,是不是这次谷歌只是漏引了一篇论文?
了解事件详情后就会发现,谷歌的行为,比这要严重得多,恶劣得多!


第一,谷歌剽窃了他们的核心方法,却假装没看见。
谷歌在TurboQuant论文中,反复强调随机旋转是自己方法的关键步骤,但在描述RaBitQ时,只把它归类为「grid-based PQ」(基于网格的乘积量化),完全跳过了RaBitQ中同样核心的随机旋转步骤。
因此在读者看来,RaBitQ仿佛是一个跟TurboQuant毫无关系的旧方法一样。
然而,谷歌真的不知道RaBitQ用了随机旋转吗?绝不可能!
审稿过程中,Reviewer Autm问了一个直球问题:「随机旋转是你们论文首创的吗?」
TurboQuant作者在rebuttal中白纸黑字地回复:
The use of random rotation has been explored before (see references like Quarot, RabitQ, QJL, etc).
(随机旋转的使用此前已有探索,参见Quarot、RabitQ、QJL等工作。)
所以很显然,谷歌承认是RaBitQ先用了随机旋转,他们并不是首创,然而在论文正文里,他们却对此只字不提。
这个鸡贼的做法,不止一位审稿人注意到了。
比如给出10分满分(strong accept)的Reviewer WFrV就直接明示了这一点,建议谷歌作者在论文终稿里承认RaBitQ的地位。
RaBitQ and variants are similar to TurboQuant in that they all use random projection。
(RaBitQ及其变体与TurboQuant相似,都使用了随机投影。)
I strongly encourage the authors to add these experiments in the final version of the paper.
(我强烈建议作者在终稿中加入这些实验。)
结果,谷歌的终稿出来之后,不仅没有加入讨论,还把正文中对RaBitQ仅有的(还不完整的)描述,挪到了附录里,这个做法简直要把人气笑了。
2026年3月,高健扬团队正式致信TurboQuant全体作者要求纠正。
TurboQuant第一作者Amir Zandieh回了一句:
随机旋转和JL变换已经是领域里的标准技术了,我们不可能引用每一个用到它们的方法。
简直让人无语了。
第二,说别人的理论是「次优」,但证据呢?
TurboQuant论文中有这样一句话:
While the paper's theoretical guarantees are suboptimal, likely due to loose analysis — as practical performance surpasses theoretical bounds.
翻译过来:RaBitQ的理论保证是次优的,很可能是因为分析太粗糙了。
然而真实情况是,RaBitQ扩展版的Theorem 3.2已经严格证明,其误差界匹配FOCS 2017给出的渐近最优界。
也正是因为这个事实,他们才被邀请到FOCS去做Workshop报告。
2025年5月,高健扬团队通过邮件与TurboQuant二作Majid Daliri进行了多轮详细技术讨论,逐条解释了为什么RaBitQ的理论保证是最优的。
Daliri在邮件中明确表示,已将讨论内容告知全体共同作者。
然而,实际上他们什么都没做。
华人学者辛辛苦苦花了两年证明的最优性定理,被人一句「suboptimal, likely due to loose analysis」就否定了。
第三,绑住别人的手,再说自己跑得快。
TurboQuant论文报告RaBitQ的量化速度比TurboQuant慢了「数个数量级」。
然而这个计算方法,没有任何公平可言。
Daliri在2025年5月的邮件中承认了,他们测试RaBitQ时用的是自己翻译的Python版本(而非最新开源的高度优化的C++实现),并且关闭了多线程,在单核CPU上跑。而TurboQuant用的则是英伟达的A100 GPU。
但问题是,RaBitQ的最新代码2024年5月就开源了,默认是多线程并行。
而且,Daliri在2025年1月的邮件中就已经表示自己成功跑通了RaBitQ的C++代码。
他知道最新实现有多快。但最终论文里用来做对比的,仍然是他自己翻译的、运行在单核CPU上的Python版本。
用Python单核CPU去跟A100 GPU对比,仿佛就是把对手的鞋带绑在一起,再跟他赛跑,最后在论文中得出:我们快了好几个数量级。

不仅如此,TurboQuant的论文还被发现漏洞百出!
3月26日,研究者Jonas Matthias Kübler在OpenReview上发布公开评论,对TurboQuant的实验方法提出了多个具体质疑:
速度对比的baseline是FP32精度,但现实中没有框架会用32位存KV缓存,这让「8倍加速」的说法很不实在;
速度baseline在论文正文里写的是PyTorch einsum,到了博客里又变成了JAX;
更耐人寻味的是,Llama模型2.5bit配置的LongBench分数,从arXiv版本的49.44变成了ICLR版本的49.74,差距缩小了50%,但论文没有说明做了什么改动。

总之,如果回顾完整的时间线,就会发现,谷歌的论文作者根本不是粗心,不是疏忽,每一步都有人提醒,每一步都被选择性忽略了。
先把蛋糕吃完,再讨论蛋糕是不是你的。
数千万人看到的叙事,是错的
现在,一边是中国博士后,两年研究,两篇顶会,代码全部开源。另一边是Google Research,一篇博客,数千万曝光,存储股跌停。
如果没有人纠正,RaBitQ就会被记录为一个「次优的、很慢的」老方法,TurboQuant就是「从零开始、全面超越」的新突破。
历史就是这么被改写的。
在Hacker News上,NeurIPS 2024论文DRIVE的作者也站出来了——同样使用了随机旋转+偏差校正框架,同样曾被Google邀请做内部报告,同样没有被TurboQuant引用。
这不是一两个人的遭遇。
错误的学术叙事一旦广泛传播,纠正的成本会越来越高。
在数千万曝光面前,这个声音很小。
但是,必须有人发声。
参考资料:
https://x.com/gaoj0017/status/2037532673812443214
https://www.linkedin.com/feed/update/urn:li:activity:7443322114301956096/?originTrackingId=Vc0dkeibHUvsvZ4FSE0Tdw%3D%3D
https://zhuanlan.zhihu.com/p/2020969476166808284?utm_medium=social&utm_psn=2020975962079118879&utm_source=wec h a t_timeline&wec h a tShare=1&s_r=0
https://openreview.net/forum?id=tO3ASKZlok
相关攻略
《自然》:一桩悬案了结? “砷基生命”论文终遭撤稿,但争议远未结束 科学界一桩持续了15年的公案,最近有了新进展。顶级期刊《科学》(Science)正式撤回了那篇曾引发轰动的争议性论文——该研究当年声称,在美国加州莫诺湖发现的一种细菌,能够用有毒的砷元素替代生命必需的磷来构建DNA,这直接挑战了我们
中国科研产出激增背后:学术出版话语权与经济成本的双重挑战 近期,在上海科学会堂举行的Insight Press(睿见出版)首批高质量学术期刊创刊仪式暨第十一期“好望角科学沙龙”上,科学家、出版机构负责人与期刊主编们齐聚一堂,共同探讨中国一流学术期刊的未来发展路径。当前,中国科学家正以前所未有的速度产
中国科学技术协会2026年3月31日发布告示:中国科协曾于2026年3月27日就2026年NeurIPS会议发表声明,本意是尽力维护我国关涉学者正当利益,其措施原则是清晰、适当的,没有发生变化。现就
Cornell University 图源:wikipedia撰文|张天如果有一天,全球科研人员突然无法访问arXiv,许多领域的研究节奏可能会被打乱。每天清晨刷新论文列表,已经成为部分数学家、物理
据微信公众号“中国科协之声”消息,3月31日,中国科学技术协会发布告示: 中国科协曾于2026年3月27日就2026年NeurIPS会议发表声明,本意是尽力维护我国关涉学者正当利益,其措施原则是清
热门专题
热门推荐
“我们的代码,终将写入繁星”:追觅科技成立天文BU,构建从地面到太空的生态闭环 “我们的代码,终将写入繁星。”这句来自追觅科技的宣言,不只是一句诗意的口号,更是一份清晰的战略升级路线图。就在9月10日,这家中国科技企业正式宣告成立天文业务单元(BU),由此完成了一次至关重要的战略跃迁。这标志着其“全
Just Learn是什么 提起用AI为教育赋能,Just Learn这款工具是个绕不开的名字。它由Just Learn公司开发,核心目标非常明确:一手帮教师扩展专业能力,一手为学生打造个性化的学习旅程。说到底,它的价值在于通过AI驱动学习和24 7全天候辅导这两大核心,把教育资源重新“盘活”,让老
Vue 渲染机制深度解析:Patch 函数核心逻辑与优化策略 Vue js 的响应式系统实现了数据驱动视图的核心理念。然而,当数据发生变化时,视图是如何被高效且准确地更新的呢?这背后的核心引擎,正是虚拟 DOM 体系中的 Patch 函数。它并非直接操作真实 DOM,而是通过深度比对新旧虚拟节点(V
《空之轨迹SC》完全重制版《空之轨迹 the 2nd》正式定档2026年9月17日,登陆多平台 日本Falcom官方正式公布,经典日式角色扮演游戏《空之轨迹SC》的完全重制版——《空之轨迹 the 2nd》,将于2026年9月17日全球同步发售。本作将登陆任天堂Switch 2、Switch、Pla
AI艺术提示生成器是什么 简单来说,你可以把它理解为一个永不枯竭的创意火花塞。这个基于前沿AI技术的工具,专为破解创作瓶颈而生,无论你是专业画师还是灵感偶尔“罢工”的爱好者,它都能派上用场。它的工作原理并不复杂:依托当前顶级的OpenAI模型,将你的初步想法“催化”成一系列具体、新颖且富有启发性的艺





