事件概述 - 谷歌一篇名为TurboQuant、被ICLR 2026接收的论文,被指控在方法、理论和实验对比上严重歪曲并贬低了华人学者高健扬团队更早发表的RaBitQ工作,涉嫌学术不端 [2][7][9] - 该论文的广泛传播(获得数千万次浏览量)对存储巨头美光和西部数据的股价产生了直接的负面影响 [2] - RaBitQ算法的第一作者高健扬于2026年3月27日公开指控谷歌论文存在错误的技术主张和误导性对比,并在投稿前就已指出但未被修正 [9][12][16] 核心方法争议 - TurboQuant论文的核心方法是“随机旋转+向量量化”,这与RaBitQ在2024年5月已发表并开源的核心架构高度相似 [36][40] - 谷歌论文在描述RaBitQ时,将其主要简化为“基于网格的PQ框架”,刻意忽略了RaBitQ同样核心的Johnson-Lindenstrauss变换/随机旋转步骤,从而在读者面前割裂了两者的联系 [51][56][57] - 尽管在审稿回复中,TurboQuant作者承认随机旋转的使用此前已有探索(并引用了RaBitQ),但在论文正文中对此关键联系只字未提 [58] 理论成果贬低 - TurboQuant论文将RaBitQ的理论保证描述为“次优”,并将其归因于“松散的分析” [52][65][66] - 事实是,RaBitQ团队在2024年9月的扩展论文中已严格证明其方法达到了理论计算机顶会FOCS 2017给出的渐近最优误差界,并因此被邀请至FOCS做报告 [37][67][68] - RaBitQ团队在2025年5月已通过邮件向TurboQuant作者详细澄清了其理论的最优性,对方表示已告知全体作者,但未在论文中修正错误表述 [52][69][70] 实验对比不公 - 在速度对比实验中,TurboQuant报告RaBitQ比其慢“数个数量级” [73] - 然而,TurboQuant作者在2025年5月的邮件中承认,测试RaBitQ时使用的是自己翻译的Python版本(而非官方高度优化的C++实现),且关闭了多线程,在单核CPU上运行;而TurboQuant自身则在A100 GPU上运行 [52][74][77] - 这种将单核CPU的Python实现与A100 GPU进行对比的实验设置被指极不公平,相当于“绑住别人的手,再说自己跑得快” [74][78] 事件时间线与谷歌回应 - 时间线显示,RaBitQ团队在论文提交前(2025年5月)及ICLR评审期间多次向谷歌作者指出问题,但均被忽略或拒绝修正 [50][52][83] - 2026年3月,RaBitQ团队正式致信要求纠正后,TurboQuant第一作者回应称随机旋转是“标准技术”,不可能引用每一个用到它的方法 [63] - 对于在终稿中加入讨论的审稿人建议,谷歌作者不仅未采纳,反而将正文中对RaBitQ仅有的描述移到了附录中 [51][61] 行业影响与市场反应 - TurboQuant论文被Cloudflare CEO称为“谷歌的DeepSeek时刻”,并获得了巨大的行业关注与传播 [3] - 论文的发布直接导致了存储巨头美光和西部数据股价的下跌,显示出市场对该技术潜在颠覆性的反应 [2] - 此次事件并非孤例,NeurIPS 2021论文DRIVE的作者也站出来表示其使用了相似框架的工作未被TurboQuant引用,暗示这可能是一种模式 [89][90]
谷歌一夜塌房!干崩内存股论文被曝抄袭,华人学者血泪控诉