Workflow
RaBitQ
icon
搜索文档
谷歌一夜塌房!干崩内存股论文被曝抄袭,华人学者血泪控诉
猿大侠· 2026-03-30 12:08
事件概述 - 谷歌一篇名为TurboQuant、被ICLR 2026接收的论文,被指控在方法、理论和实验对比上严重歪曲并贬低了华人学者高健扬团队更早发表的RaBitQ工作,涉嫌学术不端 [2][7][9] - 该论文的广泛传播(获得数千万次浏览量)对存储巨头美光和西部数据的股价产生了直接的负面影响 [2] - RaBitQ算法的第一作者高健扬于2026年3月27日公开指控谷歌论文存在错误的技术主张和误导性对比,并在投稿前就已指出但未被修正 [9][12][16] 核心方法争议 - TurboQuant论文的核心方法是“随机旋转+向量量化”,这与RaBitQ在2024年5月已发表并开源的核心架构高度相似 [36][40] - 谷歌论文在描述RaBitQ时,将其主要简化为“基于网格的PQ框架”,刻意忽略了RaBitQ同样核心的Johnson-Lindenstrauss变换/随机旋转步骤,从而在读者面前割裂了两者的联系 [51][56][57] - 尽管在审稿回复中,TurboQuant作者承认随机旋转的使用此前已有探索(并引用了RaBitQ),但在论文正文中对此关键联系只字未提 [58] 理论成果贬低 - TurboQuant论文将RaBitQ的理论保证描述为“次优”,并将其归因于“松散的分析” [52][65][66] - 事实是,RaBitQ团队在2024年9月的扩展论文中已严格证明其方法达到了理论计算机顶会FOCS 2017给出的渐近最优误差界,并因此被邀请至FOCS做报告 [37][67][68] - RaBitQ团队在2025年5月已通过邮件向TurboQuant作者详细澄清了其理论的最优性,对方表示已告知全体作者,但未在论文中修正错误表述 [52][69][70] 实验对比不公 - 在速度对比实验中,TurboQuant报告RaBitQ比其慢“数个数量级” [73] - 然而,TurboQuant作者在2025年5月的邮件中承认,测试RaBitQ时使用的是自己翻译的Python版本(而非官方高度优化的C++实现),且关闭了多线程,在单核CPU上运行;而TurboQuant自身则在A100 GPU上运行 [52][74][77] - 这种将单核CPU的Python实现与A100 GPU进行对比的实验设置被指极不公平,相当于“绑住别人的手,再说自己跑得快” [74][78] 事件时间线与谷歌回应 - 时间线显示,RaBitQ团队在论文提交前(2025年5月)及ICLR评审期间多次向谷歌作者指出问题,但均被忽略或拒绝修正 [50][52][83] - 2026年3月,RaBitQ团队正式致信要求纠正后,TurboQuant第一作者回应称随机旋转是“标准技术”,不可能引用每一个用到它的方法 [63] - 对于在终稿中加入讨论的审稿人建议,谷歌作者不仅未采纳,反而将正文中对RaBitQ仅有的描述移到了附录中 [51][61] 行业影响与市场反应 - TurboQuant论文被Cloudflare CEO称为“谷歌的DeepSeek时刻”,并获得了巨大的行业关注与传播 [3] - 论文的发布直接导致了存储巨头美光和西部数据股价的下跌,显示出市场对该技术潜在颠覆性的反应 [2] - 此次事件并非孤例,NeurIPS 2021论文DRIVE的作者也站出来表示其使用了相似框架的工作未被TurboQuant引用,暗示这可能是一种模式 [89][90]
血洗内存股900亿刀的谷歌AI论文,竟涉嫌学术造假
机器之心· 2026-03-28 14:33
事件概述 - 谷歌研究团队一篇关于AI模型内存压缩的顶会论文TurboQuant,被指控在技术描述、理论对比和实验对比上存在严重问题,并涉嫌刻意忽视和淡化先行工作RaBitQ,引发学术不端争议[2][4] 涉事论文与技术的市场影响 - TurboQuant论文声称能将大语言模型KV缓存内存占用减少至少6倍,速度提升高达8倍,且精度零损失[6] - 该技术因能大幅降低运行大模型所需的硬件资源,冲击了内存芯片需求增长预期,导致谷歌博客发布当天美国内存股集体暴跌,闪迪跌6.5%,希捷科技跌超5%,西部数据跌超4%,美光科技跌4%,市场单日蒸发市值超过900亿美元[8] - 谷歌在社交媒体上对该论文的宣传贴浏览量达到上千万次[11] 被指控的学术不端行为 - 苏黎世联邦理工学院博士后高健扬指控TurboQuant论文的核心方法(在量化前对输入向量施加随机旋转/Johnson-Lindenstrauss变换)与其团队两年前发表的RaBitQ系列论文核心技术相同,但TurboQuant论文全程刻意回避直接关联[14][16][21] - TurboQuant论文将RaBitQ错误描述为grid-based PQ,并忽略了其核心的random rotation步骤,有意模糊传承关系[22] - TurboQuant第二作者早在2025年1月曾联系RaBitQ作者请求协助调试复现代码,表明其对RaBitQ技术细节非常了解,却在论文中未进行合理引用和客观对比[22] 指控的具体问题 - **系统性回避技术相似性**:TurboQuant未正面讨论与RaBitQ的方法联系,甚至在审稿人指出相似性后,将原本正文中对RaBitQ的不完整描述移到了附录中[25] - **错误描述RaBitQ的理论结果**:TurboQuant论文将RaBitQ的理论保证定性为“次优”,归因于“较粗糙的分析”,但RaBitQ拓展版论文已严格证明其达到了理论上的渐近最优误差界,此错误在多次沟通后仍未更正[27] - **刻意制造不公平的实验条件**:测试RaBitQ速度时,未使用其官方开源的C++实现,而是使用自行翻译的Python版本,并限制在单核CPU运行,而TurboQuant自身使用NVIDIA A100 GPU测试,这些不公平条件未在论文中披露[28] 事件进展与回应 - RaBitQ作者团队从2025年5月起通过邮件与TurboQuant团队多次私下沟通,指出问题,但对方以“随机旋转已成为领域标准技术”为由拒绝修正[23] - 论文被ICLR 2026接收后,谷歌开始大规模推广,RaBitQ作者团队于2026年3月再次正式致函要求说明与更正,TurboQuant第一作者仅承诺修正部分问题,拒绝讨论技术相似性问题[31] - RaBitQ作者已在ICLR OpenReview平台发布公开评论,并向会议主席等提交正式投诉,并表示将发布详细技术报告[31]