事件概述 - 谷歌研究团队一篇关于AI模型内存压缩的顶会论文TurboQuant,被指控在技术描述、理论对比和实验对比上存在严重问题,并涉嫌刻意忽视和淡化先行工作RaBitQ,引发学术不端争议[2][4] 涉事论文与技术的市场影响 - TurboQuant论文声称能将大语言模型KV缓存内存占用减少至少6倍,速度提升高达8倍,且精度零损失[6] - 该技术因能大幅降低运行大模型所需的硬件资源,冲击了内存芯片需求增长预期,导致谷歌博客发布当天美国内存股集体暴跌,闪迪跌6.5%,希捷科技跌超5%,西部数据跌超4%,美光科技跌4%,市场单日蒸发市值超过900亿美元[8] - 谷歌在社交媒体上对该论文的宣传贴浏览量达到上千万次[11] 被指控的学术不端行为 - 苏黎世联邦理工学院博士后高健扬指控TurboQuant论文的核心方法(在量化前对输入向量施加随机旋转/Johnson-Lindenstrauss变换)与其团队两年前发表的RaBitQ系列论文核心技术相同,但TurboQuant论文全程刻意回避直接关联[14][16][21] - TurboQuant论文将RaBitQ错误描述为grid-based PQ,并忽略了其核心的random rotation步骤,有意模糊传承关系[22] - TurboQuant第二作者早在2025年1月曾联系RaBitQ作者请求协助调试复现代码,表明其对RaBitQ技术细节非常了解,却在论文中未进行合理引用和客观对比[22] 指控的具体问题 - 系统性回避技术相似性:TurboQuant未正面讨论与RaBitQ的方法联系,甚至在审稿人指出相似性后,将原本正文中对RaBitQ的不完整描述移到了附录中[25] - 错误描述RaBitQ的理论结果:TurboQuant论文将RaBitQ的理论保证定性为“次优”,归因于“较粗糙的分析”,但RaBitQ拓展版论文已严格证明其达到了理论上的渐近最优误差界,此错误在多次沟通后仍未更正[27] - 刻意制造不公平的实验条件:测试RaBitQ速度时,未使用其官方开源的C++实现,而是使用自行翻译的Python版本,并限制在单核CPU运行,而TurboQuant自身使用NVIDIA A100 GPU测试,这些不公平条件未在论文中披露[28] 事件进展与回应 - RaBitQ作者团队从2025年5月起通过邮件与TurboQuant团队多次私下沟通,指出问题,但对方以“随机旋转已成为领域标准技术”为由拒绝修正[23] - 论文被ICLR 2026接收后,谷歌开始大规模推广,RaBitQ作者团队于2026年3月再次正式致函要求说明与更正,TurboQuant第一作者仅承诺修正部分问题,拒绝讨论技术相似性问题[31] - RaBitQ作者已在ICLR OpenReview平台发布公开评论,并向会议主席等提交正式投诉,并表示将发布详细技术报告[31]
血洗内存股900亿刀的谷歌AI论文,竟涉嫌学术造假
机器之心·2026-03-28 14:33