「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2
量子位·2026-01-02 11:41

模型核心表现与定位 - 在最新版SWE-Bench Verified榜单中,40B参数版本的IQuest-Coder取得了81.4%的成绩,超过了Claude Opus-4.5和GPT-5.2等闭源模型 [2] - 该模型系列专注于代码生成、代码理解与软件工程任务,是一个覆盖多个参数规模与使用场景的家族版本 [14] - 模型在八个代码、Agentic相关榜单上都独占鳌头,具体成绩包括SWE-Bench Verified 81.4%、BigCodeBench 49.9%、LiveCodeBench v6 81.1% [49][50] 模型系列与架构特点 - 模型提供7B、14B和40B三种参数规模,每个规模均提供Instruct(指令跟随)和Thinking(复杂推理)两种版本 [15][16] - 40B参数规模额外提供了Loop版本,用于探索更高的参数利用效率,仅增加约5%的训练成本即可达到数百亿参数MoE模型的水平 [18][20] - 架构设计强调“工程友好”和“长上下文可用性”,关键特性包括:引入GQA降低推理显存占用、原生支持128K上下文长度、拥有76800个token的词表大小 [22][24][25][26] - 循环变体(Loop)采用了具有跨两次迭代共享参数的循环Transformer设计,用重复计算换取更高的参数利用率 [26] 训练策略与数据构造 - 采用了名为“代码流多阶段训练”的策略,强调从代码的演化过程中学习,而非静态代码片段 [42][43] - 专门设计了基于项目生命周期的triplet数据构造方式,使用结构让模型看到稳定期代码、变更内容以及变更后的结果 [43] - 训练数据刻意避开项目早期和后期,只取40%–80%生命周期区间,旨在把“软件工程经验”显式编码进训练数据 [44][45] - 训练流程包括预训练阶段和最终的后训练阶段,后训练阶段将模型明确分流成instruct路线和thinking路线 [38][40] 开发团队与公司背景 - 模型团队IQuest出自中国的量化私募九坤投资,该公司与DeepSeek背后的幻方量化同属业内公认的量化私募头部公司 [11][12][57] - 九坤投资成立于2012年,管理规模在数百亿元人民币,主要办公地在北京,并于3周前开设了新加坡办公室 [57][58] - 公司联合创始人王琛拥有清华大学理论计算机博士学位,师从图灵奖得主姚期智院士,曾就职于美国顶级对冲基金Millennium [59][60] - 公司联合创始人姚齐聪毕业于北京大学数学系,同样曾就职于Millennium,主要负责公司投研体系搭建和量化策略开发 [61] - 九坤投资的投研与技术团队人数超过百人,90%以上毕业于国内外知名高校,博士占比超过60% [62] - 公司在AI领域布局已久,IT和算力建设位居国内量化机构前三,并建立了人工智能实验室等多个前沿实验室 [64] - IQuest-Coder出自其发起设立的独立研究平台至知创新研究院,此前公司已推出过通用推理模型URM [65][66] 模型部署与实用性 - 模型已在GitHub和Hugging Face上开源 [11] - 所有版本都支持单卡H20推理,其Int4量化版本可在单张消费级NVIDIA 3090或4090 GPU上部署 [53][54] - 官方展示了模型处理复杂编程任务的能力,例如编写一个逼真的太阳系模拟网页、构建实时像素沙盒游戏、创建完整的HTML5太空射击游戏等 [7][32][33] - 模型可以生成代码,但官方提示在沙盒环境中验证输出结果,不能直接执行 [52]

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2 - Reportify