从「密度法则」来看Scaling Law撞墙、模型密度的上限、豆包手机之后端侧想象力......|DeepTalk回顾
锦秋集·2025-12-15 12:09
「Jinqiu DeepTalk」 用一场深度分享带你找到下一个 buzz 信号。 " Scaling Law 撞墙了。 " 当 Ilya Sutskever 提出这一判断时,它提示着我们,要开始思考模型的"可持续发展"问题了。 过去几年,模型能力几乎与规模同步增长,"更大"似乎就是"更强"。但这种依赖海量数据和算力投入的演进方 式,已逐渐逼近可持续性发展的边界。 这也引出一个更基础的问题: 在数据增速放缓、 算力 成本攀升的背景下,下一阶段的模型突破将从何而来? 如果「 摩尔定律」 曾定义信息时代的技术演进节奏,那么在智能时代,我们或许需要一个反映"知识压缩效 率"与"智能密度"的新衡量方式。 发 表 于 Nature Machine Intelligence 的 《 Densing Law of LLMs 》 提 出 了 新 的 答 案 —— " 密 度 法 则"(Densing Law) 。 上周六的 DeepTalk线上闭门交流活动 ,我们很高兴邀请到该 论文一作、清华大学计算机系博士后、面壁 MiniCPM(小钢炮)文本模型研发负责人 肖朝军博士 ,首次公开解读他和团队的最新工作: 《密度法则: 大 ...