文章核心观点 - 文章围绕具身智能领域视觉语言动作模型的部署挑战展开圆桌讨论,核心观点是模型部署面临从芯片硬件支持到模型轻量化、工程优化的全链路挑战,行业需要在追求模型性能上限与实现高效、低成本边缘部署之间找到平衡 [3][4][9][11] 芯片硬件与部署方案 - 地瓜机器人公司专注于为消费机器人和具身智能场景提供AI芯片及软件方案,其芯片算力覆盖5 TOPS至560 TOPS区间 [4] - 公司已发布两款产品:RDK S100(算力80-120 TOPS,已上市销售)和RDK S600(算力560 TOPS,计划明年发布),后者专为大模型部署优化了工具链 [4] - 模型部署到芯片需经过量化流程,通常将训练用的BF16等浮点模型转换为INT4等低精度定点模型,再通过工具链转换部署,此举牺牲通用性但提升了效率和能效 [4][5] - 对于约7B参数规模的模型,经优化的S600芯片在边缘侧的运行效率(每秒吞吐量)可达主流芯片的2到3倍 [5] 模型规模与发展趋势 - 当前具身智能领域常见模型规模为3B或7B,部分原因是受限于当前技术发展阶段和有限的数据量,更大的模型尚未得到充分发展 [6] - 尽管数据有限,但行业共识是具身智能的基础模型未来仍会向更大规模发展,不过端侧部署不一定需要同等规模,可通过蒸馏等技术将大模型能力迁移至小模型 [7] - 对于强化学习而言,更大的基座模型意味着更高的能力上限,有助于将性能提升曲线拉得更高,但强化学习带来的性能提升更多是相对增量而非绝对性能 [7] - 模型规模增大会带来计算、训练和推理方面的新挑战,行业期待有更大规模的基座模型发布以测试推理能力 [8] 模型轻量化与工程优化 - 模型轻量化不仅是压缩模型尺寸,更核心的是通过工程化手段进行优化,例如对算子进行编译优化、采用特定策略等 [10] - 行业存在两种并行的发展思路:一部分研究者聚焦于不计代价地探索具身大模型的性能上限;另一部分则致力于通过模型小型化或工程优化实现高效部署 [11] - 从算法角度,轻量化路径包括模型蒸馏、量化、压缩以及在算子层面的优化,旨在提升从训练到部署全流程的速度 [12][14] - 具身智能领域的基座模型迭代速度非常快,可能以月为单位更新,这要求整个技术链条(训练、推理、部署)都必须保持高速响应 [13] 全栈自研与行业生态 - 行业内存在追求全栈自研的趋势,即对从软件到硬件的所有模块实现精确把控,以优化整体性能和效率,这一思路在金融科技等领域已有先例 [14][15] - 即使不亲自制造硬件,重视软件性能的公司也会高度关注并优化从训练到部署的每一个环节的速度 [14] - 地瓜机器人的AI加速板与芯片方案,与算法公司的优化工作相结合,共同构成了具身智能模型从云端训练到边缘部署的完整生态 [4][12]
关于VLA与RL真机部署的种种
具身智能之心·2026-01-10 09:03