Workflow
agent
icon
搜索文档
杨植麟当主持人的大模型圆桌:张鹏罗福莉夏立雪都放开说了
量子位· 2026-03-28 00:01
文章核心观点 本次中关村论坛汇集了中国大模型领域的顶尖专家,围绕Agent(智能体)的下一代演进、行业发展趋势、技术挑战与机遇进行了深入探讨。核心观点聚焦于:Agent框架(如OpenClaw)正成为推动大模型从对话工具转向生产力工具的关键催化剂,引发了推理需求(token消耗量)的爆发式增长,这进而对模型架构创新(尤其是长上下文与效率)、算力基础设施、以及行业生态的可持续发展提出了全新要求。专家们普遍认为,行业正从“训练时代”迈向“推理时代”,竞争维度已扩展至模型、算力、能源乃至全球化的“token经济学”层面 [5][12][32][45][65]。 对OpenClaw及Agent框架的认知与影响 - **OpenClaw被定位为革命性的“脚手架”**:它降低了使用顶尖模型能力的门槛,让非程序员也能通过简单交流构建复杂应用,其开源特性和社区参与度是成功的关键 [11][16]。 - **重新定义了模型能力的上下限**:此类框架能将次闭源水平模型的性能上限拉高,在多数场景下接近顶级闭源模型,同时通过体系化设计保证任务完成的下限(准确率)[17]。 - **带来交互模式的革新**:其IM软件嵌入方式提供了更强的“活人感”和“贾维斯”体验,区别于以往工具感更强的Agent [19][21]。 - **引爆了token使用量的激增**:从一月底开始,某基础设施厂商的token调用量每两周翻一倍,至今已增长十倍,增速堪比3G时代手机流量的普及速度 [12]。 - **激活了社区生态**:让更多非研究员参与AGI变革,推动了面向Agent的应用(skills、harness)开发,撬动了整个工具生态 [18][23]。 大模型技术演进与竞争焦点 - **中国团队的核心优势在于“算力受限下的最优解能力”**:在互联带宽等限制下,催生了如细粒度MoE、MLA等模型结构创新,追求更高的训练与推理效率 [40][42]。 - **竞争的关键是“长上下文”与“推理效率”的结合**:未来竞争不仅是做出原生适配长上下文的模型架构,更关键的是能否在100万甚至1000万级上下文下,将推理成本打下来、速度提上去 [42][43]。 - **超长上下文是模型“自迭代”的前提**:只有当上下文长度达到1000万甚至上亿级,模型才可能在复杂环境中依靠超强上下文完成对自身的持续进化 [5][44]。 - **模型正从“简单对话”转向“真正干活”**:完成复杂任务(如规划、尝试、debug)所消耗的token量是简单问答的十倍甚至百倍,这直接推动了模型能力的专门优化和定价策略的调整 [26][30]。 行业发展趋势与市场动态 - **推理需求爆发,行业进入“推理时代”**:由Agent驱动,token需求正经历十倍甚至百倍的增长,对算力基础设施构成巨大压力 [32][45][65]。 - **模型定价策略反映价值回归**:为完成复杂任务而增强的模型,因消耗token量巨大、推理成本增加,其涨价被视为回归正常商业价值,长期低价竞争不利于行业发展 [26][30]。 - **竞争维度扩展至全链路**:未来的竞争不仅是模型间的竞争,更是算力、推理芯片乃至能源层面的全方位竞争 [45]。 - **基础设施需为AI原生(Agent-native)重构**:当前云计算基础设施是为服务人类工程师设计的,未来需要能支持Agent毫秒级任务调度的“智慧化工厂”,甚至基础设施本身也应进化为智能体 [37]。 未来12个月的关键词与展望 - **生态**:Agent的发展依赖开源社区共同建设,未来软件可能不再以人类为中心,而是转向原生面向Agent(agent-native),需要整个技术栈朝此方向重构 [56][57]。 - **自进化**:在Agent框架加持下,模型能够通过可验证的目标约束进行持续自我优化,未来一两年内可能对科学研究带来指数级加速,研究效率已可提升近十倍 [59][60][61]。 - **可持续**:关注如何将中国在能源等方面的优势,通过“token工厂”持续转化为高质量token并输出全球,构建可持续的“AI Made in China”经济化迭代链路 [62][63][64]。 - **算力**:推理需求的爆发性增长使得算力成为未来12个月最关键的制约因素,确保用户“用得起、用得上”是行业发展的前提 [65]。