Workflow
Agent
icon
搜索文档
深圳最新引入的顶尖科学家首次公开发声!“现在人和人的差距非常大”
搜狐财经· 2026-01-11 23:06
文章核心观点 - 行业专家在AGI-Next前沿峰会上讨论了通用人工智能(AGI)的发展趋势,共识是AI正从对话(Chat)范式转向执行任务的智能体(Agent),多模态与效率提升是未来重点,同时探讨了中国在AI领域追赶美国的机遇与挑战 [3][5][15] 市场与商业模式分化 - To B与To C市场出现明显分化:To C场景对超高智能需求有限,更多是增强版搜索,而To B场景中智能直接对应生产力提升,企业愿意为最强模型支付高溢价(例如200美元/月 vs 50或20美元/月) [11][18][19] - 商业模式出现分化:在To C场景,垂直整合(模型即产品)成立,如ChatGPT和豆包;而在To B场景,模型层与应用层倾向于分层,因为将强大模型部署到不同生产力环节需要不同的能力 [11][20] - To B的Agent价值明确,处于上升曲线,模型越智能带来的收益越高,其发展受限于环境部署与用户教育,而非模型本身的创新 [11][26] 技术发展趋势与挑战 - 大模型技术从参数规模竞赛转向注重“智能效率”提升,需通过算法创新降低对算力的过度依赖,解决数据规模膨胀与收益递减问题 [5] - 多模态融合是关键技术方向,当前模型在统一感知视觉、声音等多源信息方面存在短板,需借鉴人类感觉统合机制实现原生多模态能力 [5][9] - 强化学习与Agent技术是重点,需提升AI的主动性并与环境深度交互,但需同步解决安全风险 [5][9][14] - Scaling Law(规模定律)仍是基石,但需优化Token效率与长上下文处理,例如通过Muon优化器实现2倍Token效率提升,或采用线性注意力机制处理超长任务 [8][9] 自主学习(Self-Learning)的现状与展望 - 自主学习已成为热点,但定义模糊,目前多是特定场景下的优化(如代码优化、聊天个性化),缺乏突破性的、通用的任务范式 [11][23] - 自主学习的信号在2025年已出现,例如Cursor每几小时利用最新用户数据学习,但受限于模型效果和想象力,尚未展现出“石破天惊”的威力 [11][25] - 实现范式突破需要想象并定义出具有里程碑意义的任务,例如能赚钱的交易系统或解决重大科学问题的系统 [11][25] 中国AI发展的机遇与挑战 - 中国在AI领域反超美国的概率较高,优势在于强大的工程实现与产业化能力,一旦技术路径被证明,能够快速复现并在局部做得更好 [28][29] - 面临的主要挑战包括:算力瓶颈(如光刻机等产能与软件生态)、To B市场成熟度与国际化商业环境、以及需要培育更多敢于冒险、进行前沿范式突破的文化 [28][29][30] - 国内研究文化更倾向于做已被证明的、确定性高的事情(如预训练),对于探索性方向(如长期记忆)的投入和耐心相对不足,同时存在“刷榜思维”,需要更关注实际体验与正确方向 [30][31] 产业应用与部署瓶颈 - 即使模型性能停止进步,将现有模型充分部署到各行业也能带来巨大价值,预计能产生相当于当前10倍或100倍的收益,对全球GDP的影响可从目前的不足1%提升至5%-10% [1][27] - 当前AI对GDP的实际影响仍低于1%,部署(Deployment)和环境适配是主要的瓶颈 [1][27] - 教育普及是关键瓶颈之一,会使用AI工具的人与不会使用的人之间差距巨大,普及工具使用教育是当前中国能做的有最大意义的事情之一 [1][16][27]
中国“AI四巨头”罕见同台,阿里、腾讯、Kimi与智谱“论剑”:大模型的下一步与中国反超的可能性
硬AI· 2026-01-11 19:12
行业竞争阶段与范式演进 - 大模型竞争已从“Chat”阶段转向“Agent”阶段,重心从榜单分数位移至真实环境的复杂任务执行[2] - 行业预判2026年为商业价值落地元年,技术路径正向可验证强化学习演进[2] - AI的核心价值正从“提供信息”转向“交付生产力”[4] - Agent的瓶颈在于环境反馈,未来训练范式将从人工标注转向可验证强化学习[5] - 高质量数据即将枯竭,未来竞争是“能源转化效率”的竞赛,需通过二阶优化器和线性架构实现更高的Token效率[5] 中美竞争格局与反超概率 - 行业领军者对中国在引领新范式上反超的胜率评估为不超过20%[2][5][6] - 中国在旧范式上的反超胜率很高,但在引领新范式上的胜率较低[5] - 中美在算力投入结构上存在本质差距:美国算力可能比中国大1-2个数量级,且大量投向“下一代研究”,而中国算力更多被交付与产品化占据[11] - 反超机会窗口在于:当Scaling Law遭遇边际效应递减,全球进入“智能效率”竞赛时,中国的节俭式创新可能突围;以及2026年前后可能出现由学术驱动的范式转向[5] 中国AI发展的关键约束与挑战 - 面临三道关键门槛:算力瓶颈、toB市场与国际商业环境、文化与组织的冒险程度[10] - 中国最缺的是对不确定性的容忍度,真正的反超取决于是否敢于将资源投向可能失败但能定义未来的新范式,而非仅在旧赛道刷榜[5][9] - toB市场面临挑战,国内付费文化与企业侧采用速度会影响“把技术变成现金流”的能力[10] - 在toC应用形态上可能做到极致,但toB需要发展自己的“协作与落地体系”来弥合AI与企业流程之间的gap[22][24] 技术路径与架构创新 - 可验证强化学习的难点在于可验证场景正在逐渐耗尽,需扩展到半自动甚至不可验证的任务空间[40] - 线性注意力架构是重要方向,例如kimi Linear架构能在长程任务上比全注意力机制效果更好,且端到端速度有6到10倍优势[116] - 使用二阶优化器可实现约2倍的Token效率提升,相当于用50%的数据达到一样的Test Loss,或用一样的数据获得更低的Loss[110][112] - 未来模型需解决在强化Agent能力的同时避免损害通用能力的问题[62] - 原生多模态、记忆与持续学习、反思与自我认知能力是未来的关键突破方向[68][70][73] 公司实践与进展 - 智谱AI通过构建真实编程环境作为强化学习反馈源,结合SFT数据进行双向优化,提升了模型在真实交互中的稳定性[49] - 智谱AI开发了全异步强化学习训练框架,使不同任务能够并行运行、动态收敛,并已完成开源[51] - Kimi的K2模型是中国第一个Agent模型,可完成两三百步的工具调用,在HLE基准上达到45%的准确率,比OpenAI更高[114] - 通义千问在2025年致力于打造通用智能体,其Qwen3-Max模型在SWE-bench上达到70分,总体能力排在前五[149][152] - 通义千问的多模态模型在语言智力上已能与235B的语言模型持平,解决了多模态模型通常“变笨”的问题[153][160] 市场分化与未来方向 - 市场出现明显分化:toC和toB路径不同,垂直整合与模型应用分层路径也不同[179] - 对于toC,大部分用户不需要用到极强的智能,体验类似搜索引擎加强版;对于toB,智能越高代表生产力越高,价值越大[182][184] - 在toB市场,用户愿意为最强模型支付高溢价,导致强的模型和稍弱的模型分化越来越明显[185][186] - 未来AI将走向数字智能体和具身智能体,操作GUI与API,并可能进入物理世界[171] - 2026年的重点方向包括:继续Scaling已知与未知路径、推进全新模型架构解决超长上下文与高效知识压缩、发展多模态感统能力、以及AI for Science的突破[98][99][100][101]
唐杰、姚顺雨、杨植麟、林俊旸同台对话背后:5个2026年最重要的AI趋势观察
新浪财经· 2026-01-11 14:47
会议背景与核心观点 - 2025年1月10日,一场由中国大模型领域顶尖人物参与的对话在北京举行,核心议题是寻找中国AGI的突围路径[1][16] - 与会者平均年龄不到35岁,代表了中国AGI赛道的主要力量,包括智谱AI(唐杰)、腾讯(姚顺雨)、阿里巴巴(林俊旸)、月之暗面(杨植麟)等公司[1][2][15][16] - 会议核心共识是,“Chat(对话)范式”的竞争已结束,大模型的未来将向解决问题与自主学习的“深水区”演进[3][17] 下一代AGI范式:自主学习 - 阿里巴巴林俊旸认为,2026年最关键的赌注在于AI的主动性,未来范式应是环境直接Prompt模型,让AI自主思考决策,而非被动响应指令[3][17] - 腾讯姚顺雨同样认为AGI接下来最重要的点是自主学习,这是一个由数据和任务驱动的渐变过程[4][18] - 姚顺雨举例,目前Claude 95%的代码已由Claude自己编写,ChatGPT利用用户数据更新风格也是自主学习的早期信号[4][18] - 林俊旸指出主动学习范式存在风险,需为AI注入正确方向指引,类似培养小孩[3][17] - 姚顺雨认为,尽管OpenAI内部创新受损,但其仍是全球最可能引领下一代范式创新的公司[4][18] Scaling Law(规模法则)的演进与效率 - 智谱AI唐杰指出Scaling Law面临效率困境,从2025年初的10T数据到现在的30T甚至未来100T,单纯增加数据量的收益正在递减[5][19] - 唐杰提出新衡量标准“智能效率”,即用更少算力、更小规模获得同等或更高智能提升,并预判在持续学习、记忆及多模态领域会发生效率范式变革[5][19] - 月之暗面杨植麟认为Scaling Law远未到终点,但内涵已变,Scaling意味着在架构、优化器、数据层面做技术改进,以让模型拥有更好的“品味”,形成护城河[6][20] - 杨植麟指出,Token效率与长文本将是决定AI智力水平的核心因素[6][20] - 阿里巴巴林俊旸提出“测试时扩展”思路,认为o1系列证明可在推理时投入更多计算资源让模型变强,而非仅在训练阶段死磕数据量[6][20] 模型分化趋势 - 模型分化指大模型不再追求样样精通的通用工具,而是根据场景、产品形态和技术特性裂变成不同方向[7][21] - 腾讯姚顺雨认为,模型分化首先发生在商业逻辑上:在B端,智能直接等同于收益,美国用户愿为强模型支付数倍溢价,因其能将任务正确率从60%提升到90%[8][22] - 在C端,分化不在于模型变大,而在于上下文厚度,产品应通过垂直整合让模型感知用户实时环境,走“模型与产品强耦合”路线[8][22] - 阿里巴巴林俊旸认为,公司基因对生态位影响不大,To B和To C本质都是服务人类,他以Anthropic为例,指出其成功源于发现B端客户巨大的Token消耗场景[8][22] - 杨强院士提出,大模型进入稳态后,学术界应研究智能上限和幻觉的平衡,即投入资源与降低错误率之间的风险收益平衡,并建议借鉴人类睡眠机制清理学习噪音[9][23] AI Agent的发展前景与挑战 - 2026年市场对Agent价值爆发充满信心,但对其能否自动化1-2周工作存在不同看法[11][25] - 腾讯姚顺雨认为,To B的Agent正处在上升曲线,但在To C场景,DAU和模型智能常不相关甚至相反,瓶颈在于环境部署和用户教育[11][25] - 阿里巴巴林俊旸认为,通用Agent的魅力在于解决长尾问题,其未来应不止于电脑,需与真实物理世界交互,未来三到五年可能与具身智能结合[11][25] - 杨强院士将Agent发展分为四阶段,认为当前处于最初级阶段(人定义目标与规划),未来大模型将能利用人的过程数据,自行定义目标与规划[12][26] - 智谱AI唐杰认为Agent未来取决于三方面:真正帮助人的价值、成本、以及应用开发速度,行业目前更多在拼速度和时间[12][26] 中美AI竞争与中国的机会 - 智谱AI唐杰对中美差距持保守态度,认为中国模型在快速迭代,但差距可能未缩小,因美国有大量未开源闭源模型[12][26] - 腾讯姚顺雨认为,中国要成为引领者关键在算力突破、发展更成熟的To B市场、以及参与国际商业竞争[13][27] - 姚顺雨指出,美国在To B模型和应用上领先,因其支付意愿更强、文化更鼓励冒险和创新精神[13][27] - 姚顺雨强调,中国需解决能否引领新范式的问题,并走出“榜单的束缚”[13][27] - 阿里巴巴林俊旸同样强调了冒险和创新的重要性[14][28] - 唐杰指出中国市场的赶超机会在于:一群敢冒险的聪明人、更好的营商环境(包括政策)、以及个人的坚持精神[14][28]
中国AI模型四巨头罕见同台发声
21世纪经济报道· 2026-01-11 14:39
文章核心观点 - 中国AI行业领军人物在AGI-Next前沿峰会上,围绕下一代AI范式、Agent发展、大模型技术演进及市场分化等核心议题展开深度讨论,揭示了行业当前的技术重点、市场逻辑与未来挑战[2][4][5] AI技术演进与范式探索 - 月之暗面(Kimi)2025年的技术进化主线是提升“Token Efficiency”以在有限数据下冲击更高智能上限,以及扩展“长上下文”能力以满足Agentic时代的长程任务记忆需求[2] - 单纯的模型参数竞赛已不是C端产品的全部,未来的核心竞争力在于对“语境”(Context)的捕捉,如用户的实时状态、位置、历史偏好等[5] - 下一代AI范式探索中,自主学习面临的最大问题并非技术本身,而是“想象力”的缺失,尚未形成对其实现形态的清晰认知[8] - 有观点认为2025年已出现自主学习信号,部分团队正采用最新用户数据进行实时学习,但模型表现暂时不及OpenAI等头部产品[8] - 对于2027年最有可能实现新范式创新的公司,尽管商业化削弱了其创新基因,但OpenAI的概率依然更大[8] - 强化学习(RL)的潜力尚未充分释放,相关探索仍处于早期阶段,全球范围内都存在类似的发展瓶颈[9] - 下一代AI范式的两个核心方向是AI的自主进化与AI的主动性提升,但后者潜藏着严峻的安全风险[9] - 持续学习、Memory、多模态等方向均有望在2026年诞生新范式[10] - 新范式出现的核心驱动力源于学术界与工业界创新差距的显著缩小,以及大模型发展面临的效率瓶颈[10][11] - 当前工业界与学术界在算力上的差距已从2023-2024年的高达万倍,缩小至2025年底至2026年初的约10倍[10] - 大模型发展面临效率瓶颈,数据规模从2025年初的10TB增长至当前30TB,未来可能扩展到100TB,但规模扩张带来的收益与高昂计算成本不成正比[11] - 未来需明确“智能效率”(Intelligence efficiency)的核心地位,即在更少投入下实现更大的智能增量[11] 市场分化与商业模式 - 中美大模型市场均呈现出明显的分化特征,To C与To B市场的底层逻辑已截然不同[4] - 对于To C市场,大部分用户在大部分时间并不需要极强的智能,ChatGPT等应用更多是“搜索引擎的加强版”,厂商倾向于走“垂直整合”路线,即模型层与应用层紧密耦合、快速迭代[4] - 在To B领域,智能越高代表生产力越高,溢价空间也越大,企业级市场对模型能力的付费意愿呈现极端的头部效应[5] - 市场愿意为顶级模型支付200美元/月的订阅费用,而对次级模型(50美元或20美元/月)兴趣寥寥[5] - 在编程等高频且严肃的生产力场景中,较弱模型产生的错误其隐性成本远超模型差价,因此To B市场正走向分化,强模型和较弱模型的差距将更加明显[5] - 鉴于国内企业软件市场付费意愿较弱的现实,大型科技公司应利用自身庞大的内部场景(如拥有10万员工的大厂)进行验证,而非仅仅依赖于标注商或者外部采购[6] AI Agent的发展与挑战 - AI Agent(智能体)发展走向被视为2026年AI产业的关键变化[13] - Agent的发展可分为四阶段:从目标和规划均由人类定义,过渡到AI自动定义,当前系统仍处于初级阶段,大部分依赖人工设定[13] - 通用Agent的核心能力在于解决长尾问题,其价值在于能解决用户“到处找不到答案”的难题[13] - 对于Agent领域创业者与大模型公司的竞争问题,如果创业者“善于套壳”,在产品化上能做得更好,仍有创业机会;模型公司的优势在于践行模型即产品原则,可通过重训模型从底层解决问题[14] - Agent商业化落地的现实挑战取决于三个核心要素:价值、成本(Cost)与速度,需解决真正有价值的人类事务,且成本不能过高[14] Memory技术与应用前景 - 对于2026年Memory技术能否实现突破性跨越,技术本质上呈线性发展,所谓“突破性”更多是人类的主观感受[10] - 目前Memory技术仅能让AI记住过往信息,却无法像人类一样深度理解运用,可能还需一年左右发展,当算法与基础设施实现更好融合,或许能达到“临界点”[10] - 自主学习的落地场景中,持续理解用户需求、实现个性化交互,更有可能成为其首个突破口[9] - 自动化AI研究员的实现或许无需依赖自主学习,短期内即可替代人工完成模型训练工作[9]
AI圈四杰齐聚中关村,都聊了啥?
首席商业评论· 2026-01-11 12:57
文章核心观点 - 清华大学主办的AGI-Next前沿峰会汇集了中国AI领域的核心人物,包括智谱AI唐杰、Kimi杨植麟、阿里林俊旸和腾讯姚顺雨,共同探讨了通用人工智能(AGI)的当前进展与未来范式转变 [2][4][6] - 行业共识认为,以Chat为代表的对话模型时代已基本结束,AI发展的下一步核心是“从对话走向做事”,即让AI具备执行具体任务的能力,特别是通过智能体(Agent)和编码(Coding)来提升生产力 [6][12] - 中国在开源大模型领域已形成显著影响力,但在整体AI赛道上实现反超仍面临巨大挑战,需要持续在技术创新、新范式探索上投入 [6][19] 大模型发展轨迹与能力演进 - 大模型智能水平发展轨迹类似人类成长:2020年前后解决简单问答,2021-2022年进入数学计算和基础推理,2023-2024年走向复杂推理并能处理研究生层级问题,在真实世界编程任务中表现出可用性 [9] - 模型能力正从知识记忆走向复杂推理,并开始通过人类终极测试(HLE)等极高难度基准的检验,2025年模型整体能力仍在快速提升 [9][10][11] - 代码能力是典型进步领域:从2021年模型写十个程序才能跑通一个,发展到如今在复杂任务中往往可以一次性跑通,能实质性地辅助高级工程师 [12] 下一代范式:从Chat到Agent - DeepSeek的出现标志着Chat这一代问题基本被解决,优化空间正在迅速收敛,行业需要思考新范式 [12] - 新范式的核心是让AI完成具体事情,主要思路有两条:一是强化思考(Thinking)能力,结合编码与智能体;二是让模型更深度地与环境交互 [12] - 智谱AI优先选择了强化思考能力并引入编码场景的路径,通过整合编码、智能体和推理能力,并在真实环境中通过可验证强化学习(RLVR)来提升模型稳定性 [13][14] - 智能体(Agent)的基础能力可理解为编程,但更复杂的任务涉及几十步、上百步的异步超长链路,需要AI具备设备使用层面的能力 [15][16] 技术挑战与解决方案 - 可验证强化学习(RLVR)的挑战在于可验证场景(如数学、编程)正逐渐耗尽,需探索如何进入半自动或不可验证的任务空间 [11] - 训练体系挑战:强化学习任务种类多样,序列长度和时间尺度差异大,智谱AI开发了全异步强化学习训练框架以实现不同任务的并行运行与动态收敛 [15] - 冷启动问题:许多应用场景几乎没有现成数据,解决方案是采用API与GUI操作的混合方案,在真实环境中采集交互数据并进行全异步强化学习 [16] - 能力平衡问题:在9B规模模型上引入大量智能体数据后,其智能体能力显著增强,但部分通用语言和推理能力会下降,未来需解决在强化智能体能力的同时避免损害通用能力的问题 [18] 未来突破方向与行业思考 - 多模态:建立类似人类视觉、听觉、触觉的原生多模态“感统”机制是关键方向 [21] - 记忆与持续学习:如何将个体记忆扩展到群体级、文明级的记忆结构,并纳入模型可持续学习框架 [22] - 反思与自我认知能力:学界存在分歧,但值得探索,可能参考人类双系统认知(系统一与系统二)并引入“自学习”模块 [23] - 继续Scaling的三个维度:Scaling数据与模型规模以提升智能上限;Scaling推理以延长思考时间;Scaling自学习环境以增加与外界交互的机会 [24] - 需要寻找超越单纯Scaling的新范式,让机器能独立定义奖励函数、交互方法甚至训练任务来进行Scaling [24] 智谱AI(唐杰)的实践与展望 - 公司发展源于2019年在清华的成果转化,长期专注于两件事:早年做AMiner以及当前的大模型 [8] - 2025年是GLM模型的开源年,从1月到12月陆续开源了多条模型线,涵盖语言模型、智能体及多模态模型 [19] - 在Artificial Analysis榜单上,前五名中的蓝色模型几乎全部来自中国,显示中国在开源大模型领域的影响力 [19] - 2026年及以后的三个重点方向:继续Scaling但需区分已知路径与探索未知新范式;推进全新模型架构探索以解决超长上下文、高效知识压缩等问题;将多模态感统作为重点方向,以执行长链路、长时效的真实任务 [27] - 判断2025年很可能成为AI for Science的重要突破年份 [28] Kimi(杨植麟)的技术路径与世界观 - 大模型发展的第一性原理是Scaling Law,即把能源转化为智能,拥有更多算力、数据、参数可使模型损失(loss)线性下降 [30][32] - Transformer成为主流架构的核心原因是在Scaling Law上表现优于LSTM,能用更少的FLOPs或参数获得更好的Scaling效果 [33] - 优化围绕两个核心维度:Token效率(用尽可能少的Token获得相同效果)和长上下文(Long Context)能力,两者结合可实现优秀的智能体智能 [35][36] - 公司采用了MUON优化器(一种二阶优化器),相比传统Adam优化器能带来2倍的Token效率提升,相当于用50%的数据达到相同的测试损失,或用相同数据获得更低的损失 [36][38] - 最新研究的kimi Linear架构是一种新的线性注意力机制,旨在长程任务上效果优于全注意力机制,同时端到端速度有显著优势(如100万上下文下快6到10倍) [44][45] - 做模型的本质是在创造一种世界观,追求智能的“品位”(Taste),智能具有不可交换性,不同领域产生的智能不同,因此模型不会趋同,存在指数级的Taste空间 [47] 阿里千问(林俊旸)的进展与多模态探索 - 公司目标从通用模型(Generalist model)转向通用智能体(Generalist Agent),强调AI应像人一样自主使用工具 [53] - 2025年文本模型(Qwen3系列)的主要特点是总体能力提升,特别是推理能力增强,并支持119种语言及方言 [58][59] - 在编码(Coding)能力上,重点从解竞赛题转向软件工程,关注在真实环境中完成多轮交互的复杂任务,在SWE-bench等基准上取得高分(如70分) [61][62][64] - 坚信智能体天然应该是多模态的,致力于构建统一理解与生成的多模态基础模型 [55][56] - 在视觉语言模型上取得进展,使模型在拥有视觉理解能力的同时,语言智力不降低,与其235B纯文本模型能力持平 [65] - 在图像生成方面,从2025年8月到12月,生成图像的真实感显著提升,从“AI感重”到“接近真人”,并具备准确的图像编辑能力 [68][70] - 在语音模型上,开发了能听能说的Omni模型,其文本能力可达Qwen2.5水平,语音能力对标Qwen2.5 Pro水平 [71] - 未来方向包括构建全模态模型(理解并生成文本、视觉、音频),以及利用环境反馈进行多轮强化学习以实现长视野推理 [72][73][74] 行业路线分化观察 - 观察到to C和to B市场发生明显分化:对to C而言,大部分人大部分时候不需要用到那么强的智能,更多是搜索引擎的加强版;对to B而言,智能越高代表生产力越高,价值越大,用户愿意为最强模型支付溢价 [82][83] - 观察到垂直整合与模型应用分层出现分化:在to C应用上,模型与产品强耦合的垂直整合依然成立;但在to B场景,趋势似乎是模型越来越强,同时有许多应用层产品利用这些模型服务于不同生产力环节 [84] - 大公司做编码智能体的一个潜在优势是能利用自身庞大的内部应用场景和真实世界数据来改进模型,这不同于依赖有限标注商的创业公司 [85][86] - 中美市场存在差异:在美国,编码消耗量非常大;而在中国,这一现象尚不明显 [87] - 学术界与工业界存在分化:工业界领头狂奔,学术界需要跟上,解决工业界未及深入的理论问题,如智能上界、资源分配、持续学习中的噪音清理(类似人类睡眠机制)等 [88][89] - 对话模型替代搜索的战役在DeepSeek出现后已基本结束,行业需要寻找下一战,即让AI真正做事 [91] 关于自主学习(Self-Learning) - 自主学习是当前热门共识,但每个人对其定义和看法不同,它更关乎在何种场景下基于何种奖励函数执行何种任务,而非单一方法论 [93] - 自主学习已在多种场景下发生:例如ChatGPT利用用户数据弥合聊天风格,Claude编写自身项目95%的代码以帮助自己变得更好 [94] - 当前AI系统通常由模型和如何使用模型的代码库两部分组成,自主学习正在这些特定场景下渐变式发生,2025年已能看到信号,例如Cursor每几个小时就用最新用户数据学习 [94][95]
唐杰、杨植麟、姚顺雨、林俊旸罕见同台分享,这3个小时的信息密度实在太高了。
创业邦· 2026-01-11 11:22
文章核心观点 - 文章记录了AGI-NEXT活动中多位中国AI行业领袖的圆桌讨论,核心观点是:AI行业正从“聊天”范式转向“行动”范式,并出现明显的市场与技术分化,未来竞争的关键在于模型的“品味”与价值观注入,而非单一能力的比拼 [16][17][20][21] - 与会嘉宾普遍认为,下一阶段的竞争焦点是Agent(智能体)和自主学习,中国AI公司在工程实现和局部创新上具备优势,但要在全球引领新范式,仍需在基础算力、研究文化和冒险精神上取得突破 [17][42][71][73][76] 行业分化趋势 - **To C与To B市场明显分化**:To C产品(如ChatGPT)对普通用户而言体验变化不大,更多是搜索引擎的加强版;而To B市场对智能高度敏感,生产力提升与模型能力直接挂钩,用户愿意为最强模型支付高溢价(例如200美元/月 vs 20-50美元/月) [31][32][33] - **垂直整合与分层路线出现分化**:在To C场景,模型与产品强耦合的垂直整合模式依然成立(如ChatGPT、豆包);但在To B生产力场景,趋势是强大的基座模型与多样化的应用层产品分离,模型层与应用层所需能力不同 [34] - **中美市场应用重点不同**:美国市场Coding(编程)需求消耗量巨大,几乎全是Coding;而中国市场Coding消耗量相对较小,这导致自然的市场分化 [37][38] 技术范式与未来展望 - **当前范式收益接近瓶颈**:预训练走了3年,收益已达七八成;强化学习成为共识,做到了四五十的空间;后续增长需要依赖数据和环境 [43] - **“自主学习”是热门方向但定义多元**:它并非单一方法论,而是依赖于具体场景和奖励函数,例如聊天个性化、代码熟悉度提升、科学探索等,且该趋势已在发生(如Claude Code项目95%的代码由AI编写) [43][44] - **新范式可能在2026年出现**:有观点认为,当Scaling(规模扩展)的收益效率遇到瓶颈时(例如数据从10TB扩展到100TB但收益很小),追求“智能效率”的新范式就会出现,学术界与工业界的资源差距缩小(从万倍差缩小到十倍差)将助推创新 [56][57][58] - **联邦学习与协作模式受关注**:在医疗、金融等隐私要求高的领域,通用大模型与本地领域专家模型通过联邦学习等方式进行协作,成为一种重要趋势 [53][55] Agent(智能体)的发展战略 - **Agent是下一仗的核心**:行业共识是让AI从聊天转向“做事情”,Agent的本质被视为一个搜索问题 [17][18] - **To B Agent处于上升曲线**:其发展逻辑清晰,模型越智能,解决的任务越多,带来的收益就越大,目前没有放缓趋势 [60][61][62] - **环境与部署是关键瓶颈**:即使模型能力停止进步,将现有模型更好地部署到各行业,也能带来10倍或100倍的收益,对GDP产生5%-10%的影响,但目前影响不足1% [62] - **Agent的四个发展阶段**:从目标与规划均由人定义,最终发展到目标与规划均由大模型内生定义,目前处于非常初级的阶段 [68] - **通用Agent的机会**:解决长尾需求是AI的魅力所在,但通用Agent的竞争对创业者和模型公司各有机会,取决于能否比模型公司“套壳”做得更好,或模型公司能否实现“模型即产品” [65] 中国AI公司的机遇与挑战 - **成为全球领先的概率**:嘉宾对此看法不一,有观点表示乐观,认为概率很高;也有观点给出具体数字,认为3-5年后中国公司成为全球最领先的AI公司的概率约为20% [71][77][79] - **关键挑战一:算力与基础设施**:光刻机突破、算力瓶颈、软件生态是主要客观制约因素,中国虽有电力和基础设施优势,但算力规模与美国有1-2个数量级差距,且大量算力用于交付而非前沿研究 [72][76] - **关键挑战二:研究文化与冒险精神**:中国团队更倾向于做已被证明可行的“安全”事情,对刷榜和数字更看重;需要培养更多敢于进行前沿探索和范式突破的冒险精神,这需要文化积累和时间沉淀 [73][74][75][77] - **关键优势与机会**:中国在工程实现、局部优化、产业落地方面能力强,一旦技术被证明,能快速复现并做得更好;年轻一代(90后、00后)冒险精神更强;在To C市场有望百花齐放 [71][77][80][83] - **必要的环境改善**:需要改善营商环境,让顶尖人才有更多时间投入创新而非交付;需要更多资源(资金、算力)投入到AGI行业,支持年轻研究员 [83][85]
未来走向何方?Agent 创企 2025 生存现状一览
机器之心· 2026-01-11 09:30
2025年Agent行业热度与市场接受度 - Agent成为2025年人工智能领域的核心议题,市场热度与实际商业化进展之间存在落差[6] - Meta于2025年12月30日以超过20亿美元收购Manus,被视为Agent模式的里程碑事件[7] - 观点认为Agent热度主要源于工具使用能力的突破,随着MCP通用接口普及,Agent能更高效调度外部系统[7] - 市场竞争焦点从比拼模型参数转向看重“模型+生态工具”的组合能力[8] - 根据谷歌云报告,已有52%使用生成式AI的企业在生产环境中部署了Agent[8] - BCG研究指出,应用高效的Agent可让业务流程提速30%-50%[9] - Salesforce研究表明,预计到2026年,80%的企业级应用将嵌入Agent能力[10] 2025年资本青睐的Agent赛道与代表公司 - 过去一年,融资过亿美元的美国Agent初创企业已超过20家,涵盖多个垂直领域[11] - **法律赛道**:Harvey于12月完成1.6亿美元F轮融资,估值达80亿美元,拥有7.4万律师用户[11];EvenUp于10月完成1.5亿美元E轮融资[11];Eudia于2月完成1.05亿美元A轮融资[14] - **搜索赛道**:Parallel于11月完成1亿美元A轮融资,估值7.4亿美元[12];You.com于9月完成1亿美元C轮融资,估值15亿美元[12];AI搜索独角兽Perplexity被曝于9月完成2亿美元融资[11] - **音频/对话式Agent**:ElevenLabs于12月融资1亿美元,估值突破66亿美元,正向“对话式Agent平台”转型[13] - **软件工程赛道**:Anysphere融资23亿美元,估值293亿美元[14];Cognition AI融资4亿美元,估值102亿美元[14];Replit融资2.5亿美元[14];Turing融资1.11亿美元,估值22亿美元[14] - **B2B客户服务赛道**:Sierra融资3.5亿美元,估值100亿美元[14];Decagon融资1.31亿美元,估值15亿美元[14];Glean融资1.5亿美元,估值72.5亿美元[14];Invisible Tech融资1亿美元,估值20亿美元[14] - **医疗健康赛道**:Hippocratic AI融资1.26亿美元,估值35亿美元[14];OpenEvidence融资2亿美元,估值60-120亿美元[14];Ambience Healthcare融资2.43亿美元,估值12.5亿美元[14];Abridge融资3亿美元,估值53亿美元[14];Tennr融资1.01亿美元,估值6.05亿美元[14] - **科学发现赛道**:Lila Sciences融资3.5亿美元,估值13亿美元[15];Periodic Labs融资3亿美元,估值12亿美元[15];Harmonic融资1亿美元,估值8.75亿美元[15] - **国防赛道**:Shield AI融资2.4亿美元,估值53亿美元[15]
罕见集齐姚顺雨、杨植麟、唐杰、林俊旸,清华这场AI峰会说了啥
新浪财经· 2026-01-11 00:24
文章核心观点 - 多位AI行业专家在AGI-Next前沿峰会上,围绕下一代AI范式、Agent发展、中美市场差异及技术演进路径展开讨论,认为行业正从单纯追求模型规模转向关注智能效率、上下文理解及商业化落地[1][3][4][5][6][7][8][9][11][12] 行业趋势与市场分化 - 中美大模型市场均呈现明显分化,To C与To B市场底层逻辑截然不同[4] - To C市场大部分用户大部分时间不需要极强智能,应用更像是搜索引擎加强版,厂商倾向于垂直整合,模型层与应用层紧密耦合[4] - To B市场智能越高代表生产力越高,溢价空间越大,付费意愿呈现极端头部效应,市场愿为顶级模型支付200美元/月订阅费,对50美元或20美元/月的次级模型兴趣寥寥[4] - 在编程等严肃生产力场景中,较弱模型产生的错误导致隐性成本远超模型差价,因此To B市场强模型与较弱模型的差距将更加明显[4] 技术演进重点与挑战 - 月之暗面2025年技术进化主线是提升Token Efficiency以在有限数据下冲击更高智能上限,以及扩展长上下文能力以满足Agentic时代对模型记忆的需求[3] - 单纯的模型参数竞赛已不是C端产品全部,未来核心竞争力在于对Context的捕捉,如用户实时状态、位置、历史偏好及社交关系[5] - 大模型发展面临效率瓶颈,数据规模从2025年初的10TB增长至当前30TB,未来可能扩展到100TB,但规模扩张收益与高昂计算成本不成正比,盲目投入10亿、20亿资金可能仅获微薄回报[9] - 反复重训基座模型、过度依赖强化学习的模式收益已逐渐递减,未来需明确智能效率的核心地位,即在更少投入下实现更大智能增量[9] - Memory技术可能还需一年左右发展,当算法与基础设施更好融合,或能达到临界点,让人类感受到类似人与人之间的记忆理解能力[8] 下一代AI范式展望 - 自主学习在2025年已出现相关信号,部分团队采用最新用户数据进行实时学习,但尝试尚未带来石破天惊效果,核心原因在于缺乏预训练能力,模型表现暂时不及OpenAI等头部产品[6] - 自主学习发展最大问题并非技术本身,而是想象力的缺失,对于其实现时应呈现的具体任务与效果尚未形成清晰认知[6] - 2027年最有可能实现新范式创新的公司仍是OpenAI,尽管商业化等因素已在一定程度上削弱其创新基因,但综合来看依然是全球最有可能诞生新范式的企业[6] - 下一代AI范式核心方向包括AI的自主进化与AI的主动性提升,但主动性提升潜藏严峻安全风险,担忧AI可能主动实施危险行为[7] - 学术界与工业界的创新差距显著缩小,2023-2024年工业界算力卡数量领先高校高达万倍,但到2025年底至2026年初,众多高校已配备充足算力卡,双方差距缩小至10倍,学术界已孵化出创新种子[8] - 持续学习、Memory、多模态等方向均有望诞生新范式[8] AI Agent发展路径 - AI Agent发展被视为2026年AI产业的关键变化[11] - Agent发展分为四阶段:从目标和规划均由人类定义,过渡到AI自动定义,当前系统仍处于初级阶段,大部分依赖人工设定,未来将出现能观察人类工作、自主利用数据、内生定义目标与规划路径的原生系统[11] - 通用Agent的核心能力在于解决长尾问题,AGI的价值在于能解决用户到处找不到答案的难题[11] - 创业者若善于产品化,在产品上能做得比模型公司更好,仍有创业机会;模型公司优势在于践行模型即产品原则,可通过重训模型、消耗算力从底层解决问题[11] - Agent商业化落地核心要素包括价值、成本与速度,需解决真正有价值的人类事务,且成本不能过高[12]
瞄准英伟达,国产算力产业走向“闭环”
36氪· 2026-01-09 20:39
文章核心观点 国产算力产业在资本市场表现活跃,多家核心公司成功上市或推进IPO,标志着产业进入快速发展与资本化新阶段[1] 同时,行业竞争焦点已从硬件参数比拼转向大规模集群的稳定性、软件生态的易用性及商业落地的性价比[3] 通过硬件互连技术的突破、存储芯片的自主化、计算架构的开放解耦以及软件生态的积极构建,国产算力产业已初步形成从底层硬件到上层应用的生态闭环,具备了应对外部挑战和把握市场机会的能力[17] 资本市场动态与公司进展 - **天数智芯**于2026年1月8日在港股上市,公开发售获超400倍认购,显示资本市场热情高涨[1] - **摩尔线程**于2025年12月5日登陆科创板,上市首日股价一度上涨468.78%,总市值突破3055亿元[1] - **沐曦股份**于2025年12月17日登陆科创板,上市首日涨幅达692.95%,市值站上3300亿元[1] - **长鑫科技**于2025年12月30日递交科创板招股书,披露2025年前三季度营收达320.84亿元,2022至2024年主营业务收入复合增长率超70%[1][6] - **长存集团**于2025年9月25日完成股份制改革,估值达1600亿元,刷新半导体独角兽纪录[1] 硬件竞争焦点:万卡集群与互连技术 - 行业竞争新标尺转向“万卡集群”的稳定性、软件生态易用性及商业落地性价比[3] - **中科曙光**发布scaleX万卡超集群,由16个scaleX640超节点互连,实际部署10240块AI加速卡[3] - 万卡集群面临指数级增长的故障概率挑战,系统可靠性面临严峻考验[3] - 集群核心突破在于采用国产首款400G原生RDMA网络,以解决高速数据传输瓶颈,其规格指标和实测稳定性已可对标英伟达当前量产产品[4][5] - 未来技术挑战在于物理极限,铜缆传输距离随速率提升急剧缩短,行业需向硅光技术发展以突破极限[5] 存储芯片自主化进展 - **长鑫科技**作为中国最大DRAM设计制造一体化企业,产品线覆盖DDR4到DDR5、LPDDR5X,其首款国产DDR5产品速率达8000Mbps[6] - **长存集团**在NAND Flash领域凭借Xtacking架构实现技术突围[7] - DRAM及衍生的HBM是决定GPU性能上限的核心要素,NAND Flash则是底层存储基础[6][7] - 2025年下半年以来,全球存储颗粒(DRAM/NAND)供应压力巨大,国产化尚无法完全解决全球性供需失衡,导致云厂商采购策略前置[13] 计算架构开放与生态协作 - 行业共识从“全产业链通吃”转向“分层解耦、各司其职”[9] - **海光信息**开放其HSL高速互连总线协议,实现了海光CPU与各家GPU的异构互联,拉通了CPU与GPU[8] - **光合组织**秘书长指出,大规模算力系统已非单一品牌独角戏,协议的打通是关键[7] - 这种技术解耦与开放架构,旨在构建更开放的生态,避免厂商各自为战导致的生态割裂与用户适配成本高企[11] 软件生态构建与迁移策略 - 在英伟达CUDA生态主导下,开发者切换至国产平台面临巨大代码重构与学习成本[10] - **摩尔线程**策略是从个人开发者抓起,发布“MTT AIBOOK”AI算力本实现开箱即用,并推出代码生成大模型MUSACode,声称CUDA到MUSA代码自动化迁移可编译率达93%[10] - 在企业级市场,云服务商承担“屏蔽差异”职责[11] - **优刻得**作为云服务商,向下适配3到5家主流的国产芯片,通过虚拟化和统一调度屏蔽底层硬件割裂,统一管理异构算力[11][12] - **紫光计算机**看到本地化价值,推出带前置可插拔硬盘仓的AI工作站,以应对网络延迟、隐私风险及海量数据交换效率问题[12] 应用落地、客户选择与市场风向 - **中国科学院高能物理研究所**已开始采用国产算力设施进行AI训练和科学计算,评价其性能“完全够用”,并与芯片厂商进行联合调试优化[14] - 国内互联网大厂态度变化,从直接采购国际主流芯片转向希望拥有更多话语权和接受更开放的架构[14] - **海光信息**推出定制化产品,允许大厂将特殊需求写入芯片,以建立深层绑定[14] - 行业认为2026年是Agent(智能体)元年,其对算力的消耗是指数级增长,算力依然短缺,问题在于供需错配而非总量过剩[15] - **DeepSeek**等国产大模型的爆发反向定义硬件标准,如采用FP8量化策略,促使芯片厂商优化底层计算库以支持特定计算格式[15][16] 产业链闭环与应对挑战的能力 - 面对美国可能放宽英伟达H200芯片出口限制的传闻,行业强调国内政企客户对供应链安全有刚性考量[17] - 国产算力产业链已形成闭环:从**长鑫科技**、**长存集团**的存储底座,到**中科曙光**、**海光信息**的计算与网络集群,再到**摩尔线程**、**天数智芯**适配的终端应用[17] - 过去几年,中国算力产业已初步形成紧密咬合的生态闭环,具备了进一步直面挑战的能力[17]
瞄准英伟达!国产算力产业走向“闭环”
经济观察报· 2026-01-09 18:28
资本市场热潮与国产算力产业进步 - 国产算力产业在资本市场运作提速,天数智芯在港交所上市,公开发售获超400倍认购 [2] - 国产GPU头部企业摩尔线程和沐曦股份登陆科创板,上市首日股价分别一度上涨468.78%和692.95%,市值分别突破3055亿元和3300亿元 [2] - 国产存储芯片厂商长鑫科技递交科创板招股书,披露2025年前三季度营收达320.84亿元,2022至2024年主营业务收入复合增长率超70% [2] - 长江存储完成股份制改革,估值达1600亿元,刷新半导体独角兽纪录 [3] - 从芯片设计到存储颗粒,从科创板到港交所的资本热潮间接宣告了国产算力产业的快速进步 [1][4] 硬件竞争焦点转移与“万卡集群”挑战 - 国产算力竞争焦点从比拼硬件参数,转向“万卡集群”的稳定性、软件生态易用性及商业落地性价比 [6] - “万卡集群”意味着指数级增长的故障概率,中科曙光发布的scaleX万卡超集群部署了10240块AI加速卡 [6] - 专家指出,当系统规模达到十万张卡时,平均一小时要出一次错,只要一张卡出错,整个系统就得停下来 [6] - 硬件厂商在“连接”上寻求突破,中科曙光集群采用国产首款400G原生RDMA网络,以解决大规模协同计算对高信号质量、低延迟、大带宽网络的需求 [7] - 英伟达通过GPU、NVLink和InfiniBand网络构成“三驾马车”产品体系,节点间高速互连网络是决定AI集群效率的关键瓶颈 [8] - 未来需采用硅光技术以突破铜缆在高速率下传输距离急剧缩短的物理极限 [8] 存储与计算协同及产业分工 - 在解决“连得上”问题后,需解决“存得下”问题,长鑫科技和长江存储分别卡位DRAM和NAND Flash两大核心存储领域 [9] - 长鑫科技产品线覆盖DDR4到DDR5、LPDDR5X,其首款国产DDR5产品速率达8000Mbps,DDR5承担AI集群数据预处理,其衍生的HBM是决定GPU性能上限的核心要素 [9][10] - 长江存储凭借Xtacking架构在3D NAND领域实现技术突围 [10] - 产业逻辑转向分层解耦、各司其职,海光信息开放其HSL高速互连总线协议,实现了海光CPU与各家GPU的异构互联,技术解耦折射出商业逻辑的妥协与成熟 [11] 软件生态构建与迁移挑战 - 软件生态迁移是比硬件建设更复杂的系统工程,开发者从英伟达CUDA生态切换至国产平台面临巨大代码重构与学习成本 [13] - 摩尔线程发布“MTT AIBOOK”AI算力本预置全栈开发工具,并推出代码生成大模型MUSACode,声称可实现从CUDA代码到MUSA代码的自动化迁移,可编译率达93% [13] - 在企业级市场,云服务商承担“屏蔽差异”职责,优刻得向下适配3到5家主流的国产芯片,通过虚拟化和统一调度,让上层应用感知不到底层硬件差异 [15] - 行业存在生态割裂、互不兼容的问题,构建开放的生态架构已成为行业生存的必选项 [15] - 紫光计算机看到“本地化”价值,推出带有前置可插拔硬盘仓的AI工作站,以应对云端AI的网络延时、隐私风险及海量数据交换效率问题 [16] 供应链波动与产业新变量 - 2025年下半年以来,全球存储颗粒(DRAM/NAND)供应压力巨大,国产化尚无法完全解决全球性供需失衡 [17] - 为应对缺货,云厂商改变采购策略,从按季度规划拉长到按半年规划,并前置采购计划 [17] - 2026年被认为是Agent(智能体)元年,其对算力的消耗是指数级增长,从供需关系看,算力依然短缺,行业面临的是供需错配而非总量过剩 [20] - DeepSeek等国产大模型的爆发反向定义硬件竞争标准,如其采用FP8量化策略,要求芯片厂商优化底层计算库以支持特定计算格式 [21] 应用落地、客户选择与产业闭环形成 - 检验国产算力成色的最终标准是客户选择,中国科学院高能物理研究所已采用国产算力设施进行AI训练和科学计算,评价其性能“完全够用” [19] - 合作模式发生变化,科学家深入参与芯片调优过程,通过联合调试加速软硬件适配 [19] - 国内互联网大厂态度变化,希望拥有更多话语权,接受更开放的架构,海光信息推出定制化产品以迎合需求,建立深层客户绑定 [19][20] - 面对美国可能放宽英伟达H200芯片出口限制的潜在变量,行业认为国内政企客户对供应链安全有刚性考量,且国产算力产业链已形成闭环 [21] - 从长鑫科技、长江存储的存储底座,到中科曙光、海光信息的计算与网络集群,再到摩尔线程、天数智芯适配的终端应用,国产芯片产业已形成一个完整、庞大的产业链条,初步形成生态闭环 [21][22]