Workflow
Scaling Law
icon
搜索文档
从DeepSeek R1的复现看深度思考模型的未来|ML-Summit 2025
AI科技大本营· 2025-03-31 14:55
2025全球机器学习技术大会(ML Summit 2025)概况 - 大会将于2025年4月18-19日在上海虹桥西郊庄园丽笙大酒店召开 [1] - 由CSDN & Boolan联合主办,汇聚超50位学术界和工业界顶尖专家 [1] - 设有12大技术专题,覆盖AI领域前沿热点,并设置AI企业创新展区展示最新技术产品和解决方案 [8] 大会核心演讲内容 - 新浪微博首席科学家张俊林将分享《从DeepSeek R1的复现看深度思考模型的未来》 [1] - 演讲将系统梳理DeepSeek R1开源后的各类复现研究,涵盖SFT阶段轻量适配与RL阶段创新实践 [6] - 重点剖析两阶段训练模式:冷启动微调结合多领域数据优化的SFT阶段,以及运用GRPO强化学习与全场景对齐实现能力跃迁 [6] 深度思考模型技术探讨 - 大模型时代Scaling Law仍是核心驱动力,Grok 3案例显示增大模型尺寸的传统做法性价比值得思考 [5] - 提出用S型曲线叠加解释大模型预训练、后训练及推理阶段的Scaling Law现象 [5] - 探讨关键技术问题包括:RL的Scaling Law边界、影响SFT阶段蒸馏方法效果的关键因素、如何科学解释"Aha Moment"现象 [6] 行业影响与展望 - 大会是推动AI生态融合、促进行业协同创新的重要契机 [8] - 旨在探索AI未来发展方向,推动技术在更广泛场景落地 [8] - DeepSeek R1开源引发学术界和工业界复现研究热潮,为探索更强大的深度思考模型提供新视角 [4][5]
对话2025最火具身智能团队:2个自动驾驶第一人带队,1.2亿美元天使融资震动江湖
量子位· 2025-03-26 18:29
行业与公司概况 - 具身智能被视为继AI和自动驾驶后的下一代科技风口,行业热度极高,投资机构竞相追逐新兴创业公司[2] - 它石智航(TARS)在2025年2月成立后迅速完成1.2亿美元天使轮融资,创中国具身智能领域最大天使轮纪录[3][7][8] - 公司由自动驾驶领域顶尖专家陈亦伦(华为前自动驾驶CTO)和李震宇(百度阿波罗前负责人)联合创立,团队被类比为"库里+约基奇"的梦之队组合[4][11][15][16] 技术方向与核心优势 - 核心技术引擎为AWE(AI World Engine),定位为具身智能领域的GPT大模型,但采用Human-Centric数据采集范式[14][37][65] - 技术路径强调全栈能力:超级算法(具身大模型)、超级本体(机器人硬件)、超级应用(场景解决方案)[25][26] - 核心差异点包括:4D空间对齐技术、真实世界具身数据闭环、端到端强化学习架构[42][39][36] - 工程化能力是最大壁垒,团队曾主导华为ADS和百度Apollo的量产落地[14][15][16] 产品与商业化路径 - 初期聚焦柔性物体操作场景(如汽车制造),验证物理AI的工业应用价值[28][77] - 采用模块化机器人本体设计,暂不确定灵巧手形态,但强调上肢拟人化操作的必要性[71][82][84] - 版本规划对标GPT发展路径:AWE 3.0(基础模型)→3.5(场景优化)→强化学习版本[70] - 商业化标准强调"机器人实际工作场景"而非展会演示,金标准是落地稳定性[100][101] 行业趋势判断 - 物理AI(具身智能)将接替信息AI成为主流,自动驾驶和大模型成功奠定技术基础[49][51][52] - 行业三大Scaling Law:数据规模→模型参数→推理能力,当前瓶颈在数据维度[59][60][63] - 关键技术分歧(仿真vs真实数据/通用vs垂类/大小脑架构)将随AI能力提升自然收敛[96][97][98] - 具身智能的"GPT时刻"标志是机器人用AI方法可靠完成1-2项现实任务[109][110] 团队与融资 - 核心团队包含华为"天才少年"丁文超(首席科学家)和量产专家陈同庆(首席架构师)[16][17] - 天使轮由蓝驰创投、启明创投联合领投,8家机构跟投,超募现象显著[7][14] - 融资将投入技术研发、模型训练和场景拓展,重点构建数据采集基础设施[13][43][45]
大模型“神仙打架”,掀起复现潮、技术大升级后,我们需要关注什么? | 万有引力
AI科技大本营· 2025-03-25 09:45
大模型技术竞赛与行业动态 - DeepSeek连续五天开源引发复现热潮,阿里巴巴通义实验室和腾讯分别推出ViDoRAG系统和混元快思考模型Turbo S,加速大模型演进 [1] - 马斯克用20万张GPU训练Grok 3超越业界标杆,验证"大力出奇迹"定律 [1] - Claude 3.7 Sonnet编码能力大升级,AI编程技术平权时代加速到来 [1] - DeepSeek论文与Kimi"撞车",稀疏注意力与线性注意力机制成为Transformer后的关键探索方向 [1] - Manus模式的"虚拟机"概念迅速走红,正在重塑大模型运行方式 [1] DeepSeek的技术突破与影响 - DeepSeek R1发布引发全球热议,首次展示模型能以类似人类方式思考,采用第一人称表达推理过程 [6][7] - DeepSeek开源周发布五大项目,涉及算力加速、通信优化和存储处理三大领域 [20][22] - DeepSeek利润率高达545%,颠覆行业对大模型MaaS盈利能力的认知 [33] - DeepSeek的技术路线侧重小粒度Expert,强调效率,相比Grok 3的"暴力美学"更为高效 [45] - DeepSeek的推理架构为搜索体验带来颠覆性变化,推动"边搜边想"的新搜索逻辑 [7] 行业竞争格局与趋势 - 行业可能出现两条发展路径:少数企业继续堆砌算力追求极致模型,大多数企业选择小模型路线 [46] - "百模大战"第一阶段暂时由DeepSeek领先,竞争可能向多模态和具身智能演进 [30][31] - 新兴公司在AI基础设施和大模型训练领域面临巨大投入挑战,难以与头部企业竞争 [27][28] - 阿里Qwen在国际市场表现不俗,但在推理方面未能取得DeepSeek级别的突破 [26] - 量化公司如九坤转型成立AI部门,在系统优化和数据处理方面具有优势 [27] 技术演进与创新方向 - Attention机制面临算法复杂度高的问题,改进方向包括稀疏化和状态空间模型(SSM) [62][63] - DeepSeek提出的NSA(Neural Sparse Attention)在减少计算量的同时提升模型效果 [65] - 合成数据成为重要方向,在多模态、具身智能等领域应用广泛,精准度超越传统数据增强 [75][77] - 长上下文支持技术变革搜索领域格局,Gemini的100万token窗口展现强大能力 [50] - 代码模型可能成为通往AGI的路径,通过持续学习和技能库扩展实现能力进化 [81][83] 应用场景与商业化 - AI编程是首个经过PMF验证的应用场景,Claude 3.7和DeepSeek在代码能力上仍有提升空间 [78][80] - AutoPilot类工具如Devin更适合"万事开头难"场景,成本低于雇佣实习生 [78] - MaaS商业模式面临上游价格和下游支付意愿的双重挑战,运营效率成为关键壁垒 [33][34] - 私有化部署需求增长但面临数据治理挑战,建议企业优先使用API进行验证 [36][39] - 2B领域数据治理和处理服务需求旺盛,国内加速推进数据要素市场建设 [36] 基础设施与工程实践 - 训练大模型成本极高,智源发起OpenSeek开源项目,已吸引100多位贡献者 [9][10] - OpenSeek处理约100亿网页数据,构建4亿条CoT数据集,计划全面开源 [11] - 系统训练层面缺乏成熟框架支持,DeepSeek公开自研五个项目提升训练效率 [12] - 行业Infra团队和人才稀缺,更多关注0到1搭建而非1到100的优化 [21] - 虚拟机技术可能走红,因工具调用需要沙盒化环境执行任务 [84]
中欧基金科技战队:既要抓住产业趋势,也要关注长期价值
雪球· 2025-03-19 16:30
文章核心观点 - 面对AI行业快速变化和复杂挑战,中欧科技战队摸索出工业化组织样本,通过更早更广覆盖、专业化分工与流程化协作、平等沟通机制,提升投研能力和胜率,在科技浪潮中收获成果 [3][6][9] 分组1:AI行业变化与挑战 - 2024年12月中欧基金科技研究小组预判国产大模型能力追赶进度,一个月后DeepSeek问世引发AI变革,给投研带来全球性、时效性挑战 [1] - 智能机器人发展冲击科技基金经理传统打法,投资颠覆性创新面临量产摸索和数据体系不完善问题 [2] 分组2:投研团队适应AI节奏的方法 曲速引擎:更早更广覆盖 - 建设对AI行业更早更广覆盖的投研平台,助推学习速度领先产业变化,研究AI比新能源更复杂 [6] - 基金经理和研究员早有AI研究储备,中欧基金在科技产品数量、投研人员储备和细分行业覆盖上领先,指数产品布局覆盖全产业链 [7] - 周蔚文和杜厚良有前瞻判断,如机器人行业空间和算力国产化趋势,战队旗下产品在科技浪潮中收获满满 [8][9] 共乘一舰:专业化分工与流程化协作 - 依靠团队专业化分工和流程化协作,形成勾稽关系,如光模块研究需多环节验证 [10] - 团队成员横向学习赋能,发挥各自专长,相互协作补齐短板,挖掘投资机会 [12] 惯性阻尼:平等沟通回避风险 - 周蔚文不强迫基金经理投资,提供附加值和减小回撤方法论,制定平等透明沟通机制应对分歧 [15] - 分歧交锋对基金公司珍贵,做科技股要控制风险,抓住产业趋势同时关注长期价值 [16] 分组3:洞见与团队的重要性 - 公募基金靠洞见领先长期业绩,洞见需靠团队,中欧制造理念下的组织注重平等自由和团队协作 [18]
刚刚,老黄携GB300震撼登场!DeepSeek推理暴涨40倍加速全球最快,26年Rubin问世
创业邦· 2025-03-19 11:17
文章核心观点 英伟达在GTC大会展示过去一年进展,发布新产品路线图,强调Scaling Law未撞墙,未来数据中心建设规模将达万亿美元,还推出开源推理软件和通用机器人模型,有望在AI和机器人领域持续引领发展[1][23][27] 分组1:大会亮点与行业趋势 - 英伟达老黄在GTC大会介绍过去一年进展,称今年GTC是AI的超级碗,每个人都是赢家 [2] - Blackwell全面投产,因AI拐点至,训练推理AI/智能体系统对计算量需求大增 [3] - 英伟达预言未来有工厂的公司将有实体工厂和AI工厂,CUDA核心及算力将引爆行业变革 [4] - 通用计算到尽头,行业正从通用计算机转向加速器和GPU上运行的机器学习软件,计算机成为生成token的工具 [28] - 加速计算趋势无法阻挡,AI将进入各行业,英伟达CUDA - X库为科学领域提供加速框架 [29] 分组2:产品路线图 - AI芯片每年一更,下一代Rubin明年亮相,英伟达构建云上、企业和机器人AI基础设施 [5][8] - 今年下半年将问世的Blackwell Ultra提升训练和测试时推理能力,显存从192GB提升到288GB,GB300 NVL72的AI性能比NVIDIA GB200 NVL72高出1.5倍 [6][7] - 2026年下半年预计发布Vera Rubin,推理时每秒50千万亿次浮点运算,比Blackwell速度高出一倍多,显存升级为HBM4,带宽从8TB/s提高到13TB/s,扩展NVLink吞吐量提升到260TB/s,机架间CX9链路达28.8TB/s [9][10] - 2027年下半年预计推出Rubin Ultra版本,FP4精度推理性能达15 ExaFLOPS,FP8精度训练性能为5 ExaFLOPS,相比GB300 NVL72性能有14倍提升,配备HBM4e内存,带宽为4.6 PB/s,支持NVLink 7,带宽为1.5 PB/s,较上一代提升12倍,机架支持CX9,带宽达115.2 TB/s [11] - 2028年将上市Feynman,命名致敬美国理论物理学家Richard Feynman [17] 分组3:桌面级产品 - 推出Blackwell RTX PRO工作站和服务器系列,包括数据中心、桌面和笔记本GPU,为开发者等提供AI支持,RTX PRO 6000 Blackwell吞吐量高达1.5倍,第五代Tensor Core每秒4000万亿次AI运算,第四代RT Core性能提升2倍 [19] - 带来两款由Blackwell驱动的DGX个人桌面AI超级计算机DGX Spark和DGX Station,DGX Spark是最小的AI超级计算机,配备128GB内存,核心是GB10 Grace Blackwell超级芯片,每秒1000万亿次AI计算能力;DGX Station将数据中心级性能带到桌面,采用GB300 Grace Blackwell Ultra桌面超级芯片,配备784GB统一内存 [20][22] 分组4:Scaling Law与数据中心 - 老黄称Scaling Law没撞墙,推理计算量需求大增,数据可通过强化学习和合成数据获取,AI处于转折点 [25][26] - 2024年全球TOP 4云服务商买进130万块Hopper架构芯片,预计2028年数据中心建设规模达一万亿美元 [27] 分组5:架构与扩展 - 英伟达通过网络InfiniBand和Spectrum X实现scale up,Spectrum X具备低延迟和拥塞控制特性,成功扩展最大单GPU集群 [14] - 官宣首个共封装硅光子系统,每秒1.6T的CPO,基于「微环谐振器调制器」技术,用台积电工艺构建,可扩展至数十万甚至百万GPU规模 [15][16] - HGX系统架构解决纵向扩展问题,包含8个GPU,通过MVLink 8连接到CPU架,再通过PCI Express连接,用InfiniBand连接多个设备,NVLink交换机让GPU全带宽通信,液冷压缩计算节点,实现一个机架Exaflops级超算 [31][32][33] 分组6:推理Scaling问题与解决 - 推理Scaling是「终极计算」问题,推理中响应时间和吞吐量存在矛盾,需最大化生成token曲线下方面积,还需巨大带宽和浮点运算能力 [36] - 传统LLM用不到500个token快速回答问题但结果错误,推理模型需超8000个token推理简单问题,计算量增加150倍,万亿级参数模型需通过管线、张量和专家并行组合解决,NVlink可实现规模终极Scaling [37][38][39] 分组7:NVIDIA Dynamo - 发布开源推理软件NVIDIA Dynamo,被称为「AI工厂的操作系统」,能协调加速数千个GPU间推理通信,分配LLM处理和生成阶段到不同GPU,优化GPU资源利用 [41][42] - Dynamo能让运行Llama模型的AI工厂在Hopper架构上性能和收入双双翻倍,在GB200 NVL72集群上运行DeepSeek - R1模型时,每个GPU生成token数量提升超30倍,还能动态分配GPU、卸载推理数据降低成本 [42] - Dynamo完全开源,支持PyTorch、SGLang、NVIDIA TensorRT - LLM和vLLM [43] 分组8:性能对比与效益 - 新的Blackwell架构比Hopper强,能耗固定时性能提升25倍,推理模型上高40倍,用MVLink 8技术加速,引入4位浮点数优化,能效高的架构对未来数据中心重要 [44] - Blackwell扩展到MVLink 72加上Dynamo软件效果更好,能适应不同工作负载,老黄认为大型项目投资最新技术如Blackwell可避免落后,买得越多赚得越多 [45][46] 分组9:通用机器人模型 - 预计本世纪末世界劳动力短缺超5000万,通用机器人时代到来,具身智能遵循三大Scaling Law,数据短缺问题可由英伟达Omniverse和Cosmos解决 [48][49] - 官宣世界首个开源、完全可定制的通用人形机器人模型GROOT N1,采用「双系统架构」,慢思考系统推理规划行动,快思考系统转化为精确动作,可执行多步骤任务 [50][51][52] - 与DeepMind、迪士尼研究开发下一代开源的Newton物理引擎,让机器人精确处理复杂任务,以星球大战BDX机器人为灵感的Blue上台互动,老黄预言机器人领域将成最大产业 [54][55][56]
中欧科技战队:制造「工业化」星舰,穿越AI光变纪元
远川投资评论· 2025-03-14 15:07
文章核心观点 - 中欧科技战队面对AI行业快速变化,通过构建对AI行业更早更广覆盖的投研平台、专业化分工与流程化协作以及平等沟通机制,提升投研能力,在科技浪潮中收获成果,强调团队洞见对长期业绩领先的重要性 [2][4][17] 分组1:AI行业变化与投研挑战 - 2024年12月中欧基金科技研究小组预判国产大模型能力追赶进度,一个月后DeepSeek问世引发AI变革,投研需应对行业快速变化和全球性、时效性挑战 [1] - AI产业供给侧和需求侧全新,与新能源等行业相比,投资过程更复杂,需不断思考AI对行业和公司的影响 [4] 分组2:中欧科技战队投研平台建设 - 中欧科技战队摸索出工业化组织样本,通过对AI行业更早更广覆盖确保认知领先,依靠专业化分工和流程化协作保证学习深度,以平等沟通机制回避风险 [2] - 中欧基金在人工智能等行业配置专门研究员,主动产品线覆盖AI细分行业,指数产品布局占据科技领域较大比重,关注AI顶级大厂动态,做出前瞻判断 [5][6] - 周蔚文早在2013年开始关注机器人,2023年提及人形机器人机会,去年中欧内部达成机器人投资共识并确定关键要素 [6] - 杜厚良去年下半年分享算力国产化逻辑,认为先进制造竞争格局将更集中,未来国产算力芯片市场空间增大 [7] 分组3:投研团队专业化分工与协作 - 中欧投研团队依靠专业化分工与流程化协作,通过全产业链研究的勾稽关系相互补足、验证,如对光模块的研究 [9] - 团队成员在日常研究中横向学习赋能,发挥各自专长,相互交流合作,挖掘投资机会 [11] 分组4:风险控制与沟通机制 - 周蔚文作为管理者提供附加值,摸索减小回撤的方法论,通过长期定价提示风险和参考历史数据统计,制定平等透明沟通机制应对分歧 [14] - 团队成员间的分歧交锋有助于控制风险,做科技股投资要抓住产业趋势,关注长期价值 [15] 分组5:团队洞见与长期业绩 - 公募基金要长期业绩领先需靠团队洞见,中欧科技战队营造平等自由氛围,让洞见在团队中涌现 [17]
晚点播客丨MiniMax 闫俊杰聊大模型 2024:一个非共识判断引起的回声
晚点LatePost· 2025-01-22 21:56
模型能力与用户规模关系 - 更好的模型可以导向更好的应用,但更好的应用和更多用户并不会导向更好的模型 [5] - 字节跳动发布 Doubao-1.5-pro 模型技术报告,提到通过用户数据飞轮持续提升模型实际使用体验 [5] - 行业误区认为更好的智能水平依赖更多用户,但实际并非如此 [7] MiniMax 公司概况 - MiniMax 的 AI 社区产品 Talkie 最新月活用户数已超 Character.ai,成为同类产品全球第一 [6] - 中国 AI 社区产品 "星野" 用户数、使用时长和留存率均为第一,高于字节旗下同类产品 [6] - 视频生成平台海螺 AI 是全球访问量最高的视频生成网站 [6] 技术驱动与开源策略 - MiniMax 开源新模型系列以加速技术迭代和加强技术品牌 [7] - 明确公司为技术驱动,追求模型能力上限提升而非依赖用户规模 [7] - 模型架构改进:将传统 Transformer 的非线性注意机制改为线性注意力机制,提升 long-context 处理能力 [29] Agent 与多模态发展 - Agent 需在专业领域达到专业人士水平,处理复杂任务 [25] - 多模态能力在 OpenAI AGI 路线图中占据重要位置 [39] - AI 编程助手 Cursor 的成功并非基于特定方向模型 [41] 市场竞争与公司定位 - 大模型竞争与移动互联网逻辑不同,更多人意识到这一差异 [01:11:19] - 未考虑被字节收购,公司目标非出售而是技术突破 [01:12:29] - 大厂投入和竞争激烈程度在预料之中 [01:16:28] 团队管理与 CEO 反思 - 公司需要两种人才:技术能力强和认知能力突出 [01:23:24] - CEO 决策关键在于组织有共同标准,而非个人决策 [01:26:56] - 去年反思最多的问题是认知能力提升速度不足 [01:32:08] 产品与用户洞察 - Talkie 和星野的领先优势源于更懂用户需求 [01:06:48] - 海螺文本的失利因未坚持技术驱动策略 [01:04:44] - 市场可同时容纳模型和应用公司,无需非此即彼 [01:01:38]
她为何被雷军挖角
投资界· 2025-01-21 15:35
以下文章来源于南风窗 ,作者朱秋雨 南风窗 . AI小厂崛起。 作者 | 朱秋雨 来源 | 南风窗 (ID:shangyejingxiang) 2024年末,一个中国AI小厂,凭借过硬的技术,获得了全球铺天盖地的关注。 圣诞节过后,海外社交媒体以及技术论坛Github都在讨论一个最新发布的开源大模型, DeepSeek-V3。它被外国网友冠以名号——"来自东方的神秘力量"。 多个评测报告里,DeepSeek-V3在世界开源模型之中处在第一梯队,超过扎克伯格的 LLaMa 3.1。拿它比GPT-4o以及Claude 3.5两个最顶尖大模型也毫不逊色,甚至, 其在数学推理、代码生成和长文本处理等指标上,表现更强。 这还不是中国AI公司DeepSeek(中文名:深度求索)全部的"拿手好戏"。更让美国硅 谷等同行摸不着头脑的是,DeepSeek公布的53页技术报告显示,其训练顶尖大模型只 用了2048张H100的GPU集群,花费53天,共计耗费557.6万美元。有专业人员指 出,同等水平之下,世界AI大厂至少要用1.6万张以上的GPU,有的甚至需要10万张 GPU并行训练。 OpenAI早期成员安德烈·卡帕西感慨,D ...
AI正在诞生一个万亿级公司
投资界· 2024-12-25 16:24
人工智能行业投资趋势 - 人工智能已从概念阶段发展为全面赋能各行业的工具,投资方向从基础层向应用层转移[6][8][9] - 2023年全球推出87个知名AI模型(产业界51个+学术界15个+合作21个),技术突破持续加速[12] - 广州基金管理的14家独角兽企业涉及商汤科技、小马智行等AI项目,累计管理规模超1100亿元[7] 投资机构布局策略 - 真格基金坚持"投人逻辑",80%被投项目创始人为90后,40%为连续创业者[8][10][19] - 啟赋资本聚焦AI应用层,重点布局具身智能产业链(触觉传感器/陪伴硬件/健康管理设备)[9][12] - 广州基金采取"基础层-技术层-应用层"全覆盖策略,关注智能网联/人形机器人/垂直行业大模型[9][12] 细分赛道机会 - 具身智能处于类似GPT2.0前的早期阶段,传感器等技术临近产业化拐点[12][14] - 垂直行业大模型因高质量数据集优势,成为AI与高端制造结合的关键切入点[9][12] - AI+硬件(机械臂/陪伴机器人)和老龄化相关应用(护理机器人)呈现明确付费意愿[9][13][16] 投资方法论 - 保持"牌桌参与":持续接触项目+深度独立思考+融入核心圈层[15] - 系统化赛道研究:完整扫描产业链环节,识别技术成熟度与商业化临界点[18] - 年轻创始人红利:1997年前后出生的创业者正成为新一代AI领军力量[10][19] 行业长期展望 - AI将如同互联网般融入各行业基础盘,催生万亿级企业的速度可能快于互联网时代[14] - 技术迭代呈现Scaling Law边际效应递减,预训练模型资产快速贬值倒逼应用创新[8][10] - 国有资本强调耐心资本属性,需陪伴企业度过AI技术商业化落地周期[16][17]
晚点播客丨OpenAI o1 如何延续 Scaling Law,与硅基流动袁进辉聊 o1 新范式
晚点LatePost· 2024-09-20 23:22
OpenAI新模型o1的技术突破 - o1通过强化学习、思维链(CoT)和推理阶段算力分配(test-time compute)三大技术方法显著提升逻辑推理能力,尤其在科学、数学和编程任务上表现突出[3][8][9] - 模型在推理阶段采用"系统2"式多步反思机制,平均需调用10次单模型推理,算力消耗增至10倍[19][24] - 技术组合验证了推理端算力投入的边际收益,开辟新优化方向,可能推动行业从单纯追求训练规模转向训练-推理协同优化[20][22] 行业应用与开发者生态 - AI应用开发呈现"草根化"趋势,个人开发者和小微企业占比提升,典型场景包括教育玩具、编程辅助、遗嘱撰写等垂直领域[40][41][42] - 开源模型加速应用创新,国内开发者主要调用通义千问(Qwen)、DeepSeek和GLM-4,其中Qwen因版本齐全受青睐,DeepSeek以编程能力见长[45] - 应用爆发呈现"巷战"特征,大量小型AI功能嵌入钉钉等工作流,日调用量达数亿tokens,但尚未形成超级应用[46][47][48] 算力市场与公司战略调整 - 国内GPU算力价格下降,主因基础模型训练需求减少和电力成本优势,但超大规模训练集群仍稀缺[38][39] - Meta等开源策略改变行业格局,多数公司转向基于开源模型开发,仅资源充沛或AGI目标明确的公司继续自研基础模型[36][37] - o1推动推理优化基础设施需求,硅基流动等公司探索并行推理、依赖关系优化等技术降低计算延迟[34] 技术演进与竞争格局 - 模型架构可能出现"小推理核心+大知识库"的分化设计,专业化场景采用参数更少的推理模块[26][29] - 苹果Siri、微信等现有入口产品在整合AI能力上具优势,但尚未出现原生AI超级应用[49][51] - 技术扩散速度加快导致先发优势窗口期缩短,企业需在效果优化与商业化节奏间寻找平衡[37][52]