大模型产业化
搜索文档
大模型产业化最好的时代,中国AI「杀死」了参数崇拜
36氪· 2026-02-10 21:58
全球AI产业趋势转变 - 2025年被视为大模型的“祛魅”之年,行业焦点从对AGI的狂热想象和“参数竞赛”转向“推理成本”和“实用性”等工业化难题[3] - 大模型加速从技术探索进入技术与需求双向赛跑的商业化深水区,OpenAI、Google等巨头纷纷转向推出针对企业级市场的高性价比推理模型[3] - 模型迭代周期因市场适应性被极速压缩,从数年压缩到每月甚至每周,为中国AI创造了“变道超车”的时机[3] 中国AI的差异化优势与战略 - 中国大模型在2025年出现分水岭,从参数为王转向产业为本,从技术跟随走向先验,算力封锁反而带来了架构创新上的实用主义、商业化上的全栈服务深入以及生态布局上的策略等韧性[4] - 中国AI通过“工程化红利”开启新的增长曲线,其特质在于将技术转化为先进生产力,而非焦虑Scaling Law是否见顶[20] - 在产业化深水区,大模型必须成为实用、好用、企业可负担的“超级配角”,主角是企业与人的经验积累[10] 产业化落地:智能驾驶与制造业案例 - 在智能驾驶领域,大模型成为驱动智驾进化的“超级底座”和“隐形”的云端大脑,阿里云支撑了中国100%车企的智能化落地[7][9] - 小鹏汽车基于阿里云建成国内汽车行业首个10 EFLOPS规模的AI算力集群,打造“云端模型工厂”,全链路迭代周期可达平均5天一次[9] - 小鹏第二代VLA基于1亿clips数据训练,相当于人类司机驾驶65000年遇到的极限场景总和[9] - 在制造业,三一重工基于千问大模型打造了50多个AI Agent,覆盖研发、生产、销售、服务全链路,将数十年的非标经验与行业know-how通过全参数微调“焊”进大模型[10] 大模型效率与生产力进化 - 国产大模型重新定义SOTA,关注单位算力下的效率和生产力,致力于解决“算力贵、推理慢、部署难”三大产业化难题[14] - 千问大模型在由真人用户随机出题的盲测平台Chatbot Arena中成绩跻身全球前三,并拿到代码、数学等5项能力第一[15] - 千问3通过混合推理架构与高稀疏度MoE技术,将800亿参数的智力压缩进每次仅需激活30亿参数的推理中,训练与推理成本降低了90%[16] - 万相Wan 2.2作为业界首个MoE视频生成模型,直接节省了50%的算力[16] - 千问2.5-1M将长文本推理速度提升近7倍,让处理百万字文档从“分钟级”变为“秒级”[17] - 千问3-4B和千问3-30B-A3B等模型让性能媲美GPT-4o的国产大模型可直接在手机等消费级硬件上流畅运行[17] - 生产力提升实例:海艺AI接入万相2.6后,用户内容创作效率提升6倍;智联招聘利用AI将人岗匹配率平均提升超70%[20] 开源生态与全球影响力 - 在全球巨头转向闭源的趋势下,阿里云坚持开源,千问大模型系列通过全球开发者的“众包迭代”,进化速度超越了实验室封闭模型[22][25] - 阿里云是全球唯一一家同时拥有全模态开源大模型和全栈AI服务的厂商,其“全栈+开源+可参考行业解决方案”模式降低了企业AI落地门槛[23][26] - “Qwen Architecture”正在成为全球AI行业事实上的通用标准,2025年出现“硅谷反向学习”现象,硅谷巨头和创业公司开始将中国开源模型作为创新起点[26] - Airbnb CEO坦言其核心客服Agent主要依赖千问系列模型;硅谷AI初创公司Nexusflow的旗舰模型Athene-V2基于Qwen-2.5-72B微调[27] - 在Hugging Face上,全球开源模型排行榜Top10中大部分是基于千问二次开发的衍生模型,千问扮演了“AI时代的安卓”角色[27]
大模型产业化最好的时代,中国AI「杀死」了参数崇拜
36氪· 2026-02-10 21:30
文章核心观点 - 2025年全球大模型产业进入以“推理成本”和“实用性”为核心的“祛魅”与工业化深水区,竞争焦点从技术探索转向技术与需求的双向赛跑[3] - 市场视角的转变为中国AI创造了“变道超车”的时机,中国大模型的发展路径从“参数为王”转向“产业为本”,展现出架构创新实用主义、商业化全栈服务深入和生态布局全球化责任等韧性[4] - 坚持长期主义道路,使得“中国方案”在AI工业化时代比以往任何时候都更有可能拔得头筹[2][5] 大模型产业化趋势与角色转变 - 大模型在产品形态上呈现“隐形”趋势,从台前走向幕后,成为驱动产业智能化的“超级底座”或“超级配角”[6][7][8] - 在智能驾驶领域,大模型成为驱动智驾进化的“超级底座”,例如小鹏汽车基于阿里云算力支持,建成国内汽车行业首个10 EFLOPS规模的AI算力集群,实现从云到端全链路迭代周期平均5天一次[10] - 在制造业,大模型深入生产线,例如三一重工基于千问大模型打造50多个AI Agent覆盖全链路,通过全参数微调将数十年非标经验内化为可复制的数字资产[11] - 产业化反向定义技术,大模型必须成为实用、好用、企业可负担的“配角”,解决工厂流水线延迟、金融风控零容忍、智能硬件端侧功耗等具体场景问题[12] 中国大模型的效率进化与生产力提升 - 国产大模型重新定义SOTA标准,从追求榜单高分转向关注单位算力下的效率和生产力,核心是让每一块钱投入换回实际效率提升[16] - 在“卷效率”道路上实现降维打击,重点解决“算力贵、推理慢、部署难”三大产业化难题[18] - 千问大模型通过架构创新提升效率,例如千问3采用混合推理架构与高稀疏度MoE技术,将800亿参数智力压缩进每次仅激活30亿参数的推理中,训练与推理成本降低90%[18] - 在多模态可控性方面取得工业化突破,万相Wan 2.2作为业界首个MoE视频生成模型节省50%算力,万相Wan 2.6成为国内首个支持角色扮演功能的视频模型[19] - 算力效率进化打破云与端界限,千问3-4B和千问3-30B-A3B等模型让性能媲美GPT-4o的大模型可在手机等消费级硬件上流畅运行[19] - 在长文本处理上实现速度飞跃,千问2.5-1M将推理速度提升近7倍,使处理百万字级别文档从“分钟级”变为“秒级”[20] - 效率进化直接转化为生产力质变,例如海艺AI接入万相2.6后用户内容创作效率提升6倍,智联招聘利用AI将人岗匹配率平均提升超70%[23] 开源生态与中国AI的全球竞争力 - 生态决定AI企业能走多远,在全球巨头转向闭源趋势下,阿里云坚持开源大模型系列,将其作为有效的生态竞争策略[25][26] - 阿里云是全球唯一同时拥有全模态开源大模型和全栈AI服务的厂商,“左手模型、右手基建”的生态位使其在算力调度与应用开发底层逻辑中具备独特竞争力[26] - 开源策略带来“众包迭代”,千问大模型系列被全球开发者在极端场景下测试与魔改,其进化速度超越了实验室封闭模型,甚至反向推动了架构与产业化突破[28] - 开源生态降低门槛并共享标准,“全栈+开源+可参考行业解决方案”模式帮助中小企业迅速将基模能力转化为生产力,并对技术黑箱与不合理溢价形成打击[28] - “Qwen Architecture”正在成为全球AI行业事实上的通用标准,出现“硅谷反向学习”现象,硅谷巨头和创业公司开始将中国开源模型作为创新起点[28] - 具体案例包括Airbnb核心客服Agent主要依赖千问系列模型,硅谷AI初创Nexusflow旗舰模型Athene-V2基于Qwen-2.5-72B微调[29] - 在开发者社区Hugging Face上,全球开源模型排行榜Top10中大部分是基于千问二次开发的衍生模型,千问已扮演“AI时代的安卓”角色[29]
清华实验室跑出一个超级IPO
新浪财经· 2025-12-22 17:49
公司上市进展 - 智谱AI已通过港交所上市聆讯并正式递交招股书,打响了“大模型第一股”之争 [4][20] - 几乎同一时间,另一家大模型公司MiniMax也顺利通过港交所上市聆讯并公示招股书 [13][29] - 国产大模型公司正迎来一波赴港上市潮,旨在抢夺“大模型第一股”的称号 [13][30] 公司背景与技术 - 智谱AI成立于2019年,由清华背景的团队创立,CEO张鹏和董事长刘德兵均为清华校友 [4][5][20][21] - 公司致力于通用人工智能(AGI)创新,于2021年发布中国首个专有预训练大模型框架GLM框架 [7][23] - 公司构建了覆盖语言、代码、多模态及智能体的全栈模型矩阵,模型适配了40余款国产芯片 [7][23] - 截至2025年6月底,公司共开源了50多个模型,开源大模型累计下载量已超4500万次 [7][23] 财务表现与业务模式 - 公司收入来自通过模型即服务(MaaS)平台向B端客户提供大模型相关服务 [7][23] - 2022年、2023年、2024年收入分别为5740万元、1.245亿元、3.124亿元,年复合增长率达到130% [7][23] - 2025年上半年收入为1.909亿元 [7][23] - 尽管收入持续增长,但公司持续亏损,2022年、2023年、2024年及2025年上半年净亏损额分别为1.44亿元、7.88亿元、29.58亿元及23.58亿元 [8][24] - 亏损主要源于高额研发投入,2022年至2024年研发投入分别为8440万元、5.29亿元、21.95亿元,2025年上半年为15.95亿元,累计研发投入约44亿元 [9][25] 融资历程与估值 - 智谱AI已完成8轮融资,机构股东超50家,融资规模超83亿元 [10][26] - 最后一轮(B6轮)投后估值约为243.77亿元 [10][26] - 投资方阵容庞大,包括美团、蚂蚁、阿里、腾讯、小米、红杉中国、高瓴、君联资本、启明创投等众多知名机构及国资基金 [9][10][25][26] - 竞争对手MiniMax最新一笔公开融资发生于2025年7月,完成近3亿美元C轮融资,投后估值突破40亿美元(约合人民币300亿元) [13][29] 行业竞争与上市意义 - 上市被视作“上岸”,能让背后的投资人率先收获中国大模型的IPO红利 [4][11][20][27] - 行业步入“中场战事”,商业化与资本化成为焦点,卡位IPO尤为重要 [14][30] - 相较于A股,港股对尚未盈利但具备高成长性的科技企业展现出更强包容性 [13][30] - 随着IPO推进,行业可能进入“两极分化”阶段,头部企业通过上市融资强化技术壁垒 [14][30] - 月之暗面据称也设定了在明年启动IPO的目标,显示行业上市竞赛激烈 [15][31]
让AI听懂行业,火山引擎如何拆掉大模型落地的「墙」?
36氪· 2025-06-10 21:34
大模型产业化趋势 - 2025年大模型在产业端加速渗透,正以前所未有的深度与广度融入金融、汽车、科技等核心业务领域[3][6] - 大模型应用从早期探索迈向规模化落地,2024年中国公有云大模型调用量达114.2万亿tokens,火山引擎以46.4%市场份额居首[5] - 企业从被动创新转向主动寻找落地点,基于明确业务痛点开发解决方案,云厂商角色扩展至业务陪伴与咨询[7] 行业落地案例 - **金融领域**:国信证券基于豆包大模型打造股市助手智能体,处理超百万份研报、十亿条财经短视频数据,覆盖70%系统重要性银行[13][15] - **汽车行业**:覆盖80%主流车企,上汽大众实现跨端交互,奔驰CLA车型接入情感识别功能,宝马聚焦智能营销缩短决策链路[16][17][19][20] - **教育科研**:南开大学共建AI+教育标杆,浙江大学打造全学科科研平台,同济大学开发校园智能助手覆盖多系统互通[21][22][24] - **智能终端**:联想通过Jeddak AICC平台实现全链路加密,推理效率无损且延迟接近明文模式[25][26] - **消费零售**:瑞幸利用意图识别引擎预测点单需求,高峰时段算力资源保障流畅体验[27] 云厂商核心能力 - 火山引擎提供多云多模型基础服务、Agent开发平台及全栈工具链,解决落地最后一公里问题[10] - 豆包大模型日均调用量12.7万亿tokens,千tokens输入成本降至0.0008元,推理成本进入厘时代[36][38] - AI云原生服务整合全栈推理加速与分布式优化,企业API调用延迟可控制在20ms以内[39] 未来发展方向 - 多模态模型与Agentic AI将爆发,中国B端AI Agent市场规模2025年预计达1718亿元[40][41] - 技术挑战聚焦能力与安全平衡、成本压力及系统集成难度,需持续优化算力调度与工程化能力[33][34][35] - 大模型未来3-5年或成企业基础设施,云厂商需降低技术门槛推动产业自由生长[42]
“智改数转”再提速,百度智能云发布千帆慧金金融大模型
环球网· 2025-06-06 16:09
央企合作与行业覆盖 - 目前已有65%的央企选择与百度智能云开展深度合作,共同探索AI创新 [1] - 百度智能云正式发布千帆慧金金融大模型,并推出覆盖能源、交通、汽车、医疗、环境等领域的精选行业场景智能体家族 [1] - 百度智能云依托千帆大模型平台,面向企业用户推出覆盖金融、电力、交通、环保、医疗等多个行业的"场景智能体"解决方案 [1] 金融大模型技术突破 - 千帆慧金金融大模型在充分吸收海量金融语料基础上,通过构建金融专用数据生成体系,优化推理与知识增强算法,形成兼具知识广度与逻辑深度的模型能力 [2] - 已推出千帆慧金金融知识增强大模型和千帆慧金金融推理增强大模型,提供8B和70B两个版本,支持最长32K上下文输入 [2] - 百亿级参数版本在多个任务中已超越通用千亿级模型 [2] - 该模型能更精准识别业务流程关键要素,完整列出贷款资料清单、梳理操作步骤、强化风险提示,提升金融机构服务水平与风控能力 [2] 基础设施投入与成果 - 昆仑芯P800已实现大规模商用 [2] - 今年成功点亮昆仑芯三代万卡及三万卡集群,并与国家电网、招商银行、长安汽车等单位联合开展算力合作 [2] - 百度百舸平台实现对多种国产芯片的高效调度与兼容,在3万卡大集群中实现训练时长利用率超过95% [3] 发展战略与愿景 - 大模型赋能产业是一场长期接力,公司将坚定投入打造更先进、高效的人工智能基础设施 [4] - 目标服务更多中国企业,加快推动大模型产业化发展,释放更多场景价值 [4]