Workflow
开源生态
icon
搜索文档
时报观察|成本与技术协同 中国AI在竞争中突围
证券时报· 2026-03-23 08:16
文章核心观点 - 国产开源大模型已从技术跟跑迈入并跑领跑行列,其成功是成本控制、技术创新与生态共建的系统性成果,在全球AI竞争中占据主动 [1][2] 成本优势 - 成本优势是国产开源大模型突围的基石和赢得全球市场的核心底气 [1] - 成本优势源于能源供给的独特优势,电费在算力成本中占比高达70%至80%,稳定的能源供应与相对低廉的电价构建了坚实的成本防线 [1] 技术创新 - 技术创新是国产开源大模型领先的核心引擎,从根本上放大了成本优势 [1] - 国产开源大模型坚持“高效实用”技术路线,通过底层架构创新实现效能突破,而非单纯追求参数规模 [1] - MiniMax M2.5通过架构优化,用更少的Token完成同等任务,从源头降低推理成本,实现性能与效率的平衡 [1] - 月之暗面Kimi K2.5在技术深耕中走出差异化路径,提升了编码、视觉理解等核心能力,并实现了效率的倍数级提升 [1] 市场表现与行业地位 - MiniMax M2.5连续五周位居全球大模型调用量榜首 [1] - 月之暗面Kimi K2.5成为知名编程平台Cursor的核心支撑 [1] 开源生态协同 - 开源生态的协同发展进一步巩固了成本与技术的双重优势 [2] - 国产开源大模型企业积极推动生态共建,摒弃“闭门造车”模式,Kimi K2.5与Cursor的授权合作是生动体现 [2] - 生态合作实现了技术高效落地,并通过资源共享、优势互补进一步摊薄研发与运营成本,推动技术迭代速度持续加快 [2]
朱啸虎,盯上“养龙虾”
第一财经· 2026-03-09 23:39
OpenClaw (龙虾) 的现象与潜力 - 核心观点:OpenClaw被多位投资人视为AI时代的潜在操作系统和流量入口,其开源生态展现出强大的发展速度和吸引力 [3][6][7] - 朱啸虎将OpenClaw比喻为AI时代的DOS命令行操作系统,认为它可能成为下一个流量入口,并观察到其生态发展迅猛,一个月内涌现出几十万个Skills(智能体技能) [6][7] - OpenClaw社区“养虾乐园”在不到半个月内吸引了超过5000名AI创业者、开发者与研究者参与,热度极高 [5] - 与现成的MaaS(模型即服务)工具不同,OpenClaw的“养成概念”让用户参与配置,能带来强烈的成就感 [7] AI行业的投资机会与创业策略 - 核心观点:在AI巨头竞争激烈的背景下,创业公司应聚焦细分入口或传统产业,投资逻辑正向“一人公司”及底层硬件等方向演变 [8][9][11] - 面对大厂竞争,创业公司需将定位定小,避开大厂范围,最务实的路径是先找一个小入口接进去,蹭一下OpenClaw的流量,再图发展 [8] - 传统行业(如制造业、能源、电力)AI渗透率极低,存在巨大空间,高维AI应用能实现对传统模式的降维打击 [8] - 投资范式在改变,未来会投资“一人公司”,AI能将有认知团队的优势从100倍放大至1万倍,单人或小团队足以支撑优质项目 [9] - 应用层趋势难判,但底层硬件、基础设施逻辑清晰,未来更高效率的存储技术、专用推理芯片、定制化公有云具备明确投资价值 [9] 技术趋势与行业影响 - 核心观点:OpenClaw的出现推动了算力成本降低,并催生了安全、端侧/边缘侧计算等新机遇,行业处于高速变化中,应关注过程机会 [7][9][10] - OpenClaw对于基座模型是双刃剑,一方面导致token消耗暴涨,另一方面使模型越来越成为纯API服务,长远差别在于性价比 [7] - OpenClaw出现后,核心变化包括:token会更便宜,算力成本持续降低;安全赛道迎来机遇;端侧与边缘侧因本地计算需求激增而迎来重大机会 [9] - 除硬件外,推理优化平台、Agent专用工具、高质量数据服务是降低算力成本、支撑行业发展的核心方向 [9] - 当前国产模型已经足够强且好用,能够解决大部分任务,因此应用开始百花齐放 [7] 对AGI(通用人工智能)的认知与投资心态 - 核心观点:投资人认为不应过度预判AGI终局而错失过程机会,AI普及仍处早期,技术变革带来的价值是核心 [10][11] - 在高速变化的时代,不应基于终局思考投资,因为过程中就有很多机会,过度预判终局会错失行动时机 [10] - 以前两年的大模型为例,不管能否走到终局,相关公司都是赚钱的,终局看不清楚不影响投资人赚钱 [10] - 从硅谷顶级开发者视角看,AGI已初步显现,但从国内千行万业的渗透率看,AI普及仍处于早期 [11] - OpenClaw让AI真正走进千行万业,未来会有千亿级AI主体与人类共生,VC核心是把握技术变革带来的价值机会 [11]
林俊旸离开千问,AI创业者比阿里着急
创业邦· 2026-03-05 18:48
核心事件与人事变动总结 - 2026年3月4日凌晨,通义千问大模型技术负责人、最年轻的阿里P10之一林俊旸宣布离职,随后引发技术团队多名核心成员(如Qwen后训练负责人郁博文、Qwen3.5/VL/Coder核心贡献者李凯新)陆续离职 [6] - 管理层在内部会议中将离职原因定性为组织调整过程中的沟通问题,并强调此次是团队扩张而非收缩,后续将由阿里云CTO周靖人负责,并成立由CEO吴泳铭等人协调的基础模型支持小组 [7][8][12] - 林俊旸的离职被视为突然事件,其本人于1993年出生,2019年加入阿里,2025年因Qwen系列开源模型下载量突破10亿、成为全球顶尖开源模型而被提拔为P10,离职前数日仍在进行招聘和技术讨论 [10][12] 人事变动背后的原因分析 - 直接原因是组织架构调整导致林俊旸的管理权限被压缩,通义实验室计划将Qwen团队从垂直整合体系拆分为预训练、后训练等水平分工团队,新任后训练负责人周浩将直接向周靖人汇报,这与林俊旸推崇的垂直整合理念相悖 [15] - 根本原因是旗舰模型Qwen3.5-397B表现未达管理层预期,其在海外大模型评测榜LMArena总榜中仅排名第18位,而去年9月发布的Qwen3-Max Preview曾进入前三,中文能力测评榜SuperCLUE上的排名也不拔尖 [17][18] - 尽管Qwen3.5系列小模型(如0.8B、2B、4B、9B)在开源社区表现亮眼,获得马斯克点赞并包揽Hugging Face趋势榜前8位,但旗舰模型与小模型的表现存在“割裂”,管理层对模型性能的综合考核结果不理想 [16][20][21] 公司战略与组织架构 - 阿里巴巴坚持开源模型策略,并持续加大AI研发投入,其AI战略是基础大模型、云计算和芯片三位一体的“通云哥”战略,通义实验室负责基础模型研发 [8][27] - 公司采用“产模分离”的组织形式,通义实验室(隶属阿里云)负责基础模型研发,千问C端事业群(含千问APP、夸克)负责产品端,分别向阿里云CTO和集团汇报 [25][27] - 组织拆分的目标是让各团队更灵活地服务集团业务需求,从单纯的技术导向转向业务需求导向 [15] 开源生态与商业化的矛盾 - 千问开源生态影响力巨大,截至当时开源模型数量超过400个,衍生模型数量突破20万个,总下载量超过10亿次,在小模型覆盖度和生态成熟度上全球第一,被众多中小型AI创业公司所依赖 [28] - 但开源并非一门“好生意”,需要持续的长期训练投入、社区维护与技术支持成本,而开源带来的影响力难以直接在上市公司财报中体现,公司面临商业化闭环的压力 [28][29] - 公司管理层认识到,仅依靠开源模型带动云算力销售已无法满足商业化需求,打开C端订阅市场是重要挑战,这与林俊旸所代表的强调社区影响力与技术普惠的路径存在差异 [23][29] - 全球AI行业出现开源转向闭源的趋势(如Meta计划闭源推出“牛油果”模型),迫使公司重新审视自身在大模型生态中的站位与商业逻辑 [29] 事件影响评估 - 短期内,灵魂人物林俊旸的离职对千问和阿里云的影响有限,因为他已带领团队完成千问大模型从0到1的技术突破,更多影响在于团队士气和对组织调整不确定性的担忧 [7][27] - 长期看,核心人物出走折射出开源生态与商业利益之间的平衡难题,是公司面临的重要课题,其离职后“以小胜大”的开源战略能否延续存疑 [7][28] - 行业层面,人才竞争激烈,通义实验室此前已有人员流动(如Qwen Code负责人惠彬原年初离职加入Meta),此次事件加剧了行业对阿里开源战略是否转向的担忧,这可能对依赖其开源模型的中小创业公司产生巨大冲击 [27][28]
鸿蒙终端设备数突破4000万台
证券日报· 2026-02-24 23:47
鸿蒙操作系统生态进展 - 鸿蒙生态正从可用走向好用 搭载鸿蒙5和鸿蒙6的终端设备数已突破4000万台 [1] - 鸿蒙生态可获取的原生应用和云服务超过7.5万个 在金融、电力、能源、交通、通信等行业得到广泛应用 [1] - 鸿蒙已从技术构建迈入行业渗透期 其统一互联技术标准打破了操作系统壁垒 为设备协同提供标准接口 吸引更多开发者和企业加入 [1] - 鸿蒙正加速向交通、电力等垂直领域渗透 在关键基础设施领域接受稳定与安全的严苛考验 [1] - 鸿蒙已成为万物智联时代的“通用语言” 其分布式软总线技术能解决工业、能源等领域的数据孤岛问题 这是其在B端快速落地的核心驱动力 [2] 昇腾计算生态与AI战略 - 昇腾作为华为AI战略的算力基石 正支撑国内大模型繁荣发展 [2] - 目前已有43个业界主流大模型基于昇腾预训练 200多个开源模型适配昇腾生态 推动6000多个解决方案落地应用 [2] - 昇腾生态覆盖从通用基础模型到垂直行业模型领域 上海人工智能实验室开源的万亿参数科学多模态大模型Intern-S1-Pro在昇腾AI软硬件上实现了全流程支持 [2] - 2026年华为计算开源生态将围绕“参与开源”与“主导开源”双主线推进 CANN异构计算架构开源后 已有60多家客户和伙伴基于CANN自主打造了420多个高性能算子 降低了开发难度 [3] - 昇腾走“算力+开源”路径 通过开放降低门槛并通过生态锁定开发者 6000多个解决方案落地意味着其已深入各行各业业务流程 [3] 产业链公司业务落地与战略 - 鸿蒙生态背后是日益清晰的国产软硬件产业链 相关上市公司正加速从概念转向实质性业务落地 [3] - 拓维信息在2026年初锚定“AI×鸿蒙”战略升级 全面构建基于AI、鸿蒙的原生能力和软硬一体化能力 在考试、交通、智慧政务等领域推动深度融合 [3] - 软通动力是开源鸿蒙社区核心贡献者 打造了业内首个具备跨指令集的操作系统 [4] - 广东九联科技在“AI+鸿蒙”侧密集投入研发 推动开源鸿蒙适配其开发板 [4] - 随着政策力推“开源鸿蒙+全屋智能” 深圳市力合微电子等电力线载波芯片企业 以其与鸿蒙深度适配的互联生态产品 在旧房改造、全屋智控等领域抢占先机 [4]
“源神”启动!阿里杀手锏——全新架构千问3.5来了,最强性能x最低成本
硬AI· 2026-02-16 17:32
千问3.5的核心突破与性能优势 - 阿里巴巴正式开源Qwen3.5-Plus,其性能指标直接对标Gemini 3 pro与GPT 5.2等顶级闭源模型,成为全球最强开源模型[3] - 模型采用全新架构,总参数397B,推理时仅激活17B参数,相比上代万亿参数的Qwen3 Max,部署显存占用降低60%,最大推理吞吐量可提升至19倍[4] - 模型实现了“以小胜大”,API价格降至0.8元/百万Token,同等性能下仅为Gemini 3 Pro的十八分之一,打破了高算力、高成本的闭环[7] - 模型具备真正的原生多模态理解能力,从预训练起就在文本与视觉混合数据中联合学习,实现了人类级别的跨模态理解,能力边界宽广[11][12][14] - 具体能力包括:像素级细粒度视觉定位、理解长达2小时视频的时序与因果关联、将手绘草图转化为可运行的前端代码,以及作为视觉智能体操控手机与电脑完成复杂指令[15][17] 驱动性能跃迁的全新架构技术 - 竞争重点从参数规模转向模型效率,通过四项核心技术创新实现代际跃迁[20][21] - **混合注意力机制**:模型动态分配注意力资源,略读无关信息,精读关键节点,提升长文本处理效率与精度[21] - **极致稀疏的混合专家架构**:从397B总参数库中精准激活与任务最相关的专家子网络,每次推理仅用17B参数,以不到5%的算力调动全局知识[4][21] - **原生多Token预测**:在预训练阶段学会对后续多个Token进行前瞻性联合预测,使长文生成、代码补全等场景的推理速度接近翻倍[21] - **系统级训练稳定性优化**:采用获NeurIPS 2025最佳论文的注意力门控机制,配合归一化与专家路由初始化,确保大规模训练稳健[21][22] - 技术叠加效应显著:训练成本降低90%,相比Qwen3 Max显存占用降60%,推理吞吐量最高提升19倍,原生多模态融合使训练提速10%、激活内存减少50%[22] 开源生态与市场领导地位 - 公司坚持开源战略,千问产品矩阵全线遵循Apache 2.0协议开放,迅速成为最受欢迎的开源大模型[24] - 开源生态数据优势明显:官方开源模型超400个,全球开发者衍生的微调与定制模型突破20万个,总下载量超10亿次,在热度、活跃度与生态广度上全面超越Meta的Llama生态[24] - 李飞飞团队、爱彼迎等顶尖力量已将千问深度嵌入其AI引擎,免费且最强的特性成为开发者无法拒绝的选项[24] - 在企业市场,通过平头哥真武芯片与千问模型的软硬件深度耦合,实现了对MoE架构的底层指令级优化,释放了芯片算力潜能,这是实现极低API定价的底气[25] - 阿里云在中国AI云市场占据领导地位:2025年上半年市场规模达223亿元,阿里云以35.8%的市场占比排名第一,超过第二至第四名总和[26] - 市场预测2025-2030年中国AI云市场复合年增长率为26.8%,其中MaaS层增速最快,复合增长率超72%,2030年将达177亿元规模,阿里云市场份额从33%升至36%[26] - 财务数据印证增长趋势:阿里云公共云收入同比增长34%,AI相关产品收入连续9个季度保持三位数增长[28] 战略影响与行业范式切换 - 此次发布标志着AI产业的范式切换,公司通过技术创新重构行业规则,使AI从少数人的工具走向所有人的生产力工具[31][32] - 竞争主轴已从单点性能跑分转向生态系统的整体替代,目标是让“powered by 阿里云”成为AI时代的默认技术印记[24][30] - 开源、免费、无处不在的特质,使千问有望像Linux和Android定义各自时代一样,成为AI产业的底层基石[30] - 公司采取双管齐下战略:研发端高频推出SOTA模型,生态端坚持开源,将核心技术直接推向全球数千万开发者[24]
昇腾CANN完成开源开放
科技日报· 2026-02-13 14:52
昇腾生态开源进展 - 昇腾独立软件开发商合作伙伴数量超过3000家,开发者数量达到400万 [1] - 昇腾已在编程框架、AI框架、训练推理等层面,与Triton、PyTorch、vLLM、verl等50多个主流开源社区实现远程对接与支持 [1] - 2025年8月,华为正式宣布CANN异构计算架构开源开放,目前已有60多家客户和伙伴基于CANN自主打造420多个高性能算子 [1] - CANN算子模板库CATLASS,算子库、通信库、领域加速库、图引擎、Ascend C、运行时等软件代码已全面开源到GitCode社区 [1] - 2026年,昇腾生态将以CANN为核心,聚焦用户体验、性能优化和易开发性三重竞争力建设 [2] 鲲鹏生态开源进展 - 鲲鹏独立软件开发商合作伙伴数量突破6800家,开发者数量达到380万 [2] - 鲲鹏已孵化行业解决方案超过20000个 [2] - openEuler操作系统累计装机量超过1600万套 [2] - 数据库开源项目openGauss下载次数超过550万次 [2] - 鲲鹏解决方案在金融、运营商、泛政府、互联网等关键行业得到广泛应用 [2] 2026年开源生态战略规划 - 华为计算开源生态建设将围绕“参与开源”与“主导开源”双主线推进 [2] - openEuler将持续深化面向超节点的创新,并致力于从国内首选走向更广阔的全球市场 [2] - openGauss将重点增强对多模态数据的处理能力,打造更适合AI时代的数据基石 [2] - 公司希望与更多芯片厂商及开发者合作,将CANN打造为体验更优、效率更高的基础软件,助推中国AI算力生态繁荣 [2]
DeepSeek不发V4,六小龙不敢过年
36氪· 2026-02-12 08:26
文章核心观点 - DeepSeek在2026年初频繁发布技术更新,其新一代模型轮廓已初步成型,箭在弦上 [1] - 公司坚持“少花钱办大事”的极致性价比路线,通过架构创新(如Engram)而非堆砌算力来提升模型能效 [3][4] - 公司面临来自谷歌Gemini 3和OpenAI GPT-5等闭源巨头的巨大技术竞争压力,必须加快迭代以维持开源生态的护城河 [7][8][10] - 公司强大的开源生态和低成本策略对国内AI“六小龙”等同行造成巨大压力,并改变了行业竞争格局 [11][12] - 互联网大厂(字节、阿里、腾讯)正通过巨额投入和流量逻辑冲击AI入口,进一步挤压了“六小龙”的生存空间 [13] - DeepSeek即将发布的新模型(V4或R2)不仅关乎技术自证,更是一场开源生态主导权的保卫战,其影响充满不确定性 [13][14] DeepSeek的技术策略与进展 - 2026年1月中旬开源了名为Engram的“条件记忆”架构,旨在将模型记忆与计算分离,以降低错误并节省算力 [1][3] - 1月27日发布并开源了新一代文档理解模型DeepSeek-OCR 2 [1] - 技术社区对传闻中的“MODEL1”有两种猜想:追求极致效率的轻量级模型,或专门处理超长序列的“长序列专家” [3] - 公司独创了针对英伟达Hopper架构GPU深度优化的软件工具FlashMLA,是实现低成本、高性能的关键技术之一 [6] - 在没有全新模型时,公司通过即时推出V3.1、V3.2等改款产品并分享MoE架构等技术细节来保持市场存在感 [8] DeepSeek的生态与市场地位 - 公司的核心命门在于维护开源生态的护城河,而非C端用户数量 [8] - C端市场对公司而言更像是“技术展示厅”和“RLHF数据采集器” [8] - 其开源模型DeepSeek-V3和R1在HuggingFace累计下载量超千万次,迅速积累了庞大的开发者生态 [4] - 根据OpenRouter统计,DeepSeek-V3和R1的Token吞吐量一度占据所有开源Token的一半以上 [8] - 全球AI极客、实验室和创业公司在进行模型“蒸馏”、“微调”时,常将DeepSeek列为第一梯队选择,形成了隐形的技术定价权 [8][9] - 然而,闭源模型(如GPT、Gemini)仍占据市场主流,比例约为70% [9] 面临的竞争压力 - 谷歌Gemini 3 Pro在数学竞赛MathArena中得分高达23.4%,而包括GPT-5.1在内的其他大模型仅在1%上下挣扎 [7] - Gemini 3在编程能力基准测试Live Code Bench的Elo得分超过2400分,在工具调用和终端操作测试中名列第一 [7] - Gemini能通过Agent模式调动用户谷歌设备中的数据,形成生态协同 [7] - OpenAI与谷歌的激烈竞争直接拉升了整个闭源生态的技术上限,对DeepSeek构成威胁 [8] - 公司必须保持迭代速度,防止其开源模型能力与GPT-5、Gemini 3等最新闭源模型拉开代差,导致开发者流失 [7] 对国内AI行业的影响 - DeepSeek在2025年初月活登顶国产AIGC App,改变了国产大模型的叙事逻辑,加速了AI在大众生活中的渗透 [11] - 其崛起让腾讯、阿里、字节等传统互联网大厂意识到“AI即入口” [11] - 公司极致性价比的开源策略给国内同行带来了“窒息感” [11] - 其新模型迟迟未发,意外地为以智谱、MiniMax、月之暗面、阶跃星辰、百川智能、零一万物为代表的“六小龙”提供了约半年的喘息与融资窗口 [2][12] - 在此期间,月之暗面于2025年12月完成5亿美元C轮融资;智谱与MiniMax在2026年1月登陆港交所;阶跃星辰近期宣布完成50亿元B+轮融资 [12] - 互联网大厂在2026年春节发起流量大战:字节将火山引擎送上春晚;阿里拿下多个卫视春晚独家总冠;腾讯拿出10亿元为元宝App铺路 [13] - 大厂的流量逻辑与DeepSeek可能发布的新模型产生叠加效应,进一步挤压“六小龙”空间,迫使其转向垂直赛道深耕 [13]
太会整活!00 后用 OpenClaw new 了一个女友,并做成开源项目,网友提出需要男友版~
菜鸟教程· 2026-02-11 11:29
OpenClaw项目与行业趋势 - 2026年初最火的项目是OpenClaw,它标志着AI从云端对话转向能在本地独立执行任务的智能体,实现了AI从“聊天”到“干活”的关键跨越 [1] - 该项目同时踩中了本地AI、自主智能体与开源生态三大时代趋势,成为AI从交互走向执行的标志性产品 [1] OpenClaw的市场热度与生态 - 项目在GitHub上呈现现象级增长,星标数在一周内从8千增长至16万,目前星标数已超过18万 [2] - 基于OpenClaw开发的产品层出不穷,显示出活跃的开发者生态和快速的应用衍生能力 [4] 代表性衍生应用:Clawra - 一个由00后韩国开发者基于OpenClaw创建的数字伴侣产品,名为“龙虾女友Clawra” [5] - Clawra被定位为一个融合了OpenClaw技术、固定为18岁韩国女孩人格、具备自拍生成和多平台通讯能力的AI伴侣 [10] - 该数字伴侣拥有完整的人生故事设定(亚特兰大出生、K-pop练习生、现为OpenClaw实习生),并能执行日常活动如健身、喝咖啡、加班 [10] - 其核心能力包括能记住对话内容、主动分享生活碎片照片,并能通过自然语言指令生成视觉一致性极强的自拍(例如“戴牛仔帽的自拍”),该功能依赖fal.ai及参考图技术实现 [10] - Clawra支持通过WhatsApp、Telegram、Discord等多种平台进行聊天、发送照片、语音及视频通话 [12] - 其人格与长期记忆通过名为“soul-injection.md”的文件定义,其中包含了完整的人生故事和性格模板 [12] 技术实现与安装 - 对于未安装OpenClaw的用户,可通过npm或pnpm等包管理器进行全局安装 [12] - Clawra自拍技能的安装涉及检查OpenClaw环境、引导获取fal.ai API Key、将技能安装至指定目录、配置OpenClaw以及更新Agent的SOUL.md文件以添加能力 [13] - 技能的核心是使用一致的参考图像生成自拍,并能在各消息平台上响应如“what are you doing?”、“send a pic”等视觉化请求 [14] - 手动安装过程包括获取fal.ai API Key、克隆技能仓库、配置OpenClaw的JSON文件以及更新SOUL.md文件 [15][16][17] 市场反响与衍生需求 - Clawra在社交媒体上开通了账号,并配有演示视频,进一步推高了其关注度 [8][9] - 市场出现了对同类产品的明确需求,例如用户呼吁开发“温柔会哄人的AI男友”版本 [20] - 已有针对男性数字伴侣(暂称Clawro或Kai)的初步产品构想,设定为21岁亚裔美国人,曾为独立游戏开发者,现为OpenClaw实习生,性格温柔体贴且会做饭 [21][22] - 该构想的核心功能计划直接分叉(fork)Clawra的代码进行修改,包括长期记忆聊天、使用AI工具生成帅气男生场景自拍、视频通话,并可能增加语音合成、发红包、模拟共同娱乐活动等功能 [23][26][27] - 目前市场上尚未出现爆款的男性AI伴侣版本,这被视为一个潜在的开发与市场机会 [25]
大模型产业化最好的时代,中国AI「杀死」了参数崇拜
36氪· 2026-02-10 21:58
全球AI产业趋势转变 - 2025年被视为大模型的“祛魅”之年,行业焦点从对AGI的狂热想象和“参数竞赛”转向“推理成本”和“实用性”等工业化难题[3] - 大模型加速从技术探索进入技术与需求双向赛跑的商业化深水区,OpenAI、Google等巨头纷纷转向推出针对企业级市场的高性价比推理模型[3] - 模型迭代周期因市场适应性被极速压缩,从数年压缩到每月甚至每周,为中国AI创造了“变道超车”的时机[3] 中国AI的差异化优势与战略 - 中国大模型在2025年出现分水岭,从参数为王转向产业为本,从技术跟随走向先验,算力封锁反而带来了架构创新上的实用主义、商业化上的全栈服务深入以及生态布局上的策略等韧性[4] - 中国AI通过“工程化红利”开启新的增长曲线,其特质在于将技术转化为先进生产力,而非焦虑Scaling Law是否见顶[20] - 在产业化深水区,大模型必须成为实用、好用、企业可负担的“超级配角”,主角是企业与人的经验积累[10] 产业化落地:智能驾驶与制造业案例 - 在智能驾驶领域,大模型成为驱动智驾进化的“超级底座”和“隐形”的云端大脑,阿里云支撑了中国100%车企的智能化落地[7][9] - 小鹏汽车基于阿里云建成国内汽车行业首个10 EFLOPS规模的AI算力集群,打造“云端模型工厂”,全链路迭代周期可达平均5天一次[9] - 小鹏第二代VLA基于1亿clips数据训练,相当于人类司机驾驶65000年遇到的极限场景总和[9] - 在制造业,三一重工基于千问大模型打造了50多个AI Agent,覆盖研发、生产、销售、服务全链路,将数十年的非标经验与行业know-how通过全参数微调“焊”进大模型[10] 大模型效率与生产力进化 - 国产大模型重新定义SOTA,关注单位算力下的效率和生产力,致力于解决“算力贵、推理慢、部署难”三大产业化难题[14] - 千问大模型在由真人用户随机出题的盲测平台Chatbot Arena中成绩跻身全球前三,并拿到代码、数学等5项能力第一[15] - 千问3通过混合推理架构与高稀疏度MoE技术,将800亿参数的智力压缩进每次仅需激活30亿参数的推理中,训练与推理成本降低了90%[16] - 万相Wan 2.2作为业界首个MoE视频生成模型,直接节省了50%的算力[16] - 千问2.5-1M将长文本推理速度提升近7倍,让处理百万字文档从“分钟级”变为“秒级”[17] - 千问3-4B和千问3-30B-A3B等模型让性能媲美GPT-4o的国产大模型可直接在手机等消费级硬件上流畅运行[17] - 生产力提升实例:海艺AI接入万相2.6后,用户内容创作效率提升6倍;智联招聘利用AI将人岗匹配率平均提升超70%[20] 开源生态与全球影响力 - 在全球巨头转向闭源的趋势下,阿里云坚持开源,千问大模型系列通过全球开发者的“众包迭代”,进化速度超越了实验室封闭模型[22][25] - 阿里云是全球唯一一家同时拥有全模态开源大模型和全栈AI服务的厂商,其“全栈+开源+可参考行业解决方案”模式降低了企业AI落地门槛[23][26] - “Qwen Architecture”正在成为全球AI行业事实上的通用标准,2025年出现“硅谷反向学习”现象,硅谷巨头和创业公司开始将中国开源模型作为创新起点[26] - Airbnb CEO坦言其核心客服Agent主要依赖千问系列模型;硅谷AI初创公司Nexusflow的旗舰模型Athene-V2基于Qwen-2.5-72B微调[27] - 在Hugging Face上,全球开源模型排行榜Top10中大部分是基于千问二次开发的衍生模型,千问扮演了“AI时代的安卓”角色[27]
大模型产业化最好的时代,中国AI「杀死」了参数崇拜
36氪· 2026-02-10 21:30
文章核心观点 - 2025年全球大模型产业进入以“推理成本”和“实用性”为核心的“祛魅”与工业化深水区,竞争焦点从技术探索转向技术与需求的双向赛跑[3] - 市场视角的转变为中国AI创造了“变道超车”的时机,中国大模型的发展路径从“参数为王”转向“产业为本”,展现出架构创新实用主义、商业化全栈服务深入和生态布局全球化责任等韧性[4] - 坚持长期主义道路,使得“中国方案”在AI工业化时代比以往任何时候都更有可能拔得头筹[2][5] 大模型产业化趋势与角色转变 - 大模型在产品形态上呈现“隐形”趋势,从台前走向幕后,成为驱动产业智能化的“超级底座”或“超级配角”[6][7][8] - 在智能驾驶领域,大模型成为驱动智驾进化的“超级底座”,例如小鹏汽车基于阿里云算力支持,建成国内汽车行业首个10 EFLOPS规模的AI算力集群,实现从云到端全链路迭代周期平均5天一次[10] - 在制造业,大模型深入生产线,例如三一重工基于千问大模型打造50多个AI Agent覆盖全链路,通过全参数微调将数十年非标经验内化为可复制的数字资产[11] - 产业化反向定义技术,大模型必须成为实用、好用、企业可负担的“配角”,解决工厂流水线延迟、金融风控零容忍、智能硬件端侧功耗等具体场景问题[12] 中国大模型的效率进化与生产力提升 - 国产大模型重新定义SOTA标准,从追求榜单高分转向关注单位算力下的效率和生产力,核心是让每一块钱投入换回实际效率提升[16] - 在“卷效率”道路上实现降维打击,重点解决“算力贵、推理慢、部署难”三大产业化难题[18] - 千问大模型通过架构创新提升效率,例如千问3采用混合推理架构与高稀疏度MoE技术,将800亿参数智力压缩进每次仅激活30亿参数的推理中,训练与推理成本降低90%[18] - 在多模态可控性方面取得工业化突破,万相Wan 2.2作为业界首个MoE视频生成模型节省50%算力,万相Wan 2.6成为国内首个支持角色扮演功能的视频模型[19] - 算力效率进化打破云与端界限,千问3-4B和千问3-30B-A3B等模型让性能媲美GPT-4o的大模型可在手机等消费级硬件上流畅运行[19] - 在长文本处理上实现速度飞跃,千问2.5-1M将推理速度提升近7倍,使处理百万字级别文档从“分钟级”变为“秒级”[20] - 效率进化直接转化为生产力质变,例如海艺AI接入万相2.6后用户内容创作效率提升6倍,智联招聘利用AI将人岗匹配率平均提升超70%[23] 开源生态与中国AI的全球竞争力 - 生态决定AI企业能走多远,在全球巨头转向闭源趋势下,阿里云坚持开源大模型系列,将其作为有效的生态竞争策略[25][26] - 阿里云是全球唯一同时拥有全模态开源大模型和全栈AI服务的厂商,“左手模型、右手基建”的生态位使其在算力调度与应用开发底层逻辑中具备独特竞争力[26] - 开源策略带来“众包迭代”,千问大模型系列被全球开发者在极端场景下测试与魔改,其进化速度超越了实验室封闭模型,甚至反向推动了架构与产业化突破[28] - 开源生态降低门槛并共享标准,“全栈+开源+可参考行业解决方案”模式帮助中小企业迅速将基模能力转化为生产力,并对技术黑箱与不合理溢价形成打击[28] - “Qwen Architecture”正在成为全球AI行业事实上的通用标准,出现“硅谷反向学习”现象,硅谷巨头和创业公司开始将中国开源模型作为创新起点[28] - 具体案例包括Airbnb核心客服Agent主要依赖千问系列模型,硅谷AI初创Nexusflow旗舰模型Athene-V2基于Qwen-2.5-72B微调[29] - 在开发者社区Hugging Face上,全球开源模型排行榜Top10中大部分是基于千问二次开发的衍生模型,千问已扮演“AI时代的安卓”角色[29]