Workflow
Qwen模型
icon
搜索文档
蔡崇信复盘阿里AI:“早”做,不等于领先
36氪· 2026-02-07 10:22
阿里巴巴的AI战略反思与核心框架 - 公司早在2019年已将Transformer模型用于推荐系统,但未能在大语言模型研发上投入足够资源,错过了三年的窗口期[1] - 公司董事会主席在2023年复出后将AI战略聚焦于三个关键词:采用、规模、开源[5] 采用:AI价值的实现关键 - AI战略的核心在于找到能被真实使用的场景,产生价值,而不仅仅是做出模型[7] - 公司的AI战略包含消费者应用、大语言模型和基础设施三个同等重要的层次,均需资本投入[8] - 通义App是验证AI能力在真实场景落地的关键环节,需考察C端使用频率、B端接入稳定性及在具体行业的应用效果[8] - 中国市场企业级软件付费习惯薄弱,用户为API调用付费的接受度低,推广难度远高于美国[9] - 因此,中国模型厂商需通过云基础设施或应用层寻找盈利路径,而非依赖纯API收入模式[11] - 通义千问在“春节30亿免单”活动中,上线9小时AI订单突破1000万单,验证了真实用户流量对基础设施的考验[11] 规模:推理成为成本与能力的焦点 - 行业投资正从模型训练转向推理,推理是AI成本的真正大头[12] - 美国大型科技公司年资本支出已从此前的600到800亿美元,上涨至1200到1500亿美元[12] - 训练只发生在少数公司内部,而用户每日使用的功能(如提问、客服处理、内容生成)均为推理,持续消耗算力资源[13][14] - 模型规模化的关键在于高并发下的稳定性、推理速度及成本控制,即吞吐量,而非单纯追求最强性能[15] - 公司将模型部署在自家云上,以全面控制推理性能、吞吐量和并发处理能力[15] - 随着AI多模态化,对算力的需求将持续增长且无天花板,规模化比拼的是基础设施调度GPU的能力、高负载稳定性及成本控制[16] 开源:基于市场现实的商业策略 - 中国模型公司选择开源,主要源于纯API订阅模式在中国难以规模化的商业现实[17] - 开源的首要价值在于赋予用户“主权”,即企业、政府、开发者可将模型部署在自有服务器或私有云,实现完全的数据控制与自主可控[18][19][20] - 开源后的盈利关键在于掌握模型运行所依赖的基础设施,公司通过开源通义千问模型,引导用户在阿里云上进行训练和推理,以基础设施收费实现商业闭环[22] - 这一路径依赖公司自身的云业务,对于没有云基础设施的公司而言难以复制[23]
史上最狠春节!阿里千问豪掷30亿,加入AI大战
量子位· 2026-02-02 20:06
阿里千问春节请客计划 - 阿里旗下AI“千问”宣布投入30亿,在春节期间通过免单形式请用户吃喝玩乐[3][9] - 该活动联合淘宝、飞猪、盒马、大麦等阿里生态应用共同推进,旨在包揽全国人民的春节消费[4] - 此举被认为是阿里史上投入最狠的春节活动,也标志着AI大厂春节大战的金额被拉满[6] 千问AI的能力与生态基础 - 模型能力依托于阿里全球最完整、最活跃的开源Qwen模型家族,其衍生模型数量已超过18万个[15][16] - 核心模型Qwen3-Max的综合性能长期稳居全球前三,部分维度表现超过Gemini 3 Pro等国际主流模型[16][17] - 生态优势在于接入了高德、飞猪、淘宝、支付宝等用户规模巨大的日常应用,拥有海量真实交易、支付、履约数据作为现实基础[14][19][20] AI在真实生活场景的应用实例 - 点外卖/下午茶:用户可通过一句话指令,让千问调用淘宝闪购完成复杂订单,例如曾成功下单27杯霸王茶姬[10][24][25] - 出行规划:用户可通过一句话指令,让千问调动飞猪和高德,在几分钟内完成旅游攻略制定及酒店、机票预订[26] - 淘宝购物:千问能基于淘宝海量商品、真实评价及全网口碑,为用户进行商品筛选和推荐,例如推荐特定价位和需求的扫地机器人[28][29] 战略意图与行业意义 - 千问选择春节这一消费密集、用户行为复杂的节点推进活动,旨在验证用户习惯能否形成,而不仅仅是展示能力[31][32][33] - 活动目标是通过真金白银的投入,让用户在办事过程中反复使用同一入口,从而强化“有事情要办,先找千问”的新行为路径[45][46][47] - 此举标志着AI从“给答案”走向“办事情”,让“AI生活Agent”能力首次被大规模感知,AI开始接管贴近个人日常的执行链路[51][52][53] - 消费场景对AI要求极高,需理解真实意图并具备调度资源、处理异常的能力,没有成熟生态和真实交易验证则难以承接[54][55][56] - 一旦AI购物消费的路径跑通,将可能改变时代的生活方式,而阿里千问已处在这条路径的最前端[58][59][60] 其他功能与市场信号 - 千问APP主对话页面已出现购买电影票功能,该功能正在灰度测试,即将全面上线[36] - 通过春节活动,千问将AI介入高频社交行为(如领红包、免单)背后的真实消费场景,旨在迅速聚集用户参与度并提升平台黏性[39][40][41]
芯片强势拉升领涨市场,科创芯片ETF富国(588810)盘中涨幅达4.3%
每日经济新闻· 2026-01-21 11:43
市场表现 - 今日大科技方向集体上涨,半导体、AI芯片、存储芯片、光模块、电子元件等细分概念涨幅居前 [1] - 截至发稿,科创芯片ETF富国(588810)盘中涨幅达4.3%,芯片龙头ETF(516640)盘中涨幅达3.87%,信创ETF富国(159538)盘中涨幅达3.98% [1] - 科创芯片ETF富国成分股龙芯中科20cm涨停,海光信息涨超14% [1] 行业动态与投资 - 2026年国产算力进入放量元年,大厂持续加码AI投资 [1] - 字节资本开支有望超1600亿元,已下单百亿级国产芯片订单,近期将启动GW级IDC招标 [1] - 阿里计划增加原3800亿元的三年投资规模,Qwen模型迭代并入局AI硬件 [1] - 智谱AI联合华为开源GLM-Image模型,该模型基于国产昇腾芯片完成训练,验证了国产算力支撑前沿模型的可行性 [1] 产品信息 - 科创芯片ETF富国(588810)紧密跟踪科创芯片指数,该指数的选股范围聚焦于科创板芯片企业,实行20CM涨跌幅限制 [1] - 没有场内账户的投资者可以关注该产品的联接基金(A类023651;C类023652) [1]
阿里巴巴-W(09988.HK):3QFY26前瞻:关注云出海表现 电商受宏观影响表现疲软
格隆汇· 2026-01-15 12:19
整体财务预测 - 预计2026财年第三季度(3QFY26)总收入为2858亿元人民币,同比增长2% [2][3] - 预计3QFY26经调整EBITA为335亿元人民币,同比下降39%,经调整EBITA利润率为11.7%,同比下降7.8个百分点 [2][4] - 下调公司FY2026-FY2028收入预测至10307/11494/12751亿元人民币,调整幅度为-1.5%/-2.8%/-1.4% [3][6] - 下调公司FY2026-FY2028经调整净利润预测至1016/1354/1655亿元人民币,调整幅度为-9.1%/-6.6%/-3.7% [3][6] 云智能集团 - 预计3QFY26云智能收入同比增长35%,继续保持加速增长 [2][3] - 预计云业务EBITA利润率保持稳定,且海外收入增速预计高于国内,后续有望带动云业务利润率提升 [2][4] - 11月底,Qwen模型取代Llama成为新加坡国家AI项目技术底座,领先的模型能力有望帮助公司在海外市场持续提升份额 [2][4] - 本季度AI模型取得进展:核心Qwen模型进行小版本升级,视频模型万相系列发布万相2.6,是国内首个支持角色扮演功能的视频模型 [2][4] - AI应用千问APP于11月17日正式上线,陆续接入高德等阿里系生态,上线30天月活用户已突破4000万 [2][5] 中国电商集团 - 预计3QFY26中国电商集团GMV同比增长3%,受社会消费品零售总额大盘表现疲软拖累 [2][6] - 预计客户管理收入(CMR)增速与GMV接近,同比增长3% [2][6] - 在激烈的竞争和疲软的消费环境下,持续增加用户补贴导致经调整EBITA利润率下滑趋势延续 [2][6] - 预计3QFY26即时零售(闪购)业务亏损约200-250亿元人民币,公司继续保持市占率优先的目标,未来几个季度会加大投入 [2][6] - 测算3QFY26即时零售日均单量约7000-7500万单,对应单均亏损约3-3.5元,公司通过减少补贴、提升履约效率、提高平均订单价值推进减亏,预计12月平均订单价值接近35元 [2][6] 其他业务 - 预计国际数字商业集团(AIDC)在3QFY26收入继续降速,亏损收窄幅度与上季度接近,但受海外黑五大促等活动影响,预计将产生亏损 [2][6] - 预计3QFY26“所有其他”业务亏损较上季度进一步扩大至超过70亿元人民币,主要由于模型训练、AI应用千问APP上线带来的算力投入增加,以及高德扫街榜发布后的投入 [2][6] 各业务收入增长 - 预计3QFY26国际数字商业集团收入同比增长8% [2] - 预计3QFY26云智能收入同比增长35% [2] - 预计3QFY26中国电商集团收入环比增长24%,主要由于电商季节性因素 [3]
Token售卖已无溢价、大模型公司转型“系统商”?记忆张量 CTO 李志宇:智能体能力会拉开差距,长期记忆与状态管理成竞争核心
AI前线· 2026-01-12 19:04
文章核心观点 - 大模型行业正从单纯追求模型规模扩展(Scaling up)转向追求系统效率、长期记忆与状态管理等可持续能力,竞争焦点从模型性能转向系统架构和工程化落地能力[2][8][17] - 智能体(Agent)是下一阶段核心主赛道,但现有模型的推理稳定性与可持续性不足,真正自主的智能体需要模型在推理过程可控、状态保持及系统协同三方面优化,竞争关键在于围绕模型构建的记忆、推理和系统架构能力[2][14][15] - 大模型公司正在演变为系统公司,核心竞争力在于构建具备长期记忆与状态管理能力的智能基础设施,而非单一的模型产品[2][17] - 若2026年各家模型能力无法形成代际差异,价格战将愈演愈烈,模型厂商需通过提供记忆增值服务、MCP增值服务等超越纯Token售卖的增值服务来获取溢价[2][16] 2025年行业现状与公司表现 - 2025年涌现出如MiniMax和智谱等冲击港股上市的“赛点公司”,以及Mannus等现象级Agentic产品,展示了商业化价值和场景可行性,但上市招股书也揭示了大模型公司普遍面临的投产比低、亏损严重等问题[4] - 科技公司面临技术节奏加快与商业回报不确定性放大的多层叠加压力,需同时应对持续投入算力与成本现金流约束,包括POC项目需评估收益[5] - 行业应对压力更趋理性,更强调系统效率、真实使用场景和可持续技术积累,而非单纯追逐参数规模或热点概念[5] - 员工整体状态“压力不小,但方向更清楚”,行业正从早期红利阶段走向拼工程、拼长期价值的阶段[5] 国内外AI发展水平对比 - 国内前沿AI在基础模型能力、多模态理解、推理效率和工程化落地方面取得实质性进展,涌现出DeepSeek-R2、Qwen3系列等优秀模型,在成本控制、系统优化和应用适配上形成自身优势[6] - 在部分通用能力和工程执行层面,与硅谷的差距正在快速缩小,甚至在某些场景下具备竞争力[6] - 但在长期基础研究积累、原创范式探索及面向下一代智能的系统性布局上,整体仍存在差距[6] - 竞争正进入更健康阶段,从单点能力对标转向技术路线和系统能力的分化[6] 技术发展趋势与路线变化 - Scaling up(扩大模型规模)仍能提升模型能力,但经济效益下降,已不再是单独成立的答案[8] - 行业瓶颈在于模型“用不好已有的信息”,如长上下文稳定性、跨时间一致性、复杂任务持续推理能力,多模态发展放大了此问题[8] - 技术路线关键变化是从训练时把模型做大,转向运行时让模型用得更好,强化学习、测试时计算、显式推理结构被大规模引入以补足纯预训练的不足[11] - 记忆、工具调用和系统编排成为核心能力,而不再只是外挂能力,模型能力提升正从一次性参数写入转向可持续的系统演化[11] - MoE架构在2025年成为主流,是在参数规模与推理开销间找到平衡的工程选择,解决了“算力怎么省”的问题,但并未改变智能范式或自动带来更好的推理稳定性[12] - 非MoE路线企业的差异化竞争力在于系统层面构建独特能力,如更有效的记忆机制、更稳定的推理流程或更贴近真实应用的数据闭环[12] 情境感知与智能体发展 - 2025年行业对情境感知的理解进步快于能力本身,意识到其不等于上下文长度,而是对环境、历史、目标和约束的综合理解能力[13] - 模型在短期情境理解、多轮对话连贯性、多模态即时状态感知上有提升,但在长期、跨任务、跨时间的情境一致性上能力仍有限[13] - 技术路线变化体现为将情境感知从模型内部的隐式能力转向系统层面的显式建模,如引入长期记忆、状态表示、环境建模和任务轨迹管理[13] - 情境感知正从一个模型特性演变为一个系统能力,这是智能体和长期智能成立的关键[14] - 大模型需在三个方面优化以支持智能体:推理从一次性回答转向过程可控;对状态的理解和保持能力;与工具、环境和记忆系统的协同能力[14] - 现有模型的推理能力不足以支撑真正意义上的自主智能体,瓶颈在于稳定性和可持续性,模型会漂移、遗忘、在长链路决策中逐步失真[15] 合成数据与推理数据集构建 - 大规模合成数据替代人工数据是正在发生但易被误读的趋势,合成数据已成为高质量训练数据的重要来源,尤其在推理能力、复杂任务分解场景[9] - 高价值合成数据需被严格约束、可验证、能放大信息增益,而非模型随意生成[9] - 构建高质量推理数据集需关注两点:是否有明确的推理结构(如中间状态、决策分支和失败路径);是否引入对抗性和反事实设计以暴露模型盲区[9] 模型价格战与商业模式演进 - 2025年模型价格战最关键的影响是模型性能提升上限受阻导致模型Tokens售卖溢价降低,不同厂商模型性能差异减小及模型开源使得纯售卖模型Token难以获得企业溢价认可[15] - 若2026年开源与闭源模型、不同公司模型间无法形成代际差,价格战将继续甚至愈演愈烈[16] - 部分国产卡下场且效率提升后,由于算力补贴存在,价格将逼近冰点,甚至越用越亏[16] - 模型厂商需在纯模型Token售卖模式上提供增值服务,如MCP增值服务、记忆增值服务等,通过额外能力提升来提供溢价空间[16] 未来竞争核心与代际飞跃方向 - 2026年大模型竞赛的核心是“记忆能力如何完成一次系统性升级”[18] - 技术演进趋势是从底层算力和KV Cache等激活记忆管理,到基模型层引入记忆原生机制,再到上层通过显式记忆支撑Agent和应用的长期运行能力,形成完整的记忆技术栈升级[18] - 下一次“大模型代际飞跃”可能来自系统层面管理参数记忆、激活记忆和显式记忆,跨推理过程进行调度、复用和隔离的能力,这将带来智能形态本身的跃迁[18] - 大模型公司的核心竞争力是构建具备长期记忆与状态管理能力的系统,这能让AI长期运行、持续进化,公司本质是在构建新的智能基础设施[17]
黄仁勋点赞三款中国大模型,英伟达押宝物理AI
观察者网· 2026-01-06 19:22
英伟达CES 2026战略发布核心观点 - 公司战略重心从消费级GPU转向新一代AI计算平台与物理AI应用 公司五年来首次未在CES发布新款GPU 将重点放在新一代计算平台和物理AI领域的进展 包括自动驾驶和机器人 [2] - 公司高度评价并积极融入全球开源模型生态 特别点名肯定中国开源模型的领先地位与突破性贡献 [2][3] - 公司发布全新Vera Rubin一体化AI超算平台 通过协同设计实现性能的指数级提升与成本的大幅降低 旨在加速下一代AI模型的到来 [7][8][10] - 公司宣布物理AI的“ChatGPT时刻”已到来 在自动驾驶和机器人领域推出系列开源模型、工具及计算框架 并已获得多家行业领先企业的合作与应用 [10][11][12][13] 对开源生态的评价与布局 - 公司CEO黄仁勋对2025年开源社区给予高度评价 指出DeepSeek作为第一个开源推理系统 激发了整个行业的发展浪潮 [3] - 在展示的开源生态第一梯队中 包含三家中国模型:月之暗面的Kimi K2、深度求索的DeepSeek V3.2和阿里的Qwen模型 与OpenAI的GPT-OSS并列 其中Kimi K2和DeepSeek V3.2分别是开源第一和第二 [5] - 公司认为开源模型虽可能落后顶尖模型约六个月 但每隔六个月的快速迭代让包括公司在内的所有参与者都不愿错过 [5] - 公司公布了自身的开源模型生态系统 涵盖生物医药、物理AI、智能体模型、机器人及自动驾驶 通过价值数十亿美元的DGX Cloud超级计算机开发了如LaProteina和OpenFold3等前沿模型 [6] 新一代Vera Rubin计算平台发布 - 平台以天文学家Vera Rubin命名 寓意加快AI训练速度 让下一代模型提前到来 [7] - 平台为协同设计的一体化AI超算 重新设计了6款芯片:Vera CPU、Rubin GPU、NVLink 6交换机、ConnectX-9超级网卡、BlueField-4 DPU及Spectrum-6以太网交换机 [7] - Rubin GPU搭载第三代Transformer引擎 NVFP4推理算力达50 PFLOPS 是Blackwell的5倍 目前已进入量产 [7] - 工程设计实现重大突破 超算节点从需接43根线缆、组装2小时 变为采用0根线缆、仅6根液冷管线、5分钟完成组装 [8] - 现场使用中国模型展示平台效能:在Rubin架构下 DeepSeek模型训练时间压缩至原来的1/4 Kimi K2 Thinking推理吞吐量提升10倍 Token成本削减至原来的1/10 [10] 在自动驾驶领域的进展 - 公司认为物理AI的ChatGPT时刻已到来 无人驾驶出租车将是最早受益的应用之一 [10] - 公司推出名为Alpamayo的开源AI模型、仿真工具及数据集 旨在推动推理型辅助驾驶汽车开发 其核心是加入了基于“思维链”的VLA推理模型 以处理复杂“长尾场景”并使决策过程可解释 [10][11] - 整套技术的安全核心由公司的Halos安全系统提供支持 [11] - 首款搭载公司技术的汽车将于2026年第一季度在美国上路 第二季度在欧洲上路 下半年在亚洲上路 [11] - 目前捷豹路虎、Uber、Lucid等企业均对该技术方案表达兴趣 希望基于此实现L4级自动驾驶 [11] 在机器人领域的进展 - 公司认为机器人开发的ChatGPT时刻已然到来 物理AI模型具备理解现实世界、推理和行动规划的能力 [12] - 公司发布两款用于机器人学习和推理的开源模型及配套数据:NVIDIA Cosmos和GR00T 同时推出用于机器人性能评估的Isaac Lab-Arena 以及从边缘到云的计算框架OSMO 以简化机器人训练流程 [12] - 公司与Hugging Face合作 将Isaac开源模型和相关库整合到LeRobot项目中 以加速开源机器人开发社区发展 [12] - 由公司Blackwell架构驱动的Jetson T4000模组已发售 能将设备能效和AI算力提升至原来的4倍 [12] - 波士顿动力、卡特彼勒、Franka Robots、Humanoid、LG电子和NEURA Robotics等企业 均已推出基于公司技术打造的新型机器人和自主运行设备 [13]
中国开源AI逆袭,美国围堵失效,半数美企为何集体倒戈?
搜狐财经· 2025-12-27 14:11
美国对中国AI的围堵与市场反应 - 美国通过高端芯片禁运和闭源模型技术壁垒试图限制中国AI发展[1][2] - 超过一半的美国初创企业将中国开源AI模型作为开发首选 市场风向发生反转[4] - 硅谷明星公司如AI独角兽Perplexity和Airbnb公开使用并依赖中国模型技术[4][6] 中国开源模型在美企及学术界的应用现状 - Perplexity的底层技术搭建在中国模型上 Airbnb的AI客服系统重度依赖阿里的Qwen模型[6] - 斯坦福大学使用Qwen作为基座进行推理模型研究 英伟达使用Qwen生成高质量合成数据训练自家AI[8] - DeepSeek GLM Kimi等中国开源模型在硅谷工程师中普及 成为办公室标配[6] 美国企业选择中国开源模型的核心原因 - 成本优势显著 有美国创业者从闭源模型切换至Qwen后 每年节省约40万美元的API调用费[10] - Dayflow测算显示 闭源模型人均年成本超1000美元 而中国开源模型近乎免费[12] - 开源模型提供控制权与数据安全 代码公开可自由修改 数据无需外传 避免了闭源模型如ChatGPT因规则调整导致系统瘫痪的风险[12][14] 中国开源模型的竞争力来源与发展路径 - 受美国高端GPU供应限制 中国团队被迫在算法上创新 致力于用更少算力获得更好效果 例如DeepSeek团队仅用560万美元就训练出高性能模型[18][20] - 中国模型发展出如MoE MLA等高效算法 实现了对算力极限的压榨 与美国企业烧钱拼参数的模式形成对比[20] - 中国开源模型正从工具转变为全球性基础设施 吸引全球百万级开发者进行二次开发 构建生态[22] 开源模式对技术竞争格局的影响 - 开源与闭源成为世界大模型竞赛的关键路线之争[24] - 中国通过将技术转化为全球共享的公共产品 以开源生态共建应对技术壁垒和闭源垄断[24] - 中国AI模型凭借成本低 效率高 更自由的市场竞争力 从可选工具转变为全球AI生态中的刚需基建[26][28]
微软或与Kimi合作上线Agent功能,阿里云Qwen下载量超7亿
36氪· 2025-12-18 17:54
微软与Kimi合作动态 - 微软Azure已于本月初接入Kimi的k2模型,双方合作有望进一步深入至应用层 [1] - 微软或将在本月与Kimi合作上线新的Agent功能,以应对本土厂商的激烈竞争 [1] - 该合作旨在利用AI的Agent能力,实现Office产品的自动化 [1] 阿里云与通义千问(Qwen)战略 - 阿里云是全球唯一一家积极研发先进AI模型并且全方位开源的云计算厂商 [1] - 阿里云在业界率先实现“全尺寸、全模态”的全面开源,其他三家头部云厂商未将模型规模开源 [1] - 通义千问Qwen衍生模型数量已突破18万,远超Meta的Llama系列模型 [2] - 通义千问Qwen在全球下载量超7亿,截至2025年10月,其下载量已超越Llama模型,成为全球第一AI开源模型 [2] - 阿里云的目标是让Qwen模型成为产业的默认依赖,通过开源策略建立行业标准 [2] 行业竞争格局与云厂商策略 - 阿里云作为市场份额较少的一方,选择全面开源被视为有魄力的战略,旨在牺牲短期利益以博取更多用户群体 [1] - AWS和微软缺少自研模型,两者已明显加速模型自研节奏,正处于关键的自我修正期 [2] - 头部云厂商面临的关键挑战是如何在保持平台中立与生态开放的同时,补齐模型层的确定性,并建立属于自己的第一梯队能力 [2]
中国AI再现全球级爆款,算力、应用呈两端协同跃升态势
新浪财经· 2025-12-12 22:13
中国AI大模型的全球崛起 - 阿里巴巴千问APP公测23天月活跃用户数突破3000万 首周下载量破1000万 刷新“增长最快AI应用”记录 [1] - 中国AI大模型在2025年完成蜕变 从全球竞争中的模仿跟随者转变为行业领先者与规则制定者 [1] - 知名报告将“中国AI体系”从“外围追赶者”提升为“平行竞争者” 并肯定其在开源AI和商业化部署方面设定节奏 [2] 中国大模型的全球市场拓展 - 中国大模型如Qwen、DeepSeek、Kimi、GLM等在全球市场攻城略地 市场份额显著提升 [2] - 新加坡国家人工智能计划放弃Meta模型 转向Qwen开源架构 美国Meta在研发新模型时采用Qwen进行蒸馏优化 [3] - 硅谷风投a16z与OpenRouter报告显示 中国开源模型全球市场份额从2024年底的1.2%飙升至2025年中的近30% [4] AI算力需求爆发与基础设施投资 - 中国大模型市场份额飙升直接导致算力需求爆发 亚太地区数据中心空置率处于历史低位的5.8% [4] - 阿里巴巴宣布投入3800亿元用于AI基础设施建设 并计划到2032年将云数据中心能耗规模扩大十倍 [4] - 联想集团作为服务器供应商受益 AI服务器收入在二季度同比激增155% 三季度保持高双位数增长 [5] 产业链协同与深度合作模式 - 联想集团服务器业务成功得益于与大模型厂商需求高度适配的定制化产品及与客户业务拓展的高度协同 [6] - 联想集团与阿里巴巴自2017年深入合作 其液冷方案部署于阿里多个“零碳”数据中心 并在多国云与AI基建中协同布局 [6] - 中国AI算力产业链形成正向循环 大模型全球拓展带动算力硬件商壮大 后者反过来促进大模型的全球征战 [6] 应用导向的发展策略与商业化成果 - 中国大模型采取“性能紧跟+应用差异化”策略 专注于赋能万物与服务实体经济 [7] - 阿里巴巴通过千问APP搭建体验入口 阿里云智能集团收入达398.24亿元 同比增长34% 证明AI投入的强劲回报 [7] - 应用端企业如联想集团通过接入Qwen等大模型 在个人、企业、城市智能领域实现领先落地 [8] 应用端企业的场景优势与市场表现 - 联想集团在C端拥有AIPC、AI手机等多终端布局 B端作为制造业龙头积累了丰富的场景应用经验与客户资源 [8] - 联想集团AI终端设备营收占IDG整体营收36% 在全球Windows AI PC市场份额达31.1% [9] - 联想集团企业超级智能体上线不到半年创收超18亿元 “双十一”期间贡献官网32%收入 方案服务业务同比增长22% [9] AI业务成为核心驱动力 - 联想集团最新财报显示 AI相关业务营收在总营收中占比提升至30% 同比提升13个百分点 [11] - 中国AI竞争力从模型端到应用端全面增强 将在全球市场扮演更重要角色 [11] - 兼具算力基础设施硬件、终端设备与场景落地多方面布局的企业 如联想集团 具备更大想象空间 [11]
Meta上亿年薪的研究员们,却在偷师中国开源模型
观察者网· 2025-12-11 18:17
公司动态与战略调整 - Meta组建名为TBD Lab的新团队,其正在训练的“牛油果”(Avocado)模型使用了包括谷歌Gemma、OpenAI GPT-oss和阿里巴巴Qwen在内的多个第三方模型,该模型预计于明年春季首次亮相并可能作为闭源模型推出 [1] - 针对相关报道,Meta发言人回应称模型训练工作正按计划进行,时间表没有发生有意义的变更 [1] - 消息曝光后,阿里巴巴美股盘前一度上涨4%,收盘涨幅2.53% [1] - 因Llama 4表现不佳,Meta在最新一季度财报会上仅轻描淡写地提及Llama一次,该模型已不再是公司焦点 [5] - 扎克伯格随后对公司内部进行人事调整,拥有20年工龄的首席产品官Chris Cox在Llama 4翻车后被撤掉AI部门管理权限,部分Llama 4团队成员也被边缘化 [5] - 扎克伯格亲自挂帅开启AI“梦之队”招聘计划,从外部高薪挖来Scale AI创始人Alexandr Wang担任新的人工智能负责人,执掌全新的TBD实验室,并开出亿元薪酬大肆挖角同行 [5] - 公司更直接叫停了部分激进的元宇宙项目,以集中资源与OpenAI等竞争对手较量,对名为“牛油果”的新AI模型可谓孤注一掷 [6] - Alexandr Wang作为闭源模型的拥簇者,被认为是Meta新模型转向闭源的核心原因 [6] - 在Alexandr Wang领导下,Meta Superintelligence Lab在11月几乎毫无动作 [11] 行业竞争格局演变 - 过去两年,Meta通过开源Llama系列成功扮演了“反OpenAI联盟”的盟主,Llama一度被视为开源界的Linux,是全球开发者(包括中国开发者)的首选底座 [2] - 这一格局在2025年开始瓦解,随着年初DeepSeek开源模型的横空出世,以及后续阿里Qwen、月之暗面、智谱、Minimax等AI新势力纷纷发布高性能开源模型,Meta对开源生态的统治地位开始摇摇欲坠 [3] - 2025年4月,Meta发布的Llama 4性能未获开发者认可,且模型在LMArena的榜单排名被曝出存在“作弊嫌疑”,进一步饱受负面评价 [3] - 从性能角度看,无论是中国的“AI六小龙”还是阿里等互联网大厂,其最新的开源模型发布时均选择性能对标OpenAI、Google等头部闭源模型,Meta的Llama系列模型甚至已不配作为参照组来展示性能 [3] - 在下载和衍生模型数量上,阿里Qwen模型对Meta实现了赶超,2024年8月,千问的衍生模型数量第一次超过Llama,到了2025年10月,千问模型在全球下载量上也正式超过了Llama [4] - 这意味着Meta无论在数量还是质量上都失去了全球开源模型老大的地位 [4] - 华尔街投行KeyBanc资本市场的分析师在11月的报告中写道,在某种程度上,Meta的AI之路恰恰与Alphabet相反:年初被视为AI赢家,但现在投资回报和战略方向却成了最大的问号 [10] - 美国媒体CNBC在报道中表示,真正具有突破性的AI产品不会出现在小团队手中,而是出现在那些掌握完整生态体系的企业里 [10] - Meta今年成为了美国资本市场上最让人失望的AI股之一 [10] 市场反应与舆论评价 - 社交媒体上,网友们对Meta花上亿美元挖角的员工们选择使用Qwen开源模型进行了大量调侃,有网友直言“花了数十亿美元雇AI研究员,敢情就是为了抄作业?” [6][9] - 扎克伯格过去多次借鉴抖音、微信等中国产品功能,本次使用千问模型被视作一个巨大的“回旋镖” [10] - 扎克伯格在今年年初的播客中曾警告,如果不进行开源对抗,世界将被“反映中国价值观”的AI模型所主导,而他本人也多次在公开场合渲染“中国科技威胁论”,在国会听证会上曾是唯一一个对中国窃取技术问题表现出强硬攻击姿态的硅谷CEO [10] - Meta在打造下一代闭源模型时向Qwen“取经”,某种程度上宣告其亲自承认了Llama在开源领域的统治力已经被终结 [10] - 从开源盟主到闭源追随者,从“中国威胁论”到“偷师”中国同行,Meta的“牛油果”尚未发布就已经舆论缠身,这被视作是硅谷面对中国AI快速崛起时集体焦虑的一个缩影 [11]