Workflow
Qwen模型
icon
搜索文档
阿里云在MWC亮出“全栈AI”
凤凰网财经· 2026-03-11 18:39
2026年世界移动通信大会(MWC)与AI趋势 - 2026年MWC汇聚了全球219个国家和地区的2900余家参展企业,吸引约10.9万名专业观众,人工智能成为大会绝对主角[1] - 中国参展企业数量超过350家,位列全球第三,在5G-A、AI大模型、6G、卫星通信等领域正从“产品出海”迈向“技术引领”[1] - AI正从“展示品”变成“必需品”,以前所未有的速度重塑各行各业,但真正的智能化转型是全栈能力、全球服务、全域生态的综合性工程[1] 阿里云AI产品与应用的“可见可感” - 阿里云展台展示了全球首秀的千问AI眼镜,该眼镜仅重40克,具备89种语言实时互译、提词稿显示、场景问答、日程提醒等功能,并针对近视、续航、拍摄等痛点进行了细节打磨[3][4] - 通过冬奥互动墙展示了AI在体育领域的应用,阿里云自2017年首次合作冬奥,到深度支撑被誉为“史上最智能”的米兰冬奥会,将AI注入办赛、观赛、参赛全链路,服务触达全球206个国家和地区[5] - 国家奥委会的AI助手管理着超十万条知识资产,向OBS推送上万条优质内容,展现了AI在顶级赛事中的硬核应用[5] 阿里云“全栈AI”的竞争力与架构 - Gartner报告显示,阿里云在GenAI云基础设施、工程、模型三大维度“特性”指标中均居全球第三、亚太最高,四大维度全部跻身新兴领导者象限,成为少数具备全球竞争力的“云+AI”全栈玩家[7][8] - 阿里云的“Full Stack AI”架构实现了从底层IaaS(自研芯片、全球数据中心)、到中间PaaS、再到MaaS,直至顶层基础大模型的完整技术闭环[9] - 千问开源超400个模型,覆盖全模态,支持201种语言,全球下载量突破10亿,衍生模型超20万,生态活跃度超第二至第九名总和[11] - 千问3.5 API调用成本为每百万token仅8毛钱,不到国际竞品的1/18,大幅降低创新门槛[11] - 灵骏集群支持10万卡互联,有效训练时间达99%(行业普遍90%),为客户节省上亿成本;PAI平台将训练性能提升3倍,推理吞吐量提升71%,冷启动时间下降89.8%[12][13] AI在企业与全球市场的落地实践 - 阿里云发布企业级Agentic AI开发平台“百炼专属版”,为金融、医疗等高合规行业提供定制化解决方案[15][16] - 与阿斯利康合作,基于AnalyticDB向量引擎和千问大模型打造药品不良事件智能报告工具,使报告生成效率提升300%,准确率从90%提升至95%[17] - 在智能汽车领域,为宝马座舱注入AI,赋能人车交互[17] - 新加坡国家AI平台基于Qwen3-32B推出东南亚大模型,在多语言评测中位列开源模型第一,且能在32GB内存笔记本上高效运行[18] - 阿里云出海竞争力增长指数全球第一,连续三年稳居领导者象限,是唯一进入领导者象限的中国云厂商[18] - 与拥有超过1.5亿用户的Freepik合作,在其平台嵌入AI生成工具,提升中文长指令理解能力、视频真实感和唇形同步质量,推动全球业务增长[18] - 安克创新基于阿里云全栈AI服务2亿客户,旗下soundcore耳机接入高德MCP,搭载千问Plus,支持100种语言实时翻译[18] - 海尔、比亚迪、霸王茶姬、米哈游等超30万中国企业选择阿里云出海[18] - 2026年,阿里云将在日韩、巴西、墨西哥等十国新建数据中心[19] 服务关键产业与全球客户基础 - 联手中国石油,为全球Top3地震勘探软件GeoEast装上AI助手[20] - 与南航数科联合打造航空自主可控专属云平台,作为南航数字化“超级大脑”,单日支撑超2亿次API调用,核心系统可用性高达99.99%[20] - 阿里云已落地全球29个地域、94个可用区,服务超500万客户,客户包括宝马、LV、欧莱雅、西门子、星巴克、万豪及国际奥委会等全球顶尖品牌[20] - 2025年,阿里云新增38项AI技术服务,服务满意度高达98.95%[20]
三大期指齐跌,美股恐慌指数一度暴涨;黄仁勋:存储器厂产能扩多少,英伟达用多少;军工、石油股普涨,芯片股普跌|美股盘前
每日经济新闻· 2026-03-09 20:02
市场整体情绪与股指表现 - 截至发稿,美国三大股指期货齐跌,道指期货跌0.37%、标普500指数期货跌0.46%、纳斯达克100指数期货跌0.57% [1] - 市场恐慌情绪升温,美股恐慌指数VIX一度上涨至35.02点,为2025年4月以来的最高水平 [1] 科技与半导体行业动态 - 科技股盘前集体走低,微软下跌1.53%,谷歌下跌1.87%,亚马逊下跌1.74%,Meta下跌1.46% [1] - 芯片股盘前普跌,英伟达下跌1.16%,博通下跌1.59%,AMD下跌1.60% [1] - 英伟达CEO黄仁勋表示,内存供给短缺对公司是极好的消息,可以让客户直接选择性能最强的解决方案,并承诺存储器厂产能扩多少,英伟达就会用多少 [2] 矿业与原材料行业 - 矿业股盘前普跌,纽蒙特矿业下跌3.09%,力拓下跌3.71%,自由港麦克莫兰铜金公司下跌3.76% [1] 军工与国防行业 - 军工股盘前普涨,洛克希德马丁上涨1.67%,雷神技术上涨1.95%,诺斯洛普·格鲁门上涨2.15% [1] - 消息面上,美国总统特朗普在社交媒体发文称,与美国大型军工企业举行会议后,参会企业已同意将“精良级”武器产量翻两番,并以最快速度达到最高产能 [1] 能源行业 - 石油股盘前普涨,康菲石油上涨2.78%,埃克森美孚上涨1.51%,西方石油上涨2.16% [2] - 消息面上,G7财长将召开电话会议讨论联合释放战略石油储备的可能性,相关行动将与国际能源署协调推进,据悉包括美国在内的3个G7成员国已表示支持 [2] 人工智能与科技公司管理 - 阿里对Qwen模型团队管理做出调整,Qwen模型一号位由阿里云CTO和通义实验室负责人周靖人代管,负责预训练的刘大一恒将同时代管后训练和Coding团队 [2] 消费电子与硬件 - 苹果下半年将发布首款折叠机iPhone Fold,供应链消息称,公司内部对新机销售量非常有信心,大幅调高供应链备货量,比原定目标上调20% [3] - 截至发稿,苹果股价下跌1.07% [3] 银行业与金融监管 - 截至发稿,瑞银股价下跌3.2% [3] - 消息面上,瑞士联邦委员会正在拟定一项新监管规定,瑞银表示,如果提案全面实施,该行将需要额外增加220亿美元的CET1资本 [3]
Qwen管理调整出炉:周靖人代管千问模型一号位,刘大一恒管理更多团队
YOUNG财经 漾财经· 2026-03-09 17:43
公司管理层调整 - 在核心管理人员林俊旸离职后,公司于3月9日公布了新的管理安排[2] - 通义千问模型一号位由公司云CTO兼通义实验室负责人周靖人代管[2] - 周靖人将深入了解模型发展所需资源,提升各环节协作效率,以确保模型高效迭代[2] 团队与汇报关系调整 - 原负责通义千问预训练的刘大一恒,将同时代管后训练和Coding团队[2] - 刘大一恒及通义千问模型团队的其他负责人将向周靖人汇报[2]
蔡崇信复盘阿里AI:“早”做,不等于领先
36氪· 2026-02-07 10:22
阿里巴巴的AI战略反思与核心框架 - 公司早在2019年已将Transformer模型用于推荐系统,但未能在大语言模型研发上投入足够资源,错过了三年的窗口期[1] - 公司董事会主席在2023年复出后将AI战略聚焦于三个关键词:采用、规模、开源[5] 采用:AI价值的实现关键 - AI战略的核心在于找到能被真实使用的场景,产生价值,而不仅仅是做出模型[7] - 公司的AI战略包含消费者应用、大语言模型和基础设施三个同等重要的层次,均需资本投入[8] - 通义App是验证AI能力在真实场景落地的关键环节,需考察C端使用频率、B端接入稳定性及在具体行业的应用效果[8] - 中国市场企业级软件付费习惯薄弱,用户为API调用付费的接受度低,推广难度远高于美国[9] - 因此,中国模型厂商需通过云基础设施或应用层寻找盈利路径,而非依赖纯API收入模式[11] - 通义千问在“春节30亿免单”活动中,上线9小时AI订单突破1000万单,验证了真实用户流量对基础设施的考验[11] 规模:推理成为成本与能力的焦点 - 行业投资正从模型训练转向推理,推理是AI成本的真正大头[12] - 美国大型科技公司年资本支出已从此前的600到800亿美元,上涨至1200到1500亿美元[12] - 训练只发生在少数公司内部,而用户每日使用的功能(如提问、客服处理、内容生成)均为推理,持续消耗算力资源[13][14] - 模型规模化的关键在于高并发下的稳定性、推理速度及成本控制,即吞吐量,而非单纯追求最强性能[15] - 公司将模型部署在自家云上,以全面控制推理性能、吞吐量和并发处理能力[15] - 随着AI多模态化,对算力的需求将持续增长且无天花板,规模化比拼的是基础设施调度GPU的能力、高负载稳定性及成本控制[16] 开源:基于市场现实的商业策略 - 中国模型公司选择开源,主要源于纯API订阅模式在中国难以规模化的商业现实[17] - 开源的首要价值在于赋予用户“主权”,即企业、政府、开发者可将模型部署在自有服务器或私有云,实现完全的数据控制与自主可控[18][19][20] - 开源后的盈利关键在于掌握模型运行所依赖的基础设施,公司通过开源通义千问模型,引导用户在阿里云上进行训练和推理,以基础设施收费实现商业闭环[22] - 这一路径依赖公司自身的云业务,对于没有云基础设施的公司而言难以复制[23]
史上最狠春节!阿里千问豪掷30亿,加入AI大战
量子位· 2026-02-02 20:06
阿里千问春节请客计划 - 阿里旗下AI“千问”宣布投入30亿,在春节期间通过免单形式请用户吃喝玩乐[3][9] - 该活动联合淘宝、飞猪、盒马、大麦等阿里生态应用共同推进,旨在包揽全国人民的春节消费[4] - 此举被认为是阿里史上投入最狠的春节活动,也标志着AI大厂春节大战的金额被拉满[6] 千问AI的能力与生态基础 - 模型能力依托于阿里全球最完整、最活跃的开源Qwen模型家族,其衍生模型数量已超过18万个[15][16] - 核心模型Qwen3-Max的综合性能长期稳居全球前三,部分维度表现超过Gemini 3 Pro等国际主流模型[16][17] - 生态优势在于接入了高德、飞猪、淘宝、支付宝等用户规模巨大的日常应用,拥有海量真实交易、支付、履约数据作为现实基础[14][19][20] AI在真实生活场景的应用实例 - 点外卖/下午茶:用户可通过一句话指令,让千问调用淘宝闪购完成复杂订单,例如曾成功下单27杯霸王茶姬[10][24][25] - 出行规划:用户可通过一句话指令,让千问调动飞猪和高德,在几分钟内完成旅游攻略制定及酒店、机票预订[26] - 淘宝购物:千问能基于淘宝海量商品、真实评价及全网口碑,为用户进行商品筛选和推荐,例如推荐特定价位和需求的扫地机器人[28][29] 战略意图与行业意义 - 千问选择春节这一消费密集、用户行为复杂的节点推进活动,旨在验证用户习惯能否形成,而不仅仅是展示能力[31][32][33] - 活动目标是通过真金白银的投入,让用户在办事过程中反复使用同一入口,从而强化“有事情要办,先找千问”的新行为路径[45][46][47] - 此举标志着AI从“给答案”走向“办事情”,让“AI生活Agent”能力首次被大规模感知,AI开始接管贴近个人日常的执行链路[51][52][53] - 消费场景对AI要求极高,需理解真实意图并具备调度资源、处理异常的能力,没有成熟生态和真实交易验证则难以承接[54][55][56] - 一旦AI购物消费的路径跑通,将可能改变时代的生活方式,而阿里千问已处在这条路径的最前端[58][59][60] 其他功能与市场信号 - 千问APP主对话页面已出现购买电影票功能,该功能正在灰度测试,即将全面上线[36] - 通过春节活动,千问将AI介入高频社交行为(如领红包、免单)背后的真实消费场景,旨在迅速聚集用户参与度并提升平台黏性[39][40][41]
芯片强势拉升领涨市场,科创芯片ETF富国(588810)盘中涨幅达4.3%
每日经济新闻· 2026-01-21 11:43
市场表现 - 今日大科技方向集体上涨,半导体、AI芯片、存储芯片、光模块、电子元件等细分概念涨幅居前 [1] - 截至发稿,科创芯片ETF富国(588810)盘中涨幅达4.3%,芯片龙头ETF(516640)盘中涨幅达3.87%,信创ETF富国(159538)盘中涨幅达3.98% [1] - 科创芯片ETF富国成分股龙芯中科20cm涨停,海光信息涨超14% [1] 行业动态与投资 - 2026年国产算力进入放量元年,大厂持续加码AI投资 [1] - 字节资本开支有望超1600亿元,已下单百亿级国产芯片订单,近期将启动GW级IDC招标 [1] - 阿里计划增加原3800亿元的三年投资规模,Qwen模型迭代并入局AI硬件 [1] - 智谱AI联合华为开源GLM-Image模型,该模型基于国产昇腾芯片完成训练,验证了国产算力支撑前沿模型的可行性 [1] 产品信息 - 科创芯片ETF富国(588810)紧密跟踪科创芯片指数,该指数的选股范围聚焦于科创板芯片企业,实行20CM涨跌幅限制 [1] - 没有场内账户的投资者可以关注该产品的联接基金(A类023651;C类023652) [1]
阿里巴巴-W(09988.HK):3QFY26前瞻:关注云出海表现 电商受宏观影响表现疲软
格隆汇· 2026-01-15 12:19
整体财务预测 - 预计2026财年第三季度(3QFY26)总收入为2858亿元人民币,同比增长2% [2][3] - 预计3QFY26经调整EBITA为335亿元人民币,同比下降39%,经调整EBITA利润率为11.7%,同比下降7.8个百分点 [2][4] - 下调公司FY2026-FY2028收入预测至10307/11494/12751亿元人民币,调整幅度为-1.5%/-2.8%/-1.4% [3][6] - 下调公司FY2026-FY2028经调整净利润预测至1016/1354/1655亿元人民币,调整幅度为-9.1%/-6.6%/-3.7% [3][6] 云智能集团 - 预计3QFY26云智能收入同比增长35%,继续保持加速增长 [2][3] - 预计云业务EBITA利润率保持稳定,且海外收入增速预计高于国内,后续有望带动云业务利润率提升 [2][4] - 11月底,Qwen模型取代Llama成为新加坡国家AI项目技术底座,领先的模型能力有望帮助公司在海外市场持续提升份额 [2][4] - 本季度AI模型取得进展:核心Qwen模型进行小版本升级,视频模型万相系列发布万相2.6,是国内首个支持角色扮演功能的视频模型 [2][4] - AI应用千问APP于11月17日正式上线,陆续接入高德等阿里系生态,上线30天月活用户已突破4000万 [2][5] 中国电商集团 - 预计3QFY26中国电商集团GMV同比增长3%,受社会消费品零售总额大盘表现疲软拖累 [2][6] - 预计客户管理收入(CMR)增速与GMV接近,同比增长3% [2][6] - 在激烈的竞争和疲软的消费环境下,持续增加用户补贴导致经调整EBITA利润率下滑趋势延续 [2][6] - 预计3QFY26即时零售(闪购)业务亏损约200-250亿元人民币,公司继续保持市占率优先的目标,未来几个季度会加大投入 [2][6] - 测算3QFY26即时零售日均单量约7000-7500万单,对应单均亏损约3-3.5元,公司通过减少补贴、提升履约效率、提高平均订单价值推进减亏,预计12月平均订单价值接近35元 [2][6] 其他业务 - 预计国际数字商业集团(AIDC)在3QFY26收入继续降速,亏损收窄幅度与上季度接近,但受海外黑五大促等活动影响,预计将产生亏损 [2][6] - 预计3QFY26“所有其他”业务亏损较上季度进一步扩大至超过70亿元人民币,主要由于模型训练、AI应用千问APP上线带来的算力投入增加,以及高德扫街榜发布后的投入 [2][6] 各业务收入增长 - 预计3QFY26国际数字商业集团收入同比增长8% [2] - 预计3QFY26云智能收入同比增长35% [2] - 预计3QFY26中国电商集团收入环比增长24%,主要由于电商季节性因素 [3]
Token售卖已无溢价、大模型公司转型“系统商”?记忆张量 CTO 李志宇:智能体能力会拉开差距,长期记忆与状态管理成竞争核心
AI前线· 2026-01-12 19:04
文章核心观点 - 大模型行业正从单纯追求模型规模扩展(Scaling up)转向追求系统效率、长期记忆与状态管理等可持续能力,竞争焦点从模型性能转向系统架构和工程化落地能力[2][8][17] - 智能体(Agent)是下一阶段核心主赛道,但现有模型的推理稳定性与可持续性不足,真正自主的智能体需要模型在推理过程可控、状态保持及系统协同三方面优化,竞争关键在于围绕模型构建的记忆、推理和系统架构能力[2][14][15] - 大模型公司正在演变为系统公司,核心竞争力在于构建具备长期记忆与状态管理能力的智能基础设施,而非单一的模型产品[2][17] - 若2026年各家模型能力无法形成代际差异,价格战将愈演愈烈,模型厂商需通过提供记忆增值服务、MCP增值服务等超越纯Token售卖的增值服务来获取溢价[2][16] 2025年行业现状与公司表现 - 2025年涌现出如MiniMax和智谱等冲击港股上市的“赛点公司”,以及Mannus等现象级Agentic产品,展示了商业化价值和场景可行性,但上市招股书也揭示了大模型公司普遍面临的投产比低、亏损严重等问题[4] - 科技公司面临技术节奏加快与商业回报不确定性放大的多层叠加压力,需同时应对持续投入算力与成本现金流约束,包括POC项目需评估收益[5] - 行业应对压力更趋理性,更强调系统效率、真实使用场景和可持续技术积累,而非单纯追逐参数规模或热点概念[5] - 员工整体状态“压力不小,但方向更清楚”,行业正从早期红利阶段走向拼工程、拼长期价值的阶段[5] 国内外AI发展水平对比 - 国内前沿AI在基础模型能力、多模态理解、推理效率和工程化落地方面取得实质性进展,涌现出DeepSeek-R2、Qwen3系列等优秀模型,在成本控制、系统优化和应用适配上形成自身优势[6] - 在部分通用能力和工程执行层面,与硅谷的差距正在快速缩小,甚至在某些场景下具备竞争力[6] - 但在长期基础研究积累、原创范式探索及面向下一代智能的系统性布局上,整体仍存在差距[6] - 竞争正进入更健康阶段,从单点能力对标转向技术路线和系统能力的分化[6] 技术发展趋势与路线变化 - Scaling up(扩大模型规模)仍能提升模型能力,但经济效益下降,已不再是单独成立的答案[8] - 行业瓶颈在于模型“用不好已有的信息”,如长上下文稳定性、跨时间一致性、复杂任务持续推理能力,多模态发展放大了此问题[8] - 技术路线关键变化是从训练时把模型做大,转向运行时让模型用得更好,强化学习、测试时计算、显式推理结构被大规模引入以补足纯预训练的不足[11] - 记忆、工具调用和系统编排成为核心能力,而不再只是外挂能力,模型能力提升正从一次性参数写入转向可持续的系统演化[11] - MoE架构在2025年成为主流,是在参数规模与推理开销间找到平衡的工程选择,解决了“算力怎么省”的问题,但并未改变智能范式或自动带来更好的推理稳定性[12] - 非MoE路线企业的差异化竞争力在于系统层面构建独特能力,如更有效的记忆机制、更稳定的推理流程或更贴近真实应用的数据闭环[12] 情境感知与智能体发展 - 2025年行业对情境感知的理解进步快于能力本身,意识到其不等于上下文长度,而是对环境、历史、目标和约束的综合理解能力[13] - 模型在短期情境理解、多轮对话连贯性、多模态即时状态感知上有提升,但在长期、跨任务、跨时间的情境一致性上能力仍有限[13] - 技术路线变化体现为将情境感知从模型内部的隐式能力转向系统层面的显式建模,如引入长期记忆、状态表示、环境建模和任务轨迹管理[13] - 情境感知正从一个模型特性演变为一个系统能力,这是智能体和长期智能成立的关键[14] - 大模型需在三个方面优化以支持智能体:推理从一次性回答转向过程可控;对状态的理解和保持能力;与工具、环境和记忆系统的协同能力[14] - 现有模型的推理能力不足以支撑真正意义上的自主智能体,瓶颈在于稳定性和可持续性,模型会漂移、遗忘、在长链路决策中逐步失真[15] 合成数据与推理数据集构建 - 大规模合成数据替代人工数据是正在发生但易被误读的趋势,合成数据已成为高质量训练数据的重要来源,尤其在推理能力、复杂任务分解场景[9] - 高价值合成数据需被严格约束、可验证、能放大信息增益,而非模型随意生成[9] - 构建高质量推理数据集需关注两点:是否有明确的推理结构(如中间状态、决策分支和失败路径);是否引入对抗性和反事实设计以暴露模型盲区[9] 模型价格战与商业模式演进 - 2025年模型价格战最关键的影响是模型性能提升上限受阻导致模型Tokens售卖溢价降低,不同厂商模型性能差异减小及模型开源使得纯售卖模型Token难以获得企业溢价认可[15] - 若2026年开源与闭源模型、不同公司模型间无法形成代际差,价格战将继续甚至愈演愈烈[16] - 部分国产卡下场且效率提升后,由于算力补贴存在,价格将逼近冰点,甚至越用越亏[16] - 模型厂商需在纯模型Token售卖模式上提供增值服务,如MCP增值服务、记忆增值服务等,通过额外能力提升来提供溢价空间[16] 未来竞争核心与代际飞跃方向 - 2026年大模型竞赛的核心是“记忆能力如何完成一次系统性升级”[18] - 技术演进趋势是从底层算力和KV Cache等激活记忆管理,到基模型层引入记忆原生机制,再到上层通过显式记忆支撑Agent和应用的长期运行能力,形成完整的记忆技术栈升级[18] - 下一次“大模型代际飞跃”可能来自系统层面管理参数记忆、激活记忆和显式记忆,跨推理过程进行调度、复用和隔离的能力,这将带来智能形态本身的跃迁[18] - 大模型公司的核心竞争力是构建具备长期记忆与状态管理能力的系统,这能让AI长期运行、持续进化,公司本质是在构建新的智能基础设施[17]
黄仁勋点赞三款中国大模型,英伟达押宝物理AI
观察者网· 2026-01-06 19:22
英伟达CES 2026战略发布核心观点 - 公司战略重心从消费级GPU转向新一代AI计算平台与物理AI应用 公司五年来首次未在CES发布新款GPU 将重点放在新一代计算平台和物理AI领域的进展 包括自动驾驶和机器人 [2] - 公司高度评价并积极融入全球开源模型生态 特别点名肯定中国开源模型的领先地位与突破性贡献 [2][3] - 公司发布全新Vera Rubin一体化AI超算平台 通过协同设计实现性能的指数级提升与成本的大幅降低 旨在加速下一代AI模型的到来 [7][8][10] - 公司宣布物理AI的“ChatGPT时刻”已到来 在自动驾驶和机器人领域推出系列开源模型、工具及计算框架 并已获得多家行业领先企业的合作与应用 [10][11][12][13] 对开源生态的评价与布局 - 公司CEO黄仁勋对2025年开源社区给予高度评价 指出DeepSeek作为第一个开源推理系统 激发了整个行业的发展浪潮 [3] - 在展示的开源生态第一梯队中 包含三家中国模型:月之暗面的Kimi K2、深度求索的DeepSeek V3.2和阿里的Qwen模型 与OpenAI的GPT-OSS并列 其中Kimi K2和DeepSeek V3.2分别是开源第一和第二 [5] - 公司认为开源模型虽可能落后顶尖模型约六个月 但每隔六个月的快速迭代让包括公司在内的所有参与者都不愿错过 [5] - 公司公布了自身的开源模型生态系统 涵盖生物医药、物理AI、智能体模型、机器人及自动驾驶 通过价值数十亿美元的DGX Cloud超级计算机开发了如LaProteina和OpenFold3等前沿模型 [6] 新一代Vera Rubin计算平台发布 - 平台以天文学家Vera Rubin命名 寓意加快AI训练速度 让下一代模型提前到来 [7] - 平台为协同设计的一体化AI超算 重新设计了6款芯片:Vera CPU、Rubin GPU、NVLink 6交换机、ConnectX-9超级网卡、BlueField-4 DPU及Spectrum-6以太网交换机 [7] - Rubin GPU搭载第三代Transformer引擎 NVFP4推理算力达50 PFLOPS 是Blackwell的5倍 目前已进入量产 [7] - 工程设计实现重大突破 超算节点从需接43根线缆、组装2小时 变为采用0根线缆、仅6根液冷管线、5分钟完成组装 [8] - 现场使用中国模型展示平台效能:在Rubin架构下 DeepSeek模型训练时间压缩至原来的1/4 Kimi K2 Thinking推理吞吐量提升10倍 Token成本削减至原来的1/10 [10] 在自动驾驶领域的进展 - 公司认为物理AI的ChatGPT时刻已到来 无人驾驶出租车将是最早受益的应用之一 [10] - 公司推出名为Alpamayo的开源AI模型、仿真工具及数据集 旨在推动推理型辅助驾驶汽车开发 其核心是加入了基于“思维链”的VLA推理模型 以处理复杂“长尾场景”并使决策过程可解释 [10][11] - 整套技术的安全核心由公司的Halos安全系统提供支持 [11] - 首款搭载公司技术的汽车将于2026年第一季度在美国上路 第二季度在欧洲上路 下半年在亚洲上路 [11] - 目前捷豹路虎、Uber、Lucid等企业均对该技术方案表达兴趣 希望基于此实现L4级自动驾驶 [11] 在机器人领域的进展 - 公司认为机器人开发的ChatGPT时刻已然到来 物理AI模型具备理解现实世界、推理和行动规划的能力 [12] - 公司发布两款用于机器人学习和推理的开源模型及配套数据:NVIDIA Cosmos和GR00T 同时推出用于机器人性能评估的Isaac Lab-Arena 以及从边缘到云的计算框架OSMO 以简化机器人训练流程 [12] - 公司与Hugging Face合作 将Isaac开源模型和相关库整合到LeRobot项目中 以加速开源机器人开发社区发展 [12] - 由公司Blackwell架构驱动的Jetson T4000模组已发售 能将设备能效和AI算力提升至原来的4倍 [12] - 波士顿动力、卡特彼勒、Franka Robots、Humanoid、LG电子和NEURA Robotics等企业 均已推出基于公司技术打造的新型机器人和自主运行设备 [13]
中国开源AI逆袭,美国围堵失效,半数美企为何集体倒戈?
搜狐财经· 2025-12-27 14:11
美国对中国AI的围堵与市场反应 - 美国通过高端芯片禁运和闭源模型技术壁垒试图限制中国AI发展[1][2] - 超过一半的美国初创企业将中国开源AI模型作为开发首选 市场风向发生反转[4] - 硅谷明星公司如AI独角兽Perplexity和Airbnb公开使用并依赖中国模型技术[4][6] 中国开源模型在美企及学术界的应用现状 - Perplexity的底层技术搭建在中国模型上 Airbnb的AI客服系统重度依赖阿里的Qwen模型[6] - 斯坦福大学使用Qwen作为基座进行推理模型研究 英伟达使用Qwen生成高质量合成数据训练自家AI[8] - DeepSeek GLM Kimi等中国开源模型在硅谷工程师中普及 成为办公室标配[6] 美国企业选择中国开源模型的核心原因 - 成本优势显著 有美国创业者从闭源模型切换至Qwen后 每年节省约40万美元的API调用费[10] - Dayflow测算显示 闭源模型人均年成本超1000美元 而中国开源模型近乎免费[12] - 开源模型提供控制权与数据安全 代码公开可自由修改 数据无需外传 避免了闭源模型如ChatGPT因规则调整导致系统瘫痪的风险[12][14] 中国开源模型的竞争力来源与发展路径 - 受美国高端GPU供应限制 中国团队被迫在算法上创新 致力于用更少算力获得更好效果 例如DeepSeek团队仅用560万美元就训练出高性能模型[18][20] - 中国模型发展出如MoE MLA等高效算法 实现了对算力极限的压榨 与美国企业烧钱拼参数的模式形成对比[20] - 中国开源模型正从工具转变为全球性基础设施 吸引全球百万级开发者进行二次开发 构建生态[22] 开源模式对技术竞争格局的影响 - 开源与闭源成为世界大模型竞赛的关键路线之争[24] - 中国通过将技术转化为全球共享的公共产品 以开源生态共建应对技术壁垒和闭源垄断[24] - 中国AI模型凭借成本低 效率高 更自由的市场竞争力 从可选工具转变为全球AI生态中的刚需基建[26][28]