Workflow
英伟达CUDA生态
icon
搜索文档
算力盛宴之下,联想如何靠算力总包突围
格隆汇· 2026-02-27 12:13
行业格局重塑 - Meta与AMD宣布战略合作协议,将在其数据中心部署高达6GW的AMD Instinct系列GPU,相当于数百万颗高端AI加速卡[1] - 这份为期5年的合约总价值估算约为600亿美元,且包含深度资本绑定条款,Meta可通过基于绩效的认股权证最多获得AMD 10%的股权[1] - 此举旨在打破AI算力市场对单一供应商的依赖,Meta在已向英伟达下单数百万GPU后,再次进行大规模战略采购[1] 交易核心逻辑 - 交易旨在打破产能与定价的双重掣肘,为Meta提供议价筹码并获得AMD在芯片设计和先进封装产能上的优先权[3] - 认股权证设计将Meta的利益与AMD GPU的迭代成功深度绑定,Meta将向AMD倾注庞大的软件工程资源,以助其对抗英伟达CUDA生态[3] - 该交易为AMD提供了空前的品牌与技术背书,将有效打消其他云厂商和企业客户对非英伟达方案在软件生态及大规模集群稳定性上的顾虑[10] 下游产业链机遇 - 上游芯片厂商的两强相争格局,是下游服务器OEM厂商和系统集成商最渴望看到的生态环境[4] - AMD为满足6GW的庞大交付量,将全力拉动上下游产能爬坡,这为具备全球化交付能力和深厚系统集成底蕴的IT基础设施巨头带来前所未有的增长契机[1][6] - 大多数企业不具备从零搭建、维护数万张GPU集群的工程能力,这为能够提供“交钥匙工程”的系统集成商创造了巨大的市场机会[10][11] 联想集团的战略优势 - 作为AMD历史悠久且级别最高的优先级OEM合作伙伴之一,联想在AMD的产能大爆发中占据得天独厚的优势,能更快、更稳定地获得高端加速卡配额,缓解AI服务器交付的供应链压力[6][8] - 公司有能力复刻其在英伟达Blackwell芯片紧俏时期通过前瞻性研判和囤货保障交付的成功经验,在AMD产能爬坡早期确立交付优势[8] - 联想作为AMD系统集成的顶级专家,拥有从单台服务器到万卡智算中心的完整设计、部署和运维能力,并能通过ODM模式提供深度定制的AI集群服务[11] 技术护城河与多供应商战略 - 6GW算力集群的散热是致命物理问题,传统风冷难以应付,液冷技术成为不可或缺的基础设施[13] - 联想深耕液冷领域十余年,其海神Neptune温水水冷技术能实现极致的PUE,并已具备规模化交付成熟液冷AI集群的能力,形成降维打击优势[13] - 公司坚定推行多供应商策略,与英伟达、AMD、Intel三家芯片巨头保持同等紧密的深度联合研发关系,确保在任何市场格局下都能为客户提供充足且最优的算力组合方案[14] - 公司正从传统服务器制造商向AI基础设施总包商进化,提供包括算力规划、多元异构芯片混编调度、液冷数据中心建设及上层AI软件堆栈在内的全栈式服务[14]
国产AI下一站:生态高墙下,芯片与模型“双向奔赴”
21世纪经济报道· 2026-02-04 20:35
中国AI产业现状与挑战 - 中国AI产业迈入商业验证与规模化应用新阶段,多家企业如智谱华章、MiniMax、天数智芯、壁仞科技密集登陆港交所与科创板 [1] - 在英伟达生态高墙下,国产芯片面临“卡脖子”困境,部分已上市GPU公司股价经历大幅上涨后出现明显回调,反映市场对其商业化路径和长期成长逻辑的审视 [1] - 国产芯片从绝对算力上难以短期追平英伟达,行业转向从系统效率、场景贴合度上寻求超越,强调通过“国产适配”和联合优化提升算力利用效率 [1] 生态困境与“英伟达依赖症” - AI应用层繁荣,千问、智谱GLM、阶跃Step系列等模型在基准测试中与国际顶尖水平并驾齐驱,DeepSeek、豆包等应用日活用户数以千万计,AI快速渗透金融、制造、教育等多个领域 [3] - 算力基石存在“英伟达依赖症”,99%的中国AI应用仍建立在英伟达体系之上,顶尖国产GPU能顺畅支持的模型仅几十到几百个,而Hugging Face上有200万个模型 [3] - 英伟达CUDA生态经过近二十年发展,构建了完整的技术栈并沉淀了海量优化算子、工具链和开发者经验,迁移成本高昂,涉及对整套知识体系、工具习惯和工作流的颠覆 [3] - AI模型架构快速演进,从Transformer到下一代基础架构,芯片设计需具备弹性与前瞻性,否则专用芯片可能面临“刚量产即过时”的风险,英伟达因与全球最前沿模型研发绑定而动作更快 [4][5] - 国产芯片陷入“负向循环”:生态不佳导致用户少,用户少导致反馈迭代慢且难以改善生态,同时出货量有限难以摊薄高昂研发与流片成本,导致芯片单价高、性价比缺乏竞争力 [5] - 许多企业采购国产芯片仍是出于Plan B的考虑 [6] 转型机遇:推理时代与“双向奔赴” - AI算力需求重心正从一次性、集中的“训练”快速转向持续性、分散的“推理”,规模化应用面临实时性、成本与能效的核心挑战 [7] - 燧原科技创始人指出,国产AI芯片厂商面临高端芯片制造和生态两座大山,模型与芯片合作正是解决生态问题的关键 [7] - 对国产芯片而言,推理时代来临打开了差异化竞争的窗口,国产芯片正积极向国内大模型靠近 [7] - 国内大模型公司如DeepSeek已开始走出与美国不同的技术路径,例如MoE架构、专家并行与流水线并行分离的部署方式,这些变化牵引着国产芯片必须第一时间适配 [7] - 模型公司开始主动向国产算力靠近,例如阶跃星辰于去年7月联合近10家芯片及基础设施厂商发起“模芯生态创新联盟”,旨在打通技术壁垒,通过联合优化提升算力利用效率 [8] - 阶跃星辰发布新一代开源Agent基座模型Step 3.5 Flash,华为昇腾、沐曦股份、壁仞科技、燧原科技、天数智芯、阿里平头哥等多家芯片厂商已率先完成适配,通过底层联合创新提升模型适配性和算力效率 [8] 行业参与者的战略路径 - 阿里巴巴通过“通云哥”战略进行垂直整合,已将“真武”PPU大规模用于千问大模型的训练和推理,结合阿里云完整的AI软件栈进行深度优化,以实现架构级统一优化,在效率与成本上构建系统性优势 [9] - 腾讯采取不同策略,自身聚焦“云+模型”,同时通过资本深度绑定和支持像燧原科技这样的专业芯片公司,形成紧密的产业联盟 [9] - 无论是创业公司的场景聚焦与深度协同,还是大厂的全栈整合,共同目标都是降低AI应用成本,实现AI的规模化应用 [10] - 行业面临一场需要时间、协作与战略定力的漫长工程,能否把握场景落地机会,将短期适配转化为长期协同演进机制,将决定未来中国AI算力自主的深度与广度 [10]