AI工厂
搜索文档
英伟达GTC大会全文:黄仁勋宣告推理时代到来,龙虾就是新操作系统
华尔街见闻· 2026-03-17 06:57
公司核心战略与平台优势 - 公司战略围绕三大平台展开:CUDA-X平台、系统平台和全新的AI工厂平台,并强调生态系统的重要性 [1] - 公司是首家垂直整合、同时水平开放的计算公司,通过深入理解应用和算法,为每个垂直领域带来显著加速和成本降低 [9] - 公司拥有庞大的CUDA安装基础,全球有数亿颗运行CUDA的GPU和计算系统,覆盖所有云服务商和计算机厂商,服务于几乎每个行业,这构成了其飞轮效应的基础 [3] - CUDA平台已积累数千种工具、编译器、框架与库,在开源社区有数十万个公开项目,并深度集成至每个主流生态系统 [2] - 庞大的安装基础和持续软件优化使公司架构的计算成本不断下降,同时基础设施拥有极长使用寿命,例如六年前发布的Ampere架构云端定价至今仍在上涨 [3][4] - 公司宣布了与IBM、戴尔、Google Cloud、AWS、Microsoft Azure、CoreWeave、Oracle、Palantir等企业在结构化与非结构化数据平台上的多项重要合作 [11] 技术演进与架构发布 - 今年是CUDA诞生20周年,其基础是革命性的SIMT(单指令多线程)架构,近年来新增了Tiles支持以优化对Tensor Core和AI数学结构的编程 [2] - 公司展示了图形技术的未来——神经渲染(DLSS 5),将可控的3D图形与生成式AI融合,以生成既美观逼真又完全可控的内容 [7] - 公司宣布了下一代架构Vera Rubin,该系统专为Agentic系统设计,采用100%液冷,安装时间从两天缩短至两小时,并使用45°C热水冷却以降低能耗 [19][21] - Vera Rubin系统的核心是全新的Vera CPU,这是全球唯一使用LPDDR5的数据中心CPU,兼具高单线程性能、出色数据处理能力和无与伦比的能效比 [19] - Rubin Ultra采用全新"Kyber"机架,支持144颗GPU构成单一NVLink域,计算节点从正面插入,NVLink交换机从背面连接,构成一台巨型计算机 [22] - 公司发布了技术路线图,包括当前Blackwell(Oberon系统,支持NVLink 72)、Vera Rubin(Kyber机架)、Vera Rubin Ultra以及下一代Feynman架构 [25] - 公司收购了Grok的技术团队并获技术授权,通过开发的Dynamo推理解耦框架,将Grok处理器与Vera Rubin架构耦合,在最具商业价值的服务层级实现性能提升35倍 [22][27] - 全球首款CPO Spectrum-X交换机(共封装光学)已量产,光子直接集成至芯片,该工艺与台积电联合研发 [24] 市场拐点与需求展望 - AI发展经历了从“感知”到“生成”,再到“推理”和“执行”的演进,推理拐点已经到来,AI每次思考、执行、读取、推理都需要进行推断,导致Token生成需求爆炸式增长 [13][14] - 过去两年间,单次工作的计算需求提升了约10,000倍,使用量提升了约100倍,计算总需求的增幅接近100万倍 [14] - 公司对未来的需求展望从去年预测的至2026年约5000亿美元,更新为至少到2027年需求将达到1万亿美元,且确信实际计算需求将远高于此 [15] - 公司业务构成多元化,60%来自五大超大规模云服务商,40%来自区域云、主权云、企业、工业、机器人、边缘和超算等多个领域,这种覆盖本身就是韧性所在 [16] 推理性能与成本优势 - 公司在推理优化上取得根本性突破,从Hopper H200到Grace Blackwell,实际每瓦性能提升达到35倍(有分析指出实际为50倍),远高于摩尔定律预期的约1.5倍 [18] - 极致的性能提升使得公司的每Token成本是全球最低,在吉瓦级数据中心建设成本固定的前提下,安装性能最优的计算系统是实现最低Token成本的关键 [18] - 以Fireworks AI为例,更新软件后,同一套系统的Token速率从约700 tokens/秒提升至近5,000 tokens/秒,提升7倍 [18] - 从Token工厂的商业逻辑看,与Hopper相比,Grace Blackwell在最具商业价值的服务层级,其吞吐量提升了35倍,可将整体数据中心收益提升约5倍 [18] - 在一个吉瓦级AI工厂中,通过架构优化,仅用两年时间Token生成速率将从2200万提升至7亿,提升幅度达350倍 [29] AI工厂与效率提升 - 数据中心正在从存储文件的“数据中心”演变为生产Token的“AI工厂” [40] - 公司创建了英伟达 DSX平台,基于Omniverse,让合作伙伴在虚拟世界中共同设计吉瓦级AI工厂,进行全系统仿真,公司相信该平台能释放约两倍的效率提升 [29] - 公司还将进军太空,Thor芯片已通过辐射认证部署于卫星,并正与合作伙伴开发Vera Rubin Space-1,以在太空中建设数据中心 [29] Agentic AI 与 OpenClaw - OpenClaw成为一个重大新发现,它是一个Agentic系统,能连接大型语言模型、访问工具和文件系统、执行调度、分解任务、生成子Agent并支持多模态交互,本质上是Agentic计算机的操作系统 [30][33] - 企业IT正经历范式转变,旧模式是数据中心存储文件供人类使用软件工具,新模式是每一家SaaS公司都将成为提供专业化Agent服务的AaaS(Agentic as a Service)公司 [30] - 针对企业级Agentic系统的安全挑战,公司与OpenClaw开发者合作,推出了企业级安全的参考架构NemoClaw [31] - 公司宣布成立Nemotron联盟,与BlackForest Labs、Cursor、LangChain、Mistral、Perplexity、Reflection、Sarvam、Thinking Machines等公司合作,共同打造Nemotron 4模型,并将NemoClaw等工具深度集成到各自产品中 [34][37] 物理AI、机器人及行业应用 - 公司长期致力于物理AI与机器人领域,为机器人系统打造了三台关键计算机:训练计算机、合成数据生成与仿真计算机、机器人本体内置计算机 [35][38] - 自动驾驶的“ChatGPT时刻”已经到来,公司宣布新增比亚迪、现代、日产、吉利四家RoboTaxi合作伙伴,加上之前的奔驰、丰田、通用,每年合计生产1800万辆汽车将接入其RoboTaxi Ready平台,并与Uber达成重大合作 [35] - 在工业机器人领域,公司与ABB、Universal Robots、KUKA及卡特彼勒等合作,将物理AI模型与仿真系统整合部署至全球制造产线 [35] - 在电信领域,未来的无线基站将演变为英伟达 Aerial AI RAN,能够动态推理流量、自适应调整波束赋形,在提升信号质量的同时显著节省能耗 [35] - 公司展示了与迪士尼联合开发的“奥拉夫”机器人,基于Jetson计算平台和Omniverse训练环境,实现了真实物理世界中的自适应运动 [36] - 公司的生态系统覆盖多个垂直领域,包括自动驾驶、金融服务、医疗健康、工业制造、娱乐与游戏、机器人(110台机器人参展)以及电信(约2万亿美元规模)等 [12] 软件、模型与生态系统更新 - 本届GTC大会上,公司宣布了100个库和约40个模型的更新,这些库是公司的核心资产 [10] - 其中最重要的库之一是cuDNN(CUDA深度神经网络库),它被指出彻底革命性地改变了人工智能,点燃了现代AI的大爆炸 [10] - 公司创建了用于加速结构化数据的数据框(Data Frame)的基础库cuDF,以及用于加速非结构化AI数据的向量存储(Vector Store)的基础库cuVS [9][11] - 公司已在每个AI领域的前沿模型上确立领导地位,包括Nemotron(大型语言模型)、Cosmos(世界基础模型)、GROOT(通用机器人模型)、Alpamayo(自动驾驶)、BioNeMo(数字生物学/药物发现)、PhysicsNeMo(AI物理仿真)等 [34]
聚焦Rubin落地、Feynman前瞻与基础设施重构:英伟达GTC前瞻与基础设施重构
国泰海通证券· 2026-03-11 22:11
报告行业投资评级 - 行业投资评级:增持 [1] 报告核心观点 - 本次GTC 2026的核心看点不在于单一芯片参数刷新,而在于英伟达能否通过Rubin平台量产落地、Feynman架构前瞻以及光互联、供电与液冷一体化升级,推动AI产业从“购买GPU”迈向“部署AI工厂”的新阶段 [3] - 2026年GTC最值得关注的并非某颗芯片的参数刷新,而是英伟达是否会通过Rubin的系统化落地、Feynman的路线图释放,以及光互联、供电和液冷一体化升级,正式把行业推进到“部署AI工厂”的新阶段 [6][28] 根据目录总结 1. Rubin平台的量产兑现与系统化落地 - Rubin平台已不再只是单颗GPU产品,而是由CPU、GPU、互联、网络和系统组件共同构成的集成式AI超算平台,其核心目标是通过系统级整合降低token成本,并压缩大规模MoE训练和推理所需的GPU占用规模 [6][10] - 英伟达正在把AI基础设施的交付单位从板卡提升到整柜系统,市场关注点正从单卡参数转向机柜级和机架级形态,如NVL72、NVL144和NVL576等rack-scale配置 [6][11] - 随着Vera Rubin平台在CES 2026上确认进入量产阶段,本次GTC很可能揭晓其强化版——Rubin Ultra,一个Rubin Ultra机柜将集成144颗GPU,构建高达**1.5PB/s**的Scale-up网络,单颗芯片双向互联带宽达到**10.8TB/s** [6][15] - 为实现高密度互联,Rubin或将采用双层网络拓扑结构,并在机柜内部实现“光进铜退” [6][16] - Rubin平台开始推动推理基础设施从统一GPU池走向更细分的分层优化,例如Rubin CPX被定义为面向massive-context inference的GPU类别,Vera Rubin NVL144 CPX单机柜可实现约**8 exaflops** AI性能、**100TB** fast memory以及**1.7PB/s**带宽 [18] 2. Feynman架构的前瞻披露与后Rubin时代的推理路线 - Feynman架构的前瞻披露预计将构成大会最具战略意义的看点,其价值在于向市场说明英伟达如何理解后Rubin时代的AI计算需求 [6][19] - Feynman可能成为首批采用台积电A16工艺的芯片,并首次集成Groq的LPU硬件栈,其生产预计在2028年启动,客户出货可能落在2029至2030年 [6][20] - Feynman可能引入以SRAM为核心的广泛集成或3D堆叠技术,单芯片功耗预计将突破**5000W** [6][20] - 英伟达可能会展示一款整合了Groq“语言处理单元”技术的新推理芯片,旨在满足市场对高效能、低成本推理方案的需求,Groq LPU路径更适合实时语音、交互式Agent等对响应时间高度敏感的场景 [6][21][23] 3. 光互联、供电与液冷共同驱动的数据中心基础设施重构 - 在互联层面,CPO与硅光正成为超大规模AI系统的重要方向,未来数据中心内部将逐步从传统铜互联走向更高带宽密度、更低损耗的光连接体系 [6][25] - 本届GTC被视为CPO商业化落地的关键里程碑,Rubin Ultra被普遍视为“光入柜内”的关键节点,光互联将进入机柜内部和scale-up路径 [25] - 在供电层面,Rubin单芯片功耗将超过**2000W**,Feynman目标功耗将超过**5000W**,800V高压直流供电被视为未来主电源的重要发展方向 [6][26] - 在散热层面,风冷正失去对超高功耗算力平台的适应性,液冷将从可选方案转向标准配置,并带动冷板、热界面材料和机柜级液冷系统同步升级 [6][27] - 液冷技术迭代重点指向散热材料和热界面材料升级,例如冷板从传统铜材升级到铜合金甚至金刚石相关材料,热界面材料方面液态金属和金刚石散热片是重要方向 [27]
中兴通讯(00763):MWC26展示算力战略成果,公司有望受益超节点产业趋势
东北证券· 2026-03-06 15:03
报告投资评级 - 首次覆盖给予“增持”评级 [3][5] 报告核心观点 - 公司在MWC26上展示了“连接+算力”战略升级成果,并发布《超节点技术白皮书》,提出以“超节点”为核心打造标准化“AI工厂”的战略构想,有望受益于超节点产业趋势 [1] - 公司是具备“连接+算力”全栈能力的国产ICT龙头,作为具备自研交换芯片能力的设备商,有望深度受益于超节点渗透率提升带来的交换芯片市场扩容红利 [3] - 2025年前三季度公司营收1,005亿元,同比增长11.63% [1] 政企业务成为核心增长引擎,2025年上半年营收192.5亿元,同比大幅增长110% [2] 业务表现与发展 - **政企业务**:2025年上半年营收192.5亿元,同比+110% [2] 全系列智算服务器获头部互联网公司规模订单,数据中心交换机以综合排名第一中标中国移动集采,并以第一名中标国有大行项目 [2] - **运营商网络**:在京津冀、和林格尔、中卫等“东数西算”核心节点实现大规模数据中心落地 [2] - **消费者业务**:家庭智能终端年发货量连续两年突破1亿只,移动互联产品5G FWA & MBB的市场份额连续四年全球第一 [2] 技术战略与创新 - **超节点“AI工厂”方案**:发布《超节点技术白皮书》,提出从单芯片堆叠向系统级协同转型,通过高速互联协议构建高带宽域(HBD) [2] - **硬件创新**:自研OEX正交无背板互联架构采用“零线缆”设计,单机柜支持128个GPU,配合自研“凌云”交换芯片,支持TB级互联带宽与百纳秒级时延 [2] - **软件创新**:通过统一虚拟化与智能编排,支持算力从百卡到万卡平滑扩展 [2] 行业趋势与市场机遇 - **超节点重塑算力架构**:AI算力集群向超节点形态演进,Scale-up Switch理论需求可达Scale-out架构近40倍 [3] - **交换芯片需求爆发**:以华为Atlas 950超节点(8192卡)为例,部署超9000颗LRS与500颗HRS交换芯片,交换芯片与GPU比例超过1:1 [3] 在国产化路径下,受限于制程短板,大幅增加交换芯片数量来换取系统级带宽成为必选项 [3] 财务预测与估值 - **盈利预测**:预计公司2025-2027年归母净利润分别为77.12亿元、88.17亿元、108.51亿元 [3] - **营收预测**:预计2025-2027年营业收入分别为1,385.20亿元、1,562.37亿元、1,737.20亿元,同比增长率分别为14.20%、12.79%、11.19% [4] - **估值指标**:对应2025-2027年市盈率(PE)分别为14.16倍、12.38倍、10.06倍 [3][4] - **关键财务比率**:预计2025-2027年毛利率分别为36.2%、35.2%、34.6%,净资产收益率(ROE)分别为9.58%、9.88%、10.85% [10]
半夜11点、5杯酒下肚,黄仁勋“吐真言”:“写代码只是打字,已经不值钱了”
36氪· 2026-02-06 21:05
AI计算范式的根本性转变 - 公司认为当前正在经历60年来第一次真正重新发明计算,核心是从“显式编程”转向“隐式编程”,即从需要一行行写代码转变为只需向计算机陈述意图 [6] - 计算堆栈的各个层面,包括处理、存储、网络和安全,都在被重新定义,这不仅仅是处理器层面的变革 [6] - 软件形态将从过去的“预录制”(基于检索)彻底转变为“生成式”,每个软件实例都将是基于独特语境实时生成的 [25][28] AI技术发展的现状与未来 - 当前基于提示词生成回复的聊天机器人被认为“有趣但不真正有用”,真正的智能在于解决问题,这需要具备知道自己不知道什么、进行推理、制定策略和使用工具等能力 [6][7] - 智能体AI是发展方向,其关键要素包括工具使用、研究能力、基于事实的检索增强生成和记忆能力 [7] - 下一代物理AI需要理解物理世界和因果关系,这是当前大语言模型尚未具备的能力 [31] - 自监督学习的突破是模型规模能从几亿参数爆炸式增长至几万亿参数的关键,使得AI能够编码海量知识和技能 [24] 企业拥抱AI的战略与建议 - 建议企业在部署AI初期不要急于计算投资回报率,而应鼓励内部“百花齐放”,安全地进行大量实验和创新 [17] - 企业应首先识别并聚焦于公司最具影响力的核心工作,并为其赋予“无限”的能力和“光速”的效率 [17][21] - 企业需要建立“AI思维”,即假设技术工具拥有无限速度,并以此重新思考所有业务流程和问题解决方式 [20] - 最终企业需要从“百花齐放”阶段进入“修剪花园”阶段,筛选出最佳方法和平台并集中资源,但不宜过早孤注一掷 [18] AI带来的行业机遇与市场重塑 - AI创造了从制造“工具”到创造“劳动力”或“增强型劳动力”的历史性机遇,其潜在市场总量可能比传统IT产业大100倍 [31] - 全球经济规模约为100万亿美元,而全球IT产业规模约为1万亿美元,AI技术有潜力帮助各行业公司转型为技术公司,从而切入更大的经济蛋糕 [31] - 所有行业公司都有机会通过应用AI技术转型为“技术优先”的公司,技术成为其超级力量,而行业知识则是技术的应用场景 [32] 编程与软件行业价值的重新定义 - 编程(写代码)的本质被描述为“打字”,而打字正在成为一种廉价商品,其价值在贬值 [33] - 企业真正的价值在于其领域专长、对客户和问题的理解,以及提出正确问题的能力,这些是AI无法替代的终极价值 [33][36] - 未来的编程语言将是人类的自然语言,企业可以用自己的语言向计算机解释意图,从而摆脱对大量传统软件工程师的依赖 [33] 企业AI基础设施的部署考量 - 建议企业亲手构建或深入了解AI计算基础设施,就像组装电脑一样,这对于理解技术至关重要,而非完全依赖租赁 [35] - 出于数据主权、隐私和对敏感信息的保护,企业的部分AI能力应该建立在本地,而非全部置于云端 [35] - 公司最有价值的知识产权可能不是答案,而是所提出的问题,因此保护内部的思考和问题至关重要,这强化了本地部署的必要性 [36] 组织与AI关系的未来愿景 - 未来的范式不是“人在环节中”,而是“AI在环节中”,AI将融入业务流程,持续捕捉和积累公司的经验与知识 [36] - 未来每位员工都将有AI辅助,这些AI将成为公司核心的知识产权和竞争力所在 [36] - 公司与思科的合作旨在将AI的极致性能与企业所需的可控性、安全性和易管理性相结合,以推动企业级AI的落地 [16]
英伟达的“非典型”市场战法:画饼、结盟与培育嫡系
半导体芯闻· 2026-01-22 18:39
公司业绩与市场地位 - 2025年10月GTC大会后,公司市值一度突破5万亿美元,成为全球首个突破5万亿美元的上市公司 [1] - 2024财年营业收入为609.2亿美元,同比增长126% [1] - 2025财年前三季度营收已达910亿美元,市场预期全年突破1,300亿美元,同比增长113% [1] 核心市场策略与创新战法 - 核心市场策略包括:率先布局前沿热点大赛道;提炼客户创新理念推广为市场发展理念;构建合作伙伴、直销、分销三重销售网络;在数据中心等赛道用资金和技术培育初创企业 [1] - 采取“非典型”创新战法,包括为客户“画饼”构建新赛道、与竞争对手“结盟”、培养“嫡系”客户等 [1] 先发布局主流热点前沿大赛道 - 公司先发布局并全面覆盖自动驾驶、机器人、边缘AI、6G、数字孪生、量子计算等主流、热点、前沿大赛道,实现对竞争对手的“降维竞争” [2] - 在6G领域,与诺基亚合作计划在每个基站内部署边缘计算机 [2] - 在量子计算领域,推出NVQLink技术,实现量子处理器QPU与GPU的高速互联 [2] - 在自动驾驶出租车领域,与Uber合作,计划从2027年起采用DRIVE Hyperion 10平台部署10万辆L4级Robotaxi [2] 构建下游发展愿景与创造增量赛道 - 提出“AI工厂”概念,引导客户智能化转型,为自身业务创造新赛道 [3] - 将自身定位为AI基础设施供应商,提供从GPU硬件、互联网络、AI操作系统到软件平台、行业工具的完整解决方案 [3] - 锚定个别客户(如马斯克)的创新理念,提炼并推广为整个下游市场的发展蓝图 [4] - 引用黄仁勋观点:每一家制造机器的企业都将有两个工厂,一个是生产机器的工厂,另一个是“AI工厂”,特斯拉是早期范例 [4] 构建高效、全面、重点突出的销售体系 - 销售体系目标是快速、全面、突出重点地覆盖客户,包括合作伙伴网络、直销渠道和分销零售渠道三大销售渠道 [6] - 合作伙伴网络细分为云服务渠道(如AWS、Azure、谷歌云、阿里云)、硬件渠道(ODM/OEM厂商、系统集成商)和软件渠道(解决方案提供商、ISV) [7] - 协同逻辑:借助合作伙伴网络快速打开市场;与大客户建立直销渠道提供“一对一”支持;以分销零售渠道作为补充实现全面覆盖 [6] 与竞争对手结盟以获取客户渠道 - 通过战略合作与竞争对手“结盟”,形成优势互补,补充客户资源,抢占渠道先机 [9] - 2025年9月与英特尔宣布达成50亿美元战略投资合作,以50亿美元持有英特尔4%股份,成为其第四大股东 [9][10] - 合作中,英特尔负责为英伟达定制x86 CPU和销售,英伟达提供GPU和AI软件栈,通过NVLink实现CPU与GPU无缝互连 [10] - 借助英特尔x86生态(占据全球服务器CPU市场62%份额)快速切入企业级市场,预计合作将创造250-500亿美元的新增市场机会 [10] 用资金和技术培养“嫡系”客户 - 为应对来自谷歌、亚马逊等大客户的竞争,公司扶持初创企业以巩固市场、制衡大客户话语权 [11] - 资金方面,通过“以投带采”等“循环式”财务安排扶持小客户,例如云服务商CoreWeave在2024年收入达19.2亿美元,同比增长约700% [11] - 技术方面,为小客户提供最新技术(如Spectrum-X以太网技术),使其获得市场竞争优势,同时形成“鲶鱼效应”倒逼大客户 [12] - 广泛复制该模式:2025年9月宣布未来12个月向20家AI初创或数据中心开发商投入129亿美元,要求获投企业3年内至少将资本性支出的70%用于采购英伟达产品 [12] - 模式复用到自动驾驶等成熟赛道,例如投资自动驾驶公司WeRide以获取其车队GPU独家供应权 [12]
炸锅!冯德莱恩宣言:旧秩序已死,欧洲从此不再听从美国指挥!
搜狐财经· 2026-01-22 09:51
地缘政治与贸易冲突 - 欧盟主席冯德莱恩在达沃斯论坛上公开反对美国对欧洲盟友施加关税压力 其表态被解读为欧盟不愿再遵从美国主导的旧秩序 [1] - 美国计划自2月1日起对丹麦 挪威 德国 法国等八国出口美国的商品加征10%关税 并计划在6月1日提升至25% 以此施压要求欧洲同意将格陵兰岛“卖给”美国 [1] - 欧盟内部对如何回应美国存在分歧 法国主张使用“反胁迫工具”对美国农产品和化妆品加征关税 而北欧国家担心贸易战影响本国三文鱼和木材出口 主张先谈判 [3] 欧盟的战略自主举措 - 欧盟在格陵兰岛主权问题上支持丹麦 并计划通过投资升级港口 机场和数字基础设施来加强格陵兰与欧洲的经济联系 [3] - 欧盟计划联合英国 加拿大 挪威和冰岛组建“北极安全”联盟 自行建造破冰船和部署雷达 减少对美国舰队的依赖 [3] - 欧盟计划通过签署更多自由贸易协定来分散风险 点名南美 印度 印尼和墨西哥 其中与印度拖延七年的自贸协定有望在月底推动达成 该市场覆盖全球15%的人口 [5] - 欧盟委员会将公布“脱碳与竞争力联合计划” 核心包括电网互联 发展本土绿氢 延长核电寿命 旨在将电价降至低于美国天然气价格的水平 以阻止欧洲工厂外迁至美国得克萨斯州等地 [5] - 欧盟将在今年秋季发布的安全战略中为北极单列一章 并计划增加军费 合并军工企业 加速破冰船研发 以实现“别人不给的 我们自己造”的目标 [5] 市场与行业影响 - 欧洲企业代表对欧盟的强硬表态持观望态度 认为方向明确但资金尚未到位 未来北极事务将优先由欧盟处理而非依赖美国 [3] - 在冯德莱恩演讲后 欧洲股票指数未出现明显涨跌 市场正在等待1月22日欧盟紧急峰会的细节以做出进一步反应 [7] - 欧盟的系列举措标志着其“战略自主”从概念进入实质推进阶段 [7]
共荣共生,联想与英伟达跨周期合作30年
格隆汇· 2026-01-09 15:35
文章核心观点 - 联想与英伟达长达30年的合作关系,正从PC时代的硬件采购与集成,演进至AI时代共同构建“AI工厂”的全栈创新,旨在重写全球计算基础设施的底层逻辑 [2] - 双方的合作关系跨越了从PC革命到AI爆发的多个科技周期,是一种基于技术互补与长期信任的共生关系,并将在AI基础设施时代定义新的产业格局 [2][13] PC时代合作溯源与早期共赢 - 双方合作始于90年代中后期,早期是基于显卡组件的采购与集成,联想在其高端台式机和ThinkPad工作站中引入英伟达独立显卡,形成了CPU+GPU的异构计算雏形 [4] - 合作带来商业共赢:英伟达GPU帮助联想PC(尤其是游戏和多媒体应用)提升销量并实现产品差异化;联想则帮助英伟达快速进入中国市场,并借助其制造规模和渠道助力英伟达实现营收指数级增长 [5] - 2005年联想收购IBM PC业务后成为全球第三大PC厂商,进一步强化合作,在ThinkPad移动工作站引入Quadro专业显卡,消费产品普及GeForce,此时英伟达市值突破300亿美元 [5] 专业计算与高性能计算(HPC)领域的深化 - 2010年代起,双方合作从标准化硬件买卖发生质变,扩展到高性能计算领域,联想构建的超级计算机(如Top500榜单中的系统)显著采用英伟达GPU作为关键加速器 [7] - 在消费端,双方工程团队深度协作,于2020年在Legion 7i笔记本上首发联合开发的Advanced Optimus技术,解决了高性能独显与集成显卡无缝热切换的行业痛点 [7] - 在专业领域,联想的ThinkStation工作站成为英伟达Quadro专业显卡的主要载体,广泛应用于全球创意产业,此阶段合作让联想进化为驾驭复杂热管理和系统集成的大师 [7][8] AI时代的全面跃迁与“AI工厂”愿景 - 生成式AI爆发后,英伟达GPU(如H100、Blackwell)成为核心算力,而联想布局多年的Neptune液冷技术成为解决其恐怖散热问题的关键 [10] - 具体合作成果包括:2023年交付给纽约Flatiron研究所的Henri系统(采用英伟达H100 GPU)登顶Green500能效榜首;2025年在德国达姆施塔特工业大学部署Lichtenberg II液冷集群用于科研 [10] - 在CES 2026上,双方宣布共建“联想人工智能云超级工厂”,将集成英伟达最新Vera Rubin芯片,旨在帮助云服务提供商极大缩短AI部署时间(“time to first token”),并支持规模迅速扩展至十万枚GPU,以运行万亿参数级别的模型 [11] - 凭借联想的端到端能力,该合作将帮助企业在生产环境中真正信赖并应用AI,双方计划在未来3-4年内使业务合作规模翻四番 [12] 合作关系的本质与行业意义 - 合作关系是极佳的互补:英伟达负责定义计算边界并推出更强算力芯片,联想负责通过工程设计、制造规模和全球供应链解决计算落地问题,将芯片转化为生产力 [12] - 这段跨越30年的伙伴关系,源于技术互补与长期积累的信任,不仅将带来巨大的商业成功,还将加速AI从云端走向边缘和千行百业 [12][13] - 双方的合作展示了科技界一种跨越周期的共生关系,并成为从PC到AI超级计算产业迁移的缩影和经典篇章 [2][13]
黄仁勋CES回应全场!内存卡了GPU脖子,游戏玩家可能只能用旧显卡了
量子位· 2026-01-07 17:11
黄仁勋在CES 2026的核心观点与行业洞察 - 英伟达CEO黄仁勋在CES 2026的核心主题围绕“物理AI”展开,包括机器人和自动驾驶,并提出了“机器人是AI移民”以解决人口结构问题并推动经济增长的观点 [10] - 黄仁勋将AI基础设施定位为前所未有的“AI工厂”,认为其需求是新型基础设施建设,持续将电力、芯片和数据转化为智能产出 [35] 机器人产业的展望与进展 - 从人口结构看,现有经济规模难以为继,需要“AI新移民”(机器人)来承担人类不愿从事的工作,以推动经济发展并创造更多就业 [10][11] - 预计在“今年内”(指2026年),将能看到在移动能力、关节活动度与精细动作技能上达到人类水平的机器人 [12] - 当前机器人主要依赖视觉,但实现精细动作需要触觉能力,这是行业正在积极推进技术突破的难点 [13] 自动驾驶战略与行业定位 - 英伟达发布了全球首款开源、大规模的自动驾驶视觉-语言-行动推理模型Alpamayo 1 [15] - 英伟达与特斯拉FSD的核心区别在于定位:英伟达不生产自动驾驶汽车,而是为全行业提供完整的技术栈与解决方案 [16] - 公司为自动驾驶领域打造了三大核心计算平台(训练、仿真、车载)及完整软件栈,客户可灵活选用 [17][18] - 英伟达的客户遍及行业上下游,包括特斯拉、Waymo、小鹏汽车、Nuro、Lucid和Uber等,系统具有极高的行业渗透率 [19] - 全球道路上有超过10亿辆汽车,未来10年将有数亿辆具备强大自动驾驶能力,该领域可能成为未来十年规模最大、增长最快的科技产业之一 [20] - 公司奉行全面开源策略,旨在赋能全球自动驾驶产业,目标是让所有具备移动能力的载具实现自动驾驶 [22] 游戏显卡与消费级市场的策略 - 在CES 2026上,英伟达未发布消费级游戏显卡,当前DDR5内存和SSD价格暴涨,部分渠道RTX 5090售价逼近4000美元,显卡价格遭受成本上升与供应紧张的双重挤压 [25] - 针对增加旧款显卡产量以应对市场情况的方案,黄仁勋回应“有这种可能”,并考虑将最新AI技术移植到上一代GPU产品中 [25][26] - 重启旧产线需权衡研发成本,例如最新的DLSS 4.5会导致旧款显卡性能大幅下降,实现兼容需要投入相当多的工程资源 [27] - AMD高管也透露,公司正在研究所有可行方案以增加供应,考虑将部分产品重新引入旧的AM4生态系统 [29] 游戏图形技术的未来方向 - 英伟达在CES 2026上推出了全新的DLSS 4.5版本和增强版多帧生成模型 [31] - 黄仁勋认为图形技术的未来方向是神经渲染(本质即DLSS),未来将能以每秒500帧的速度生成从写实到卡通渲染的任何风格图像 [31] - 未来的渲染方式可能是在更少但质量极高的像素上执行更多AI运算 [32] - 未来的视频游戏将充满AI角色,每个角色都拥有自己的AI并通过AI进行动画驱动,游戏真实感将在未来几年大幅跃升 [32] AI基础设施与内存供应链 - 黄仁勋指出,现有高带宽内存容量远不足以支撑GPU运行需求,内存瓶颈问题只会愈发严重 [36] - 英伟达是横跨HBM、GDDR与LPDDR的关键需求引擎,也是全球首家且在短期内几乎是唯一的HBM4主要用户 [36] - 公司已与主要内存供应商建立高度紧密的规划机制,直接协同规划产能以确保新产品量产节奏,各家HBM供应商正在为英伟达全面扩产 [36] 其他业务合作与个人动态 - 黄仁勋在CES后出席了联想Tech World活动,双方共同宣布“联想人工智能云超级工厂”,英伟达最新发布的Vera Rubin超算平台将是该合作的重要组成部分 [6] - 黄仁勋在IEEE颁奖现场领取了2026年IEEE荣誉奖章,以表彰其领先行业数十年的前瞻布局能力和对创新的坚持 [7][8]
黄仁勋回应能源问题:效率才是关键
第一财经· 2026-01-07 08:18
公司战略与产品性能 - 英伟达首席执行官强调,公司持续追求的目标是实现“每美元生成1个token”的能源效率 [1] - 英伟达每一代新产品的吞吐量提升10倍,但功耗仅增加2倍,体现了能源效率的显著提升 [1] 行业趋势与驱动力 - AI工厂的发展需要消耗大量能源,包括天然气和可再生能源等 [1] - 在人工智能领域,能源效率被视作关键因素 [1] 商业价值与客户关系 - 数据中心的能源效率直接关系到客户的收入,因为在相同的电力消耗下,更高的效率能生成更多的tokens,从而直接转化为更高的营收 [1] - 公司将能源效率与商业价值直接挂钩 [1]
DeepMind内部视角揭秘,Scaling Law没死,算力即一切
36氪· 2025-12-31 20:44
文章核心观点 - 文章核心观点认为,Scaling Law(规模定律)不仅没有失效,而且正在从单纯的参数堆叠向更全面的维度演化,是驱动人工智能(AI)向通用人工智能(AGI)发展的核心动力,当前AGI的发展才刚刚开始[7][9][12][46] 行业领袖观点与分歧 - OpenAI的Sam Altman预言,公司已经知道如何构建AGI,预计2026年将出现能够产生原创见解的系统,并认为智能成本将随着电力自动化生产趋近于零[1] - NVIDIA的黄仁勋指出,AI发展的瓶颈已从想象力转向电力,未来规模定律的焦点将是实现推理效率10万倍的飞跃[3] - Meta前首席科学家Yann LeCun则认为,大型语言模型(LLM)是通往AGI的死胡同,因其缺乏世界模型[5] Scaling Law的持续有效性与演化 - 历史数据显示,过去十五年用于训练AI模型的算力以每年四到五倍的速度增长,这种指数级增长在技术史上罕见[12] - 实证研究表明,AI性能与算力投入之间存在明确的幂律关系,性能提升与算力的0.35次方成正比,即算力投入增加10倍可带来约3倍的性能增益,增加1000倍可带来10倍的性能提升[13][15] - 规模定律在2025年已从单一的“预训练Scaling”演化为四个维度的全面扩展,包括预训练、后训练(强化学习对齐)、推理时(延长思考)和上下文(超长记忆)Scaling[17][18][19][20] - 算力的增长不仅带来定量性能提升,更能诱发不可预测的定性跃迁和“涌现能力”,如逻辑推理和复杂指令遵循[16] 算力的核心地位与“苦涩的教训” - 在DeepMind的具身智能实验中发现,将算力投入增加一千倍后,原本需要复杂算法优化的问题被直接解决,这验证了Richard Sutton“苦涩的教训”:通用算力方法终将胜过人类的特定技巧[9][23][24] - 这种认知转变使行业焦点从“问题能否解决”转向“解决问题需要多少算力”,并驱动了对数据中心远超阿波罗计划规模的重金投资[24] 硬件基础设施的发展与挑战 - AI发展已进入“重工业”阶段,其核心是“AI工厂”,即土地、能源和定制芯片的终极整合[27] - NVIDIA的GB200 NVL72系统将72颗GPU互联,使万亿参数模型的推理速度比H100提升30倍[28] - Blackwell Ultra芯片将单芯片显存推至288GB,使3000亿参数以上的模型无需显存卸载即可完整驻留,对长上下文和高并发推理至关重要[30] - 硬件发展面临物理极限挑战,单芯片功耗逼近1000W,迫使行业全面转向液冷散热方案[31] - 为维持规模定律,谷歌基础设施高管指出,必须每六个月将算力翻倍,并在未来4-5年内实现1000倍的增长[33] - 2025年上半年,AI数据中心投资占据了美国GDP增长的90%以上[34] 具身智能与Agent的进展 - DeepMind的SIMA 2项目在2025年实现了从“理解”到“行动”的跨越,它是一个通过观察像素和操作键盘鼠标在3D虚拟世界中行动的通用具身智能体[35][37] - SIMA 2具备强泛化能力,其技能可迁移到不同数字环境,并能通过与基础模型结合实现自主生成任务、自我设定奖励的“自我进化”[37] 智能能力的量化加速与AGI前景 - 根据METR时间跨度图评估,AI稳定完成人类任务的时间从两年前的9分钟跃升至2025年底的4小时以上[41] - 按当前扩展趋势预测,到2028年,AI有望独立完成人类专家需要数周才能完成的复杂任务[41] - 尽管已出现能在国际数学奥林匹克竞赛夺金的模型和自主3D世界Agent,但行业认为AGI发展仍处早期,受困于电力瓶颈、数据采集效率和推理成本等问题[42] - DeepMind已成立“后AGI”团队,旨在前瞻性地管理自主进化、具有“不可解释性”的智能体,并思考智能成本趋近于零后的人类价值重构[43]