加速计算
搜索文档
黄仁勋谈英伟达与Marvell20亿美元合作
阿尔法工场研究院· 2026-04-07 17:33
合作的核心内容与目标 - 英伟达与Marvell宣布了一项价值20亿美元的合作,聚焦于硅光子技术,旨在扩展AI生态系统并推动企业AI转型[1] - 合作的核心是扩展英伟达的AI生态系统,特别是在数据中心领域,以涵盖半定制ASIC(专用集成电路)[1] - 通过将Marvell的半定制芯片与英伟达的Grace Blackwell、Vera Rubin系统以及NVLink等技术连接,为客户提供更灵活的设备选择方案[1] - 合作旨在增强客户选择与互操作性,并共同扩大总体可寻址市场(TAM)[1] 对行业趋势与拐点的判断 - 英伟达CEO认为,此次合作标志着AI的拐点已经到来,世界正在进行一场平台转型,所有数据中心都将被“加速计算”所取代[1] - 当前正处于企业AI的拐点,所有未来的企业软件都将被“代币”(token)增强,这意味着数万亿美元的企业软件支出将发生转变[2] - 企业软件未来的毛利率可能会降低,但其市场总量(TAM)将变得“大得多”[2] 未来的增长机遇与市场扩展 - 此次合作将把英伟达的AI生态系统从云数据中心扩展到全球电信AI基站网络,将未来的基站转变为AI基础设施的一部分[1] - 未来的基站将能够在站内直接运行AI模型,这被视为一个激动人心的未来增长机会[1] - 公司预计其数据中心业务在未来几年将以超过40%的年复合增长率持续增长[2] - 公司不仅在头部云服务商(如AWS将采购百万GPU)中业务加速,来自企业、工业、自动驾驶、机器人等“物理AI”领域的业务也增长迅猛,目前已占公司业务的40%左右[2] 公司当前业绩与需求状况 - 公司刚刚度过了有史以来最好的一个财季,需求依然非常强劲[2]
黄仁勋获imec 2026年度终身成就奖
半导体芯闻· 2026-03-27 18:26
文章核心观点 - 比利时微电子研究中心(imec)将2026年终身创新奖授予英伟达创始人兼首席执行官黄仁勋,以表彰其在加速计算和人工智能领域的颠覆性贡献,特别是图形处理器(GPU)的发明及其对现代计算产业的深远影响 [1][2] 奖项与荣誉 - imec终身创新奖旨在表彰对科技与创新领域做出颠覆性贡献的杰出人士,每年颁发一次 [2] - 黄仁勋因其在加速计算技术落地、赋能全行业人工智能应用中的关键作用而获奖,颁奖典礼定于2026年5月19日在比利时安特卫普举行 [1] - 2016年该奖项曾授予英特尔联合创始人、摩尔定律提出者戈登·摩尔博士,黄仁勋是时隔十年后的又一位获奖者 [2][3] 黄仁勋与英伟达的成就 - 黄仁勋于1993年创立英伟达并一直担任公司领导职务,1999年公司推出可编程图形处理器,奠定了现代计算机图形学基础并彻底革新了并行计算领域 [1] - GPU的发明最初为游戏市场打造,现已成为加速计算与人工智能全新算力范式的基石,是计算机、人形机器人、自动驾驶汽车感知和理解现实世界的核心“大脑” [1][2] - 依托GPU实现的深度学习技术催生了现代人工智能浪潮,黄仁勋的科研成果与领导力重塑了计算产业、开启了人工智能时代 [1][2] 行业影响与未来展望 - imec首席执行官认为,未来除了制程尺寸微缩,全系统堆栈协同优化才是发展方向,需要联动英伟达等系统厂商,凝聚整个半导体生态的核心力量以抓住下一代人工智能机遇 [3] - 黄仁勋表示,英伟达的成就离不开imec等先锋机构奠定的根基以及半导体行业底层的技术突破,荣誉属于全球科研工作者、工程师与创新者 [3] - 黄仁勋在创立英伟达前曾任职于LSI逻辑公司和AMD,拥有俄勒冈州立大学电气工程学士学位和斯坦福大学电气工程硕士学位,并已斩获包括半导体行业协会罗伯特·诺伊斯奖、IEEE创始人奖章在内的多项全球重磅荣誉 [3]
英伟达改卖Token?黄仁勋GTC后发声:token就是AI新通货,值钱的不是算力,是“每度电的智商”
AI前线· 2026-03-18 19:37
公司战略定位与愿景 - 公司强调其本质是一家加速计算公司,而非单纯的GPU公司 [2] - 公司的目标是从算力平台演进为“全栈世界引擎”,通过垂直整合和协同设计,将整个软件世界加速后交给AI使用 [12][16][20][24] - 公司的核心方法是先垂直整合地做出一整套解决方案,再进行水平开放,让生态伙伴按需使用其部分或全部技术栈 [114][116] AI竞赛与行业瓶颈演变 - AI竞赛的焦点已从比拼算力转向比拼产出,核心衡量标准是能否快速、低成本地生成高质量结果 [4] - AI发展的瓶颈已从单一的计算环节,扩展到数据搬运、内存、网络和推理等全链路,任何一环的延迟都会制约最终产出 [4][5][24] - 衡量AI产出的核心单位是token,其价值取决于生成它的模型的“聪明”程度,即用更少token给出更准确、有用结果的能力 [7][8] 技术架构与产品布局演进 - 下一代AI推理将走向GPU与LPU(如收购的Groq)的混合架构,旨在解决极低延迟下的token生成问题,而非替代GPU [9][10][70] - Transformer架构在长记忆、处理物理规律和连续任务上存在不足,下一代模型需要混合架构(如Transformer + SSM)和具备几何感知等能力的新模型 [24][32][33][35] - 公司通过“解耦推理”策略,将推理任务(包括decode中的高计算量部分)在异构基础设施中进行更细粒度的拆分和优化,以扩展性能边界 [77][78][81] - CPU的角色至关重要,其单线程性能和I/O带宽是关键,以避免拖慢GPU。公司自研Grace CPU和Vera CPU旨在提供极高的单线程性能与带宽 [53][54][63][64] - 网络内计算(如Mellanox技术)是公司技术栈的关键部分,使得大规模NVLink成为可能 [86] 市场机会与商业模式 - AI已跨越经济价值门槛,基于推理、反思和工具使用的AI应用(如编程Agent)开始真正创造收入,改变了此前搜索等服务难以收费的局面 [39][40][41][74] - 在AI创造经济价值的场景下(如编程效率提升10倍),客户愿意为更高token速率和更低延迟的服务支付溢价 [75][90] - 建设千兆瓦级的AI工厂总投资约500亿至600亿美元,其中基础设施(土地、电力、厂房)约占150亿至170亿美元,其余为计算、网络、存储等 [25] - 公司的商业模式是提供技术栈和平台,而非最终产品或服务,通过将前沿技术开放给整个生态来扩大客户基础 [111][112][115] 行业竞争与生态格局 - 真正的竞争不在于单一的模型或芯片,而在于对整个技术栈(从电力、芯片、基础设施、模型到应用的五层蛋糕)的主导权 [10][24][98] - 中国在AI领域是不可忽视的力量,拥有大量有创造力的研究人员和出色的开源模型(如DeepSeek、Kimi、Qwen),全球技术栈需要能够吸收这些创新 [97] - 公司认为,将技术栈从上到下强制捆绑的策略会限制整体上限,应该让每一层自由竞争 [99] - 供应链面临全面压力,电力、芯片产能、土地等多环节均接近瓶颈,但公司通过长期规划和供应链布局,有信心支撑未来需求 [92][95][96] AI应用与Agent发展 - AI正从处理离散的语言token,转向需要同时理解记忆、结构和连续动作的现实世界任务 [24][36] - AI使用工具(Tool Use)是重要趋势,这些工具原本为人类设计(如Excel、SQL、Photoshop),需要被整体加速以匹配AI Agent的速度 [14][15][55] - 非结构化的工具使用(如通过多模态操作没有API的网页)是下一步方向,这依赖于强大的PC和数据处理系统 [57][58] - 编程是AI创造经济价值的典型领域,AI编程助手让工程师从写代码转向思考架构和解决问题,大幅提升效率 [45][46]
英伟达龙虾登场!黄仁勋暴论频出,「人车家天地芯」冲击万亿收入
36氪· 2026-03-17 17:47
文章核心观点 - 英伟达在GTC 2026上宣布其战略重心全面转向智能体(Agentic AI)时代,并发布了专为此设计的Vera Rubin架构及一系列芯片、系统和软件,旨在构建一个从底层硬件到上层应用、从地面到太空的完整智能体生态系统,巩固并扩大其在AI时代的统治地位 [6][8][39][96] 英伟达Vera Rubin架构发布 - 发布专为智能体AI和强化学习时代打造的全新Vera CPU,其效率是传统机架式CPU的两倍,速度提升50% [16] - Vera Rubin架构包含七款芯片:Vera CPU、Rubin GPU、NVLink™ 6交换机、ConnectX-9超级网卡、BlueField-4 DPU、Spectrum™-6以太网交换机及新集成的Groq 3 LPU [17] - 包含五套机架系统:Vera Rubin NVL72机架、Vera CPU机架、Groq 3 LPU机架、BlueField-4 STX存储机架及Spectrum-6 SPX以太网机架 [17] - Rubin GPU单片芯片拥有高达288GB的海量内存,用于装载超大语言模型和处理海量上下文KV缓存 [19] - 新一代NVLink带宽翻倍至260TB/s,并推出全新Kyber机架,在一个NVLink域内直接互联144张GPU [20] 智能体操作系统与开源生态 - 黄仁勋判断开源项目OpenClaw将堪比这个时代的Linux或HTML,是一套能调用大模型、管理任务、协调子智能体并进行多模态沟通的智能体操作系统 [28] - 每一家SaaS公司最终都将转变为“智能体即服务”(AgaaS)公司,CEO必须思考自己的OpenClaw战略 [31] - 为解决企业安全顾虑,英伟达联合推出NeMoClaw参考架构,内置OpenShell等技术,让企业能在私有环境中安全运行智能体系统 [33][35] - 英伟达提供一整条开源模型产品线,包括Nemotron(语言推理)、Cosmos(世界建模)、Groot(通用机器人)、Alpha Mayo(自动驾驶)、BioNeMo(数字生物学)、Earth-2(AI物理仿真),并将持续迭代更新 [37] - 宣布与Black Forest Labs、Cursor、LangChain、Mistral、Perplexity、Sarvam及Thinking Machines等合作伙伴共同推进Nemotron 4研发 [37] 算力架构创新与性能突破 - 为应对智能体对极致低延迟的需求,英伟达通过Dynamo软件首创“解耦推理”,将推理任务的前段Prefill和Attention交给Vera Rubin处理,后半段Decode卸载给Groq LPU以降低延迟 [24][30] - 在高阶推理层级,这种组合使性能提升35倍,每兆瓦吞吐量也提升35倍 [26] - Grace Blackwell NVLink 72的实际每瓦性能提升达到50倍,远超摩尔定律预期的约1.5倍 [74] - 通过更新算法与软件,Fireworks等服务商的token生成速度从每秒700个跃升至接近5000个,提升7倍 [80] 重塑数据处理与数据中心 - 英伟达发布底层杀器cuDF,用GPU并行算力直接处理结构化数据,绕过传统CPU [59] - 发布针对向量数据库和非结构化数据的cuVS,旨在用AI方式重新定义企业数据处理方式 [61] - 雀巢公司采用英伟达加速的IBM Watsonx.data后,处理全球供应链数据的速度提升5倍,成本降低83% [61] - 英伟达通过深度嵌入云端的算法库,使云服务巨头(Google Cloud、AWS、微软Azure、Oracle)成为其算力和框架的分销渠道 [62] - 发布NVIDIA DSX平台,基于Omniverse数字孪生技术,在虚拟空间中仿真整座AI工厂以优化设计,配合Max-Q技术动态调节功耗与算力 [76][77] 市场前景与收入预测 - 根据黄仁勋判断,到2027年底,其Blackwell和Rubin芯片将至少创造1万亿美元收入,且实际需求可能远超此保守估计 [69] - 高难度推理被视为AI领域最重要且最难的事,因为它直接带来收入增长,英伟达为此彻底改变架构并优化整个技术栈 [71][72] - 未来每一家公司都会认真思考其“token工厂”的效率问题,因为算力即收入本身 [80] 垂直整合与生态构建 - 英伟达自称为世界上第一家“垂直整合,却又水平开放”的公司,向下自造芯片和系统,向上深入理解各行业应用场景 [63][64] - 其业务覆盖金融量化交易、医疗研发、电信边缘计算等多个行业,并通过机密计算技术打消企业数据安全顾虑 [65] - 公司通过将自身封装成底层算法库,像水电一样接入全球基础设施,看似分享利润,实则掌握AI时代命脉 [67] 物理AI与自动驾驶布局 - 黄仁勋宣告自动驾驶的“ChatGPT时刻”已经到来 [85] - RoboTaxi Ready平台新增比亚迪、吉利、五十铃、日产四位伙伴,这四家车企年产量合计约1800万辆,加上已有的梅赛德斯、丰田和通用,覆盖全球重要整车制造商 [86] - 与Uber签署协议,计划将无人出租车部署至多个城市并接入其全球出行网络 [88] - 在工业机器人领域与ABB、Universal Robots、库卡等合作,卡特彼勒的加入意味着重型工程机械走向智能化 [88] 前沿探索与未来愿景 - 英伟达Thor芯片已通过抗辐射认证并应用于卫星,正与合作伙伴研发名为NVIDIA Space-1 Vera Rubin的新型计算机,目标是在太空中建设数据中心 [81] - 与迪士尼、Google DeepMind联合研发的Newton物理引擎,用于在Omniverse中训练机器人(如雪宝),使其适应现实物理规律,未来迪士尼乐园角色将拥有真正智能并与游客互动 [91] - 从游戏显卡到AI算力,英伟达用20年时间“造了一台造风机”,如今已化身为永不停歇的Token生产厂,算力即权力,生态即壁垒 [47][96]
刚刚,英伟达龙虾登场,黄仁勋暴论频出,「人车家天地芯」冲击万亿收入
36氪· 2026-03-17 08:50
英伟达GTC 2026核心战略与产品发布 - 本次GTC大会的核心主题是“智能体(Agentic AI)”,标志着公司战略从生成式AI(Generative AI)向能让机器自主执行任务的智能体时代全面演进[1][2][4][5] - 公司发布专为智能体时代打造的Vera Rubin平台,包含芯片、机架系统及超级计算机,旨在构建一个完整的智能体生态系统[4][10][30] Vera Rubin架构与核心硬件 - 发布世界上首款专为智能体AI和强化学习打造的Vera CPU,其效率是传统机架式CPU的两倍,速度提升50%,预计将成为一个价值数十亿美元的业务[9][11] - 推出Rubin GPU,单片集成高达288 GB的海量内存,专门用于承载超大语言模型和处理海量上下文[13] - 第六代NVLink交换机将全互联带宽提升至260 TB/s,是前代Blackwell架构(130 TB/s)的两倍,并推出全新Kyber机架,在一个NVLink域内直接连接144张GPU[13] - 正式推出Groq LPU(语言处理单元),通过“解耦推理”架构,将推理任务的前段(Prefill, Attention)交给Vera Rubin处理,后段(Decode)交给Groq LPU以降低延迟[15][17][18] - Vera Rubin与Groq LPU的组合,在高端推理层级的性能提升了35倍,每兆瓦吞吐量也提升了35倍[20] 软件、模型与开发生态 - 推出开源智能体操作系统OpenClaw,其影响力和下载量在数周内已超过Linux三十年的积累,被类比为这个时代的Linux和HTML[21] - 为解决企业安全顾虑,联合OpenClaw团队推出NeMoClaw参考架构,内置安全防护机制,支持企业在私有环境中安全运行智能体[23][24][26] - 发布并持续投入一整条开源模型产品线,包括Nemotron(语言推理)、Cosmos(世界建模)、Groot(通用机器人)、Alpha Mayo(自动驾驶)等,所有模型均以基础模型形式开放供企业微调[27] - 宣布与Black Forest Labs、Cursor、LangChain、Mistral、Perplexity等多家知名AI公司合作,共同推进Nemotron 4等模型的研发[28] - 发布DLSS 5技术,将传统的“结构化数据”3D渲染与“概率性计算”的生成式AI融合,以生成既逼真又完全受控的视觉内容,此逻辑将被应用于各个行业[38] 数据中心与加速计算战略 - 公司战略目标直指重塑全球企业数据中心,通过cuDF库让GPU直接处理传统由CPU主导的结构化数据查询,以应对AI Agent的百万倍速访问需求[43] - 针对非结构化数据推出cuVS库,用于向量数据库处理,旨在用AI方式重新定义企业数据处理范式[44] - 公司定位为“算法公司”,通过将深度优化的算法库嵌入云端基础设施,使云服务商(Google Cloud, AWS, Azure, Oracle)成为其算力与框架的分销渠道[46][48] - 推出机密计算(Confidential Computing)服务,确保敏感企业数据和模型在完全隔离的环境中运行,消除企业采用AI的安全顾虑[49] 市场前景与财务预测 - 公司创始人预测,到2027年底,其Blackwell和Rubin芯片将至少创造1万亿美元的收入,且实际需求可能远超这一保守估计[50] - 强调AI推理(尤其是高难度推理)是直接带来收入增长的关键领域,公司已为此彻底改变架构并优化全技术栈[52] 性能突破与效率优化 - Grace Blackwell NVLink 72的实际每瓦性能提升达到50倍,远超公司最初宣称的35倍预期[56] - 通过算法与软件优化,公司帮助Fireworks等服务商的token生成速度从每秒700个跃升至近5000个,提升达7倍,展示了“极致协同设计”的潜力[58] - 发布NVIDIA DSX平台,基于Omniverse数字孪生技术,用于在虚拟空间中仿真和优化整个AI数据中心的设计与运营,以解决电力浪费问题[55] 物理AI与机器人应用 - 宣布自动驾驶的“ChatGPT时刻”已经到来,RoboTaxi Ready平台新增比亚迪、吉利、五十铃、日产四位合作伙伴,这些车企年产量合计约1800万辆[61] - 与Uber签署协议,计划将RoboTaxi Ready车辆部署至多个城市并接入其全球出行网络[63] - 在工业机器人领域,与ABB、Universal Robots、库卡、卡特彼勒等企业合作,将物理AI模型集成至仿真系统,推动智能制造[63] - 展示与迪士尼、Google DeepMind联合研发的“雪宝”机器人,其通过Omniverse中的Newton物理引擎训练,实现了自然的动作与交互,预示未来娱乐机器人将拥有真正智能[65][67] 长期战略与生态构建 - 公司的成功源于长达20年的长期投入:通过GeForce游戏显卡培养用户基础,并持续研发CUDA生态,为AI时代的爆发做好了准备[31][32][34][36] - 公司定义自身为世界上第一家“垂直整合,却又水平开放”的公司,既自主研发芯片与系统,又深度理解并开放支持各行各业的应用场景[48] - 公司的算力扩张已不限于地面,其Thor芯片已通过抗辐射认证应用于卫星,并正研发名为NVIDIA Space-1 Vera Rubin的太空计算机,目标是在太空中建设数据中心[58][60]
AMD:2026年人工智能驱动带来巨大增长潜力
美股研究社· 2026-01-12 21:52
核心观点 - AMD在AI加速器领域已迎头赶上,成为英伟达的有力竞争者,其数据中心业务正蓬勃发展,未来增长潜力巨大,特别是在2026年新一代MI400芯片推出后 [1][2][14] 竞争格局与产品管线 - AMD的竞争格局正在改善,已成为英伟达在AI加速器市场的有力竞争者 [1] - AMD产品管线丰富,计划在2026年推出针对大规模AI训练和推理优化的Instinct MI400系列加速器(如MI455X) [1] - MI300X加速器自2023年12月推出以来,已成为公司历史上增长最快的产品 [4] - 即将推出的MI400X系列是下一代芯片产品线,将与英伟达Blackwell GPU正面竞争,特别是在AI推理领域 [6] 数据中心业务表现 - AMD数据中心业务在2025年第三季度创下历史纪录,总净营收达43亿美元,环比增长34% [4] - 该业务的营业利润在2025年第三季度飙升至11亿美元,同比增长793% [4] - 随着MI400芯片在2026年推向市场,这种增长势头极有可能持续 [4] 市场机遇与行业展望 - 超大规模数据中心正越来越多地从AI训练过渡到低延迟推理,AMD面向推理的AI芯片将受益于此趋势 [6] - 根据IDC预测,约95%的AI服务器基础设施支出将流向加速计算领域 [6] - IDC预计,直到2029年,该领域将实现42%的复合年增长率(CAGR),为AMD等竞争者提供了高增长环境 [6] 财务表现与预期 - 2025年第三季度,AMD的GAAP营业利润同比增长75%,达到13亿美元 [7] - 按当前扩张速度,公司有望在2026年全年实现65亿至75亿美元的营业利润 [7] - 预计AMD 2026年的净营收增长率为31%,而英伟达为50% [9] - 市场给予AMD估值溢价,其预期市盈率为34.1倍,而英伟达为24.8倍,溢价38% [9] 增长驱动与公允价值 - 与OpenAI建立合作伙伴关系后,市场重置了对AMD增长潜力的预期,推动股价上涨 [9] - 分析师认为,基于IDC对加速计算的展望,AMD 35倍的预期市盈率(对应每股227美元的公允价值估算)是现实的 [10] - 如果MI400芯片的销量能像MI300一样快速增长,未来的公允价值估算可能会显著更高 [10] - 强劲的MI400销量有助于AMD缩小与英伟达之间的性能差距 [10] 未来前景 - AMD在2024年和2025年投资于新芯片设计并升级了AI加速器产品组合,为从数据中心AI繁荣中获利做好准备 [14] - 随着市场倾向于推理优化的芯片设计,AMD注定将实现可观的净营收和营业利润增长 [14] - 加速计算需求在2026年没有减弱迹象,超大规模数据中心市场将继续为AMD带来巨大收入 [14] - 市场开始认识到,GPU/加速器市场的下一个增长故事可能来自AMD [15]
黄仁勋拿下200万美元大奖,罕见流露感性一面
新浪财经· 2026-01-10 00:24
奖项与荣誉 - 英伟达创始人兼CEO黄仁勋被授予2026年IEEE荣誉勋章,并获得200万美元奖金 [2] - IEEE荣誉勋章是科技界最高荣誉之一,旨在表彰对世界产生深远影响的杰出技术人物 [2] - 黄仁勋的获奖标志着工程界对其在加速计算及人工智能领域开创性贡献的最高认可,其名字与文顿·瑟夫、罗伯特·诺伊斯、张忠谋等传奇人物并列 [2] 获奖评价与贡献 - IEEE主席评价黄仁勋的领导力和技术远见开启了人类创新的新时代 [2] - 自1999年推出首款GPU开始,其建立的基础设施推动了科学、医学和工程的进步,并为现代生成式AI的爆发奠定了算力基石 [2] - 黄仁勋将工程学定义为应用科学和数学的第一性原理,是关于解决问题、分解挑战并拥有实现不可能之事的韧性的崇高职业 [3][8] 公司发展历程与现状 - 英伟达始于1993年,由黄仁勋与Chris Malachowsky和Curtis Priem在一间联排别墅里三人共同创立 [5][7] - 公司从重塑计算架构发展到引爆被称为“人工智能”的新工业革命 [5] - 截至2025年10月,英伟达市值已突破5万亿美元大关,稳居全球市值最高公司宝座 [6] - 公司改变了当今世界的每一个科学领域和行业,其成就被创始人形容为“无法想象”和“不敢奢望” [6][7] 个人经历与感悟 - 黄仁勋投身工程领域是因为其偏重数学和科学,吸引他的是工作的挑战性和技术含量 [5][6] - 在俄勒冈州立大学大二的电子工程基础课上,他遇到了实验搭档并后来的妻子Lori Huang,这段关系成为其事业与家庭的坚实后盾 [5][7] - 黄仁勋强调,IEEE荣誉勋章这一荣誉属于英伟达全体员工,是对他们毕生工作的认可 [6][8] - 他感谢IEEE制定的工业标准(如802.11 Wi-Fi标准和IEEE 754浮点数算术标准),认为这些是构建计算机行业的基础规则 [9]
黄仁勋拿下200万美元大奖,罕见流露感性一面
21世纪经济报道· 2026-01-09 17:51
IEEE荣誉勋章授予黄仁勋 - 2026年CES期间,IEEE宣布将2026年IEEE荣誉勋章授予英伟达创始人兼CEO黄仁勋,并颁发200万美元奖金 [1] - 该奖项自1917年设立,是科技界最高荣誉之一,旨在表彰对世界产生深远影响的杰出技术人物 [1] - 黄仁勋的名字将与互联网之父文顿·瑟夫、英特尔创始人罗伯特·诺伊斯以及台积电创始人张忠谋等科技传奇并列 [1] 获奖原因与行业影响 - IEEE主席评价黄仁勋的领导力和技术远见开启了人类创新的新时代,其建立的基础设施推动了科学、医学和工程的进步,并为现代生成式AI的爆发奠定了算力基石 [1] - 获奖标志着工程界对其在加速计算及人工智能领域开创性贡献的最高认可 [1] - 黄仁勋从1999年推出首款GPU开始,其建立的基础设施为现代生成式AI的爆发奠定了算力基石 [1] 黄仁勋的职业与创业历程 - 黄仁勋投身工程领域是因为其偏重数学和科学,他享受解决数学和科学问题的挑战性与技术含量 [3][5] - 英伟达始于1993年的一间联排别墅,由黄仁勋与Chris Malachowsky和Curtis Priem三人联合创立 [3][6] - 黄仁勋在俄勒冈州立大学大二的电子工程基础课上遇到了后来的妻子Lori Huang,这段关系成为其日后创立英伟达、追求事业的坚实后盾 [3][5] 英伟达的成就与地位 - 截至2025年10月,英伟达市值已突破5万亿美元大关,稳居全球市值最高公司宝座 [3] - 公司被描述为重塑了计算架构,并引领了被称为“人工智能”的新工业革命 [3][6] - 黄仁勋强调,公司成就改变了当今世界的每一个科学领域和行业,这一荣誉属于英伟达全体员工,是对他们毕生工作的认可 [4][6] 黄仁勋对工程学的理解 - 黄仁勋将工程学定义为关于应用科学和数学的第一性原理,是将极具挑战性的问题分解为可解决的部分,并拥有奉献精神和韧性去实现几乎不可能的事情 [2][6] - 他认为工程学是所有职业中最崇高的,因为它作为积木和基础构建了今天的社会 [2][7] - 他在致辞中感谢了IEEE及其制定的工业标准(如802.11 Wi-Fi标准和IEEE 754浮点数算术标准),认为这些是构建计算机行业的基础规则 [7] 个人致谢与感言 - 黄仁勋在获奖感言中罕见流露出感性一面,并未大谈商业宏图,而是向工程师身份致以深情敬意 [1] - 他感谢了妻子多年来的支持,并提到他们的两个孩子如今都在科技行业工作,且为他们在英伟达工作感到自豪 [7] - 他最终代表英伟达所有员工接受了这一殊荣 [8]
英伟达CEO黄仁勋获2026年度IEEE荣誉勋章
搜狐财经· 2026-01-07 11:23
奖项与荣誉 - 英伟达创始人兼首席执行官黄仁勋荣获2026年度IEEE荣誉勋章,并获颁200万美元奖金 [1] 获奖原因与个人贡献 - 黄仁勋因其在加速计算领域毕生的远见卓识与开创性贡献而获奖 [3] - 其引领推动了英伟达走在技术创新最前沿 [3] - 黄仁勋在加速计算领域的远见为当今的AI技术与工业革命奠定了基础 [3] 公司历史成就与影响 - 英伟达于1999年发明了全球首款图形处理器(GPU) [3] - GPU的发明彻底革新了计算技术,并推动了医学、工程、机器人、自动驾驶汽车、制造业等众多领域的进步 [3] - 英伟达已于2025年10月成为全球首家市值突破5万亿美元的企业 [3]
黄仁勋称CPU将死,英伟达想靠GPU制霸,科技巨头们不答应
36氪· 2025-12-09 15:53
文章核心观点 - GPU在AI计算时代的重要性急剧提升,正成为数据中心和终端设备的核心算力驱动力,但CPU因其在通用任务处理和系统调度上的不可替代性,短期内不会被GPU彻底取代,未来更可能是协同与异构计算格局 [1][3][4] - 科技巨头为避免算力供应受制于人并控制成本,正积极推动自研AI芯片(包括GPU、NPU、专用加速器),英伟达虽处领先地位但难以独占市场,行业竞争焦点正从硬件性能转向完整的AI软件生态构建 [7][9][15] 美国政府政策与英伟达动态 - 美国政府允许英伟达向中国等地区的“获准客户”销售H200 AI芯片,但将获得其在该地区销售额的25%分成 [1] - 英伟达创始人黄仁勋公开质疑CPU在未来以加速计算和AI为主导的时代中的必要性,暗示GPU可能成为核心,这与其长期倡导的“加速计算”理念一致 [1] - 受益于AI大模型兴起,英伟达数据中心GPU收入从2023年的150亿美元暴涨至2025财年的1152亿美元,预计2026财年该数字将继续飙升 [1] GPU与CPU的技术角色与关系 - CPU优势在于强大的单线程性能、成熟的指令体系和完善的生态,擅长处理复杂逻辑任务、运行操作系统及进行系统调度,是各类智能设备不可或缺的“大脑” [4] - GPU优势在于极端的并行计算能力,拥有数千至上万个核心,在深度学习训练、图像渲染、科学计算等重复性矩阵化任务中,效率和速度远超CPU [4] - CPU与GPU是协同关系而非零和替代,CPU像“管理人员”进行任务调度,GPU像“熟练工人”进行批量处理,两者在系统中各司其职 [4][6] - 理论上GPU完全取代CPU需重构整个计算体系,包括设计专精通用任务的核心架构、更新指令集与系统架构,面临巨大生态阻力,实际难以实现 [6] 资本市场与行业热度 - 中国通用GPU公司摩尔线程上市首日股价从114.28元涨至约650元,显示资本市场对GPU企业的高度热情 [3] - 摩尔线程在上市后宣布将发布以MUSA为核心的全栈发展战略及新一代GPU架构 [3] 云计算与数据中心算力重构 - 为满足AIGC及大模型训练暴增的并行计算需求,云端基础设施正发生根本改变,GPU集群已成为各大云厂商的首选 [6] - 几乎所有头部云厂商在采购第三方GPU(如英伟达产品)的同时,都在推动自研芯片计划,根本目的是避免算力供应完全受制于人并优化长期成本与能效 [7][9] - 阿里云自研含光芯片并引入第三方GPU构建新集群 [7] - 百度自研昆仑芯片针对AI算力深度优化,拟拆分独立上市以分享AI计算红利 [7] - 亚马逊通过自研Graviton(ARM CPU)、Trainium、Inferentia等芯片构建异构AI算力集群 [9] - 谷歌云计算中心部分使用自研TPU和Axion CPU,推理集群正逐渐转向以自研芯片为主 [9] 终端侧计算架构演变 - 从PC、手机到汽车,越来越多的AI任务(如大模型推理、智能助手、实时生成内容)开始在本地执行,推动终端设备需要具备强大的高并行算力 [10] - 在手机领域,旗舰SoC通过强化集成GPU与NPU的加速能力来提升AI算力,AI算力已成为“AI手机”的核心卖点,许多系统级AI功能底层已从CPU迁移至GPU/NPU [10] - 在PC领域,“端侧AI算力”取代CPU主频成为关键指标,GPU承担了大部分高密度矩阵计算任务,厂商对核显的研发投入显著增加 [11][13] - 在自动驾驶领域,感知、融合、规划等任务需瞬时处理海量数据,天然依赖GPU高并行优势,主流方案(如地平线、特斯拉、英伟达)均采用围绕GPU构建的异构架构 [13] 行业竞争与生态格局 - 英伟达的核心优势在于其CUDA生态经过十余年沉淀已成为事实标准,构筑了强大的竞争壁垒 [15] - AMD通过力推更开放的ROCm生态来挑战CUDA,并在MI300系列上已获得不少厂商认可 [15] - 英特尔采取双线策略:一方面依靠Gaudi加速器冲击AI市场,另一方面利用PC生态领导地位在终端侧布局AI处理器 [15] - 华为已构建从底层硬件(昇腾芯片)、AI框架(昇思MindSpore、CANN)到操作系统(鸿蒙)的完整AI生态链条,在争夺行业话语权上具备优势 [15] - 行业竞争焦点在于谁能构建起完整的AI生态,从而在AI原生时代掌握主动权 [16]