GROOT N1

搜索文档
VLA爆发!从美国RT-2到中国FiS-VLA,机器人的终极进化
具身智能之心· 2025-07-09 22:38
具身智能与VLA模型发展 - 2025年全球具身智能赛道爆火,视觉语言动作模型(VLA)成为核心驱动力,从美国RT-2到中国FiS-VLA实现技术快速迭代 [4][6][7] - 谷歌DeepMind、Figure AI等硅谷领军企业加速布局VLA,谷歌发布首个离线VLA模型实现机器人精准离线操控 [8][9] - 中国智平方联合高校推出FiS-VLA模型,通过快慢双系统架构解决机器人操控效率与推理能力矛盾问题 [10][12] 技术演进关键节点 - 谷歌RT-1(2022年)开创机器人Transformer模型,首次实现"预训练+微调"范式,完成多步骤任务如"把可乐放入冰箱" [23][25][27] - 微软ChatGPT for Robotics(2023年)实现零样本任务规划,但暴露语言模型在动作控制上的局限 [31][32][34] - 谷歌RT-2(2023年7月)确立VLA范式,将动作离散化为文本token联合训练,在未见任务上成功率超50% [38][39][40][46] 中国技术创新突破 - 智平方推出RoboMamba模型,引入Mamba架构使推理速度达主流模型3倍,仅微调0.1%参数实现SE(3)位姿预测 [45][47][50][52] - HybridVLA模型融合自回归与扩散架构,在仿真任务成功率提升8%,真实环境提升11% [74][77][79] - FiS-VLA实现21.9Hz控制频率,是CogACT的2倍以上,在RLBench任务平均成功率69%领先基线方法 [105][114][115] 国际竞争格局 - 开源模型OpenVLA以7亿参数超越55亿参数的RT-2-X,29种操作任务成功率高出16.5% [54][57][58] - Figure AI发布Helix双系统模型,系统1(80M参数)与系统2(VLM主干)实现7-9Hz工作频率 [88][89][93][96] - 英伟达开源GROOT N1人形机器人基础模型,融合互联网与机器人数据实现广义推理 [97][98][101] 行业应用前景 - VLA技术推动机器人从实验室走向工业落地,已在人形机器人和智能制造领域部署应用 [123][124] - π系列模型实现开放世界泛化,在未见家庭场景零样本完成清洁任务,标志技术具备大规模推广能力 [63][69][70] - 技术演进形成"自回归到扩散到混合"与"非端到端到快慢耦合"双路径,推动机器人向通用能力进化 [122]
英伟达 Q1 440亿,指引450亿
小熊跑的快· 2025-05-29 07:14
财务表现 - Q1收入440亿美元,同比增长69%,Non-GAAP净利润187.75亿美元,同比+26%、环比-15%,主要受H20相关45亿美元费用影响 [1] - Q2总收入预计450亿+/-2%,反映H20收入损失约80亿美元,市场近期调高一致预期至465亿美元 [1] - 数据中心收入391.12亿美元,同比+73%、环比+10%,略低于市场预期(392亿美元),其中H20销售额46亿美元,25亿美元因出口限制无法发货 [1] - 游戏和AI PC收入37.63亿美元,同比+42%、环比+48%,超市场预期(28.4亿美元) [1] - 专业视觉收入5.09亿美元,同比+19%、环比持平 [1] - 自动驾驶和机器人收入5.67亿美元,同比+72%、环比-1% [2] 业务动态 - 数据中心工作负载强烈转向推理,AI工厂扩建推动可观收入 [1] - Blackwell架构贡献近70%数据中心计算收入,Hopper过渡接近完成 [3] - GB200支持数据中心扩展工作负载并实现最低每推理token成本,微软已部署数万台Blackwell GPU,计划扩至数十万台GB200,OpenAI为主要客户 [3] - CSP开始对GB300系统进行Ultra采样,其下拉式设计允许无缝过渡,HBM将再增加50% [3] - Q1网络业务收入环比增长64%至50亿美元,推出全球最快交换机Envy Link,第五代计算结构带宽为PCIe 5.0的14倍,链路传输速度达130兆兆字节/秒 [3] - AI推理Token数一年内增长10倍 [2] 战略布局 - 与富士康合作建造100万平方英尺工厂生产AI超级计算机,纬创在得克萨斯州沃思堡建设类似工厂,目标一年内实现从芯片到美国制造超级计算机的全流程 [4] - 发布GROOT N1机器人基础模型 [2]
【招商电子】英伟达COMPUTEX 2025跟踪报告:NVLink Fusion助力多体系融合,持续布局机器人等领域
招商电子· 2025-05-20 20:24
英伟达COMPUTEX 2025核心进展 - 构建智能基础设施迈向物理AI 未来智能基础设施建立在电力和互联网基础上 AI从感知推理向自主决策演进 实现物理AI驱动的机器人执行现实任务 公司从芯片公司转型为AI基础设施公司 持续推进AI向5G/6G和量子计算领域发展 [1][8][23] - 推出GB300推理芯片 25Q3上市 相比GB200推理性能提升1.5倍 HBM增加1.5倍 网络性能翻倍 训练性能持平 采用全液冷设计 单节点达40petaflops 采用台积电CoWoS-L封装工艺 自研NVLink达7.2TB/s 单机架配备9台交换机 通过5000根铜缆实现130TB/s全互联带宽 [2][33][34] - 发布NV Link Fusion半定制AI基础设施解决方案 允许用户灵活构建包含英伟达CPU GPU交换机及第三方硬件的混合系统 支持混合搭配自研CPU ASIC与Blackwell/Rubin芯片 [2][46][50] 硬件平台创新 - DGX Spark个人AI计算机基于Grace Blackwell架构 具备1000TOPS性能 支持2000亿参数模型训练推理 2025年3月全面投产 DGX Station可运行1万亿参数AI模型 [2][54][58] - RTX Pro Enterprise服务器支持x86兼容与AI代理 同时运行传统工业软件与AI模型 采用800G光模块连接4-8颗GB300GPU 带宽达3.2TB/s 适用于汽车数字孪生建模 [2][64][66] - Blackwell系统实现全方位突破 GraceBlackwell GB300推理性能达Hopper H100的1.7倍 DeepSeekR1模型性能达H100的四倍 [67][70] 机器人技术布局 - 开源Isaac Groot N1.5平台 基于JetsonFord处理器运行Isaac操作系统 处理神经网络和传感器数据 提供预训练模型 用于自动驾驶和人形机器人 已获6000次下载 [3][94] - 与DeepMind合作开发Newton物理引擎 7月开源 具备GPU加速可微分特性 仿真精度高且实时运行 已集成到Mujoco和Isaac SIM [3][89] - 人形机器人或成万亿美元产业 工厂正用数字孪生推动机器人化 采用三系统架构:GB300创建AI模型 Omniverse进行仿真 最终部署到机器人 [94][102][103] 生态系统建设 - 与富士康 台积电合作打造中国台湾首个大型AI超级计算机Nvidia Constellation 服务于当地AI基础设施和生态系统 [3][38] - 数字孪生技术广泛应用 TSMC使用MetAI从2D CAD生成晶圆厂3D布局 富士康 纬创等企业为制造流程开发数字孪生 全球规划建设价值5万亿美元新工厂 [103][106][108] - 构建包含150多家公司的生态系统 共同开发架构和软件 NVLink Fusion生态系统支持合作伙伴集成自研芯片 [44][53]
Computex2025追踪:英伟达NVLinkFusion推动开放式异构计算
海通国际证券· 2025-05-20 19:27
报告行业投资评级 未提及 报告的核心观点 2025年5月19日英伟达CEO黄仁勋在Computex大会阐释公司在AI基础设施、物理AI及前沿技术应用的战略布局与突破,包括开放NVLink技术、推出GB300超级计算机、发展机器人全栈平台、提供企业级AI解决方案及强化台湾产业链合作等,有望推动AI产业发展并巩固英伟达生态话语权 [1][10] 根据相关目录分别进行总结 NVLink Fusion - 英伟达首次开放NVLink高速互连技术,支持第三方芯片与英伟达GPU协同,带宽达130TB/s,较传统PCIe提升10倍 [2][11] - 开放IP后客户可自主集成,虽可能牺牲部分性能,但能吸引合作伙伴构建联盟,巩固生态话语权 [2][11] - 通过相关技术可将千卡集群利用率从60%提升至90%,训练成本降低50%以上,支持异构计算场景 [2][11] GB300超级计算机 - 基于Blackwell Ultra架构,集成72个GPU和36个Grace CPU,推理性能较前代提升1.5倍,HBM3e显存容量达288GB,网络带宽翻倍至130TB/s [3][12] - 全液冷设计支持132kW/机架的功率密度,单机架算力达40 PetaFLOPS,能效提升5倍 [3][12] - 量产计划于2025年Q3启动,已获多家云服务商订单 [3][12] 机器人全栈平台与物理AI - Isaac Groot N1.5平台整合全流程,开源基础模型通过合成数据生成框架,仅需36小时即可完成传统需三个月的训练任务 [4][13] - 结合Newton物理引擎,机器人仿真精度达毫米级,实时性提升10倍,数据采集成本降低90% [4][13] - 英伟达提出“三台计算机”战略,目标2030年实现“单台机器人完成90%工业任务”,推动人形机器人成为万亿美元产业 [4][13] 企业级AI解决方案与开发者工具 - RTX Pro企业服务器支持LLaMA 70B模型推理性能达H100的1.7倍,DeepSeek - R1性能提升4倍,可同时运行工业软件与生成式AI模型 [5][14] - DGX Spark工作站提供1 PetaFLOPS算力,支持万亿参数模型本地化运行,ConnectX - 8网络模块带宽达800Gbps,推动AI开发从云端向边缘渗透 [5][14] - 英伟达联合企业通过Omniverse平台构建工业数字孪生,优化制造流程与能效 [5][14] 台湾产业链绑定与全球战略 - 英伟达强化与台积电、富士康合作,台湾供应链占据全球AI服务器60%以上产能 [6][15] - 新建台北办公中心支持本地研发与生产,与台积电、富士康共建台湾首座AI超算中心,巩固半导体制造中枢地位 [6][15] - 黄仁勋提出“AI工厂”愿景,预计未来十年AI算力每10年提升100万倍,市场规模达数万亿美元 [6][15]
王兴兴的对手,估值2900亿
投资界· 2025-04-07 15:58
全球人形机器人行业格局 - Figure成为全球估值最高的人形机器人公司,当前估值飙升至400亿美元(约2900亿元人民币)[2][9] - 公司成立仅三年便超越波士顿动力等老牌企业,成为风投圈新宠[2] - 行业呈现两极分化:部分投资人质疑泡沫,而Figure代表激进创新方向[2] Figure创始人背景 - Brett Adcock是连续创业者,曾创办Vettery(2017年以1亿美元被收购)和电动飞行汽车公司Archer Aviation(2020年上市)[4][5] - 其创业理念认为人形机器人是AGI终极形态,创立Figure旨在"展望未来30年"[5] 技术突破与产品进展 - Figure 01首款机器人具备观察学习能力,可完成煮咖啡等复杂任务[5] - 第二代Figure 02负载达25公斤,日工作20+小时,已进入宝马工厂试用[5] - 自研Helix模型实现双机器人共脑协作,突破视觉-语言-动作协同控制[5] - 最新行走技术利用强化学习,数小时完成相当于数年的训练量[8] 融资历程与资本布局 - 早期遭遇融资困境,2023年5月才完成7000万美元A轮融资[10] - 2024年2月B轮融资6.75亿美元,获贝索斯、微软、英伟达等巨头投资,估值达26亿美元[10] - 当前正以400亿美元估值推进C轮,拟募资10-20亿美元[9][10] 全球竞争格局 - 英伟达推出开源人形机器人基础模型GROOT N1,特斯拉计划2024年试产5000台Optimus机器人[12] - 中国厂商崛起:宇树科技估值近200亿,智元机器人估值150亿,6家中国企业入选英伟达合作名单[12] - 行业共识认为"iPhone时刻"将在5年内到来,中美成为主要竞争战场[12] 供应链与产业优势 - 中国凭借人才规模、高效供应链和验证场景优势,被资本看好能诞生全球领先企业[12] - Brett Adcock公开认可中国团队在成本效率方面的竞争力[12]
AMD现在值得抄底吗?GTC 周大涨后我仍持观望态度
美股研究社· 2025-03-24 19:10
文章核心观点 - AMD近期不太可能大幅上涨,最近反弹是对英伟达GTC活动的反应,非基本面转变,虽估值比英伟达贵,但此价格水平不值得卖出,分析师将关注今年MI350 GPU发布及客户端细分市场是否放缓 [1][11] 公司评级与目标价 - 瑞穗证券将AMD目标价从140美元下调至120美元,维持“跑赢大盘”评级,认为其发展AI业务面临挑战,因英伟达在数据中心GPU市场领先 [2] - 花旗银行重申对AMD的中性评级,指出CPU库存可能增加 [3] 公司业务情况 数据中心业务 - 2024年AMD数据中心部门收入125.8亿美元,英伟达计算和网络部门同期收入1152亿美元,差距近10倍,预计2026年MI400系列推出后差距缩小 [3] - 随着第五代EPYC Turin CPU增长及2025年中期推出MI350 GPU,今年数据中心业务有显著上涨空间,2026年推出的MI400系列准备好与英伟达Rubin竞争 [2] 客户端业务 - 花旗银行指出2024年下半年CPU增长率为两位数,PC增长率为个位数中段,CPU库存可能增加,管理层认为客户端CPU收入增长由采用推动而非库存增加,客户细分指导可能夸大需求强度 [3][4] 各业务第一季度业绩指引 - 2025年第一季度总收入(中点)环比下降7%,各部门中数据中心业绩下降幅度与企业平均水平差不多,客户端业务和嵌入式业务降幅更大,游戏业务降幅较小 [5][6] 公司股价情况 英伟达股价 - 英伟达GTC活动前三天(3月11日至14日)股价上涨13.7%,活动相关信息已反映在价格中 [7] AMD股价 - AMD抛售触及100美元左右支撑位底部(最低点95美元),过去一周反弹,英伟达GTC活动推动其本周价格上涨,未来几周上涨趋势预计不会持续,价格将稳定在100美元左右 [1] - AMD股价在GTC活动期间保持势头,日线图显示打破自去年10月以来的下跌趋势,但可能是牛市陷阱,由GTC事件这一暂时外部因素推动 [9] - 从估值看,AMD市盈率为去年收益的107倍,英伟达为40倍;AMD交易价格为去年运营现金流的57倍,英伟达为TTM现金流的45倍,AMD比英伟达更贵 [10][13] 行业动态 - 英伟达首席执行官黄仁勋在GTC开幕式公布开发路线图重大更新,包括今年下半年推出Blackwell Ultra (GB300),2026年推出Rubin,2027年推出Rubin Ultra,2028年推出第三代Feynman,还宣布与通用汽车合作及推出首款人形机器人开源模型Groot N1 [6]
【招商电子】英伟达GTC 2025跟踪报告:2028年全球万亿美金Capex可期,关注CPO、正交背板等新技术趋势
招商电子· 2025-03-20 10:51
数据中心与AI基础设施 - 预计2028年数据中心资本开支将达1万亿美元,主要用于加速计算芯片[1][2] - 2024年向四大云服务商交付130万颗Hopper GPU,2025年计划出货360万颗Blackwell GPU[2] - AI基础设施计算量较去年预计增长100倍,Tokens数量大幅增加[2][9][10] - 数据中心正在向"人工智能工厂"转型,专注于AI驱动的处理和应用[13] Blackwell平台与未来产品 - Blackwell已全面投产,NVL72结合Dynamo推理性能提升40倍[3] - 计划25H2发布Blackwell Ultra,算力提升50%,FP8精度算力达0.36EF[3] - 预计26H2推出Vera Rubin NVL144,推理能力达每秒50千万亿次浮点运算[3] - 预计27H2推出Rubin Ultra NVL576,FP4精度算力达15EF,性能较GB300提升14倍[3] - 预计2028年推出Feynman平台,迎接千兆瓦AI工厂时代[3] CPO交换机技术 - 预计25H2推出Quantum-X CPO交换机,交换容量115.2Tb/s,能耗降低3.5倍[5] - 预计26H2推出Spectrum-X CPO交换机,包含两种型号,最高背板带宽409.6TB/S[5] - 采用MRM micro mirror技术,可将连续激光束转化为二进制信号[5] - CPO技术可帮助数据中心节省60MW电力,相当于100个Rubin机柜耗电量[5] 自动驾驶与机器人技术 - 推出Halos系统保障汽车安全,已评估700万行代码并申请1000多项专利[25][26] - 借助Omniverse和Cosmos加速自动驾驶开发,实现端到端训练[26] - 推出开源通用基础模型Isaac Groot N1,具有快慢双系统架构[6][61] - 预计到2030年全球将短缺5000万名工人,机器人产业潜力巨大[60] AI技术演进与应用 - AI分为三个层次:生成式AI、智能体AI和物理AI[7] - 推理模型带来100倍Tokens增长,计算速度需提升10倍[9][10][11] - 推出Dynamo操作系统,Blackwell性能是Hopper的40倍[35][38] - CUDA-X行业框架覆盖计算光刻、5G、基因测序等多个领域[14][15] 产品路线图与技术突破 - 每年更新路线图,每两年更新架构,持续推出新产品[53] - 采用液冷技术,单个机架功率达120千瓦,含60万个部件[29][30] - 光子学技术突破,硅光子交换机可扩展到数百万GPU规模[47][48] - 与台积电合作采用3D共封装技术,实现高性能光子集成电路[49]
不止芯片!英伟达,重磅发布!现场人山人海,黄仁勋最新发声
21世纪经济报道· 2025-03-19 11:45
文章核心观点 英伟达GTC2025大会围绕AI推理时代展开,发布了涵盖计算架构、企业AI应用、数据中心、机器人和自动驾驶等领域的技术,构建完整AI生态体系,有望推动企业和个人生产力变革,虽发布会后股价下跌,但大会或提振AI市场部分正面情绪 [28][30] 分组1:大会概况 - 当地时间3月18日,英伟达创始人兼CEO黄仁勋在英伟达GTC2025大会发表演讲,称其为“AI界的超级碗”,今年关键词是“推理”和“token”,AI叙事重心从训练转向推理 [1] - Forrester副总裁兼首席分析师戴鲲认为大会有三个方向值得关注,分别是面向后训练和推理的加速计算、面向企业级智能代理开发的Agentic AI、AI在物理世界中的应用 [3] 分组2:芯片家族 - 英伟达发布Blackwell Ultra系列芯片及下一代GPU架构Rubin,Vera Rubin NLV144计划于2026年下半年上线,Rubin Ultra NVL576将于2027年下半年面世 [5] - Grace Blackwell已全面投入生产,新平台强化推理能力,Blackwell Ultra在训练和测试时间缩放推理方面实现突破,被称为“AI工厂平台” [6] - Blackwell Ultra(GB300)包含GB300 NVL72机架级解决方案和HGX B300 NVL16系统,GB300 NVL72 AI性能提升1.5倍,使AI工厂收益机会相比Hopper平台提高50倍;HGX B300 NVL16推理速度提高11倍、计算能力提升7倍、内存容量扩大4倍 [8][9] - 瑞银报告指出,Blackwell系列需求强劲,GB200瓶颈解决,英伟达加快B300/GB300推出,预计第一季度提前量产,2025年第三季度大规模出货 [10] - 基于Blackwell Ultra的产品预计2025年下半年由合作伙伴推出,思科、戴尔等将率先推出相关服务器,预计到2028年数据中心投资超一万亿美元,暗示英伟达有增长空间 [11] 分组3:CPO交换机 - 英伟达推出全新NVIDIA Photonics硅光子技术,通过共封装光学取代传统可插拔光学收发器,可降低40MW功耗,提高AI计算集群网络传输效率 [13] - 推出Spectrum-X与Quantum-X硅光子网络交换机,Spectrum-X以太网平台带宽密度达传统以太网1.6倍,Quantum-X光子Infiniband平台AI计算架构速度较前代提升2倍,可扩展性增强5倍 [14] - 英伟达光子交换机集成光通信创新技术,较传统方式减少75%激光器使用,能效提升3.5倍等;摩根大通报告指出CPO应用于GPU最早可能2027年实现,且面临多项技术挑战,对基板供应商是利好 [15] 分组4:软件升级 - 英伟达关注机器人、自动驾驶等领域,生成式AI改变计算方式,计算机成为token生成器,数据中心演变成AI工厂 [17] - 英伟达新推出AI推理服务软件Dynamo,支持下Blackwell推理性能可达上一代Hopper的40倍,能最大化AI工厂token收益,采用分离式推理架构实现高效AI推理计算 [18][19] - 英伟达推出Llama Nemotron系列推理模型和AI - Q,支持企业和开发者构建AI Agent,提升推理能力,减少开发成本和部署难度 [20] - 英伟达核心护城河CUDA是强大软硬件体系,已拥有各领域AI工具 [21] 分组5:端侧AI和机器人 - 英伟达推出基于NVIDIA Grace Blackwell平台的全新DGX个人AI超级计算机系列,包括DGX Spark和DGX Station,将原本仅限数据中心使用的架构性能引入桌面环境 [23][24] - 英伟达正式发布全球首款开源、可定制的通用人形机器人基础模型Isaac Groot(GROOT N1),采用双系统架构,可适配多种任务,已被多家机器人制造商采用 [25] - 英伟达推出一系列模拟框架和方案,在机器人基础模型和体系化解决方案上再次升级,摩根大通预计其在Physical AI方面会有更多突破 [26] 分组6:市场情绪 - 过去一季度AI领域变化大,英伟达GTC2025大会发布众多技术,但发布会结束后股价下跌3.43% [28] - 摩根大通报告指出整体AI市场情绪偏空,GTC大会有望提振部分正面情绪,改善Blackwell系统供应状况,预计2026年AI数据中心资本支出继续健康增长 [29]
刚刚,老黄携GB300震撼登场!DeepSeek推理暴涨40倍加速全球最快,26年Rubin问世
创业邦· 2025-03-19 11:17
文章核心观点 英伟达在GTC大会展示过去一年进展,发布新产品路线图,强调Scaling Law未撞墙,未来数据中心建设规模将达万亿美元,还推出开源推理软件和通用机器人模型,有望在AI和机器人领域持续引领发展[1][23][27] 分组1:大会亮点与行业趋势 - 英伟达老黄在GTC大会介绍过去一年进展,称今年GTC是AI的超级碗,每个人都是赢家 [2] - Blackwell全面投产,因AI拐点至,训练推理AI/智能体系统对计算量需求大增 [3] - 英伟达预言未来有工厂的公司将有实体工厂和AI工厂,CUDA核心及算力将引爆行业变革 [4] - 通用计算到尽头,行业正从通用计算机转向加速器和GPU上运行的机器学习软件,计算机成为生成token的工具 [28] - 加速计算趋势无法阻挡,AI将进入各行业,英伟达CUDA - X库为科学领域提供加速框架 [29] 分组2:产品路线图 - AI芯片每年一更,下一代Rubin明年亮相,英伟达构建云上、企业和机器人AI基础设施 [5][8] - 今年下半年将问世的Blackwell Ultra提升训练和测试时推理能力,显存从192GB提升到288GB,GB300 NVL72的AI性能比NVIDIA GB200 NVL72高出1.5倍 [6][7] - 2026年下半年预计发布Vera Rubin,推理时每秒50千万亿次浮点运算,比Blackwell速度高出一倍多,显存升级为HBM4,带宽从8TB/s提高到13TB/s,扩展NVLink吞吐量提升到260TB/s,机架间CX9链路达28.8TB/s [9][10] - 2027年下半年预计推出Rubin Ultra版本,FP4精度推理性能达15 ExaFLOPS,FP8精度训练性能为5 ExaFLOPS,相比GB300 NVL72性能有14倍提升,配备HBM4e内存,带宽为4.6 PB/s,支持NVLink 7,带宽为1.5 PB/s,较上一代提升12倍,机架支持CX9,带宽达115.2 TB/s [11] - 2028年将上市Feynman,命名致敬美国理论物理学家Richard Feynman [17] 分组3:桌面级产品 - 推出Blackwell RTX PRO工作站和服务器系列,包括数据中心、桌面和笔记本GPU,为开发者等提供AI支持,RTX PRO 6000 Blackwell吞吐量高达1.5倍,第五代Tensor Core每秒4000万亿次AI运算,第四代RT Core性能提升2倍 [19] - 带来两款由Blackwell驱动的DGX个人桌面AI超级计算机DGX Spark和DGX Station,DGX Spark是最小的AI超级计算机,配备128GB内存,核心是GB10 Grace Blackwell超级芯片,每秒1000万亿次AI计算能力;DGX Station将数据中心级性能带到桌面,采用GB300 Grace Blackwell Ultra桌面超级芯片,配备784GB统一内存 [20][22] 分组4:Scaling Law与数据中心 - 老黄称Scaling Law没撞墙,推理计算量需求大增,数据可通过强化学习和合成数据获取,AI处于转折点 [25][26] - 2024年全球TOP 4云服务商买进130万块Hopper架构芯片,预计2028年数据中心建设规模达一万亿美元 [27] 分组5:架构与扩展 - 英伟达通过网络InfiniBand和Spectrum X实现scale up,Spectrum X具备低延迟和拥塞控制特性,成功扩展最大单GPU集群 [14] - 官宣首个共封装硅光子系统,每秒1.6T的CPO,基于「微环谐振器调制器」技术,用台积电工艺构建,可扩展至数十万甚至百万GPU规模 [15][16] - HGX系统架构解决纵向扩展问题,包含8个GPU,通过MVLink 8连接到CPU架,再通过PCI Express连接,用InfiniBand连接多个设备,NVLink交换机让GPU全带宽通信,液冷压缩计算节点,实现一个机架Exaflops级超算 [31][32][33] 分组6:推理Scaling问题与解决 - 推理Scaling是「终极计算」问题,推理中响应时间和吞吐量存在矛盾,需最大化生成token曲线下方面积,还需巨大带宽和浮点运算能力 [36] - 传统LLM用不到500个token快速回答问题但结果错误,推理模型需超8000个token推理简单问题,计算量增加150倍,万亿级参数模型需通过管线、张量和专家并行组合解决,NVlink可实现规模终极Scaling [37][38][39] 分组7:NVIDIA Dynamo - 发布开源推理软件NVIDIA Dynamo,被称为「AI工厂的操作系统」,能协调加速数千个GPU间推理通信,分配LLM处理和生成阶段到不同GPU,优化GPU资源利用 [41][42] - Dynamo能让运行Llama模型的AI工厂在Hopper架构上性能和收入双双翻倍,在GB200 NVL72集群上运行DeepSeek - R1模型时,每个GPU生成token数量提升超30倍,还能动态分配GPU、卸载推理数据降低成本 [42] - Dynamo完全开源,支持PyTorch、SGLang、NVIDIA TensorRT - LLM和vLLM [43] 分组8:性能对比与效益 - 新的Blackwell架构比Hopper强,能耗固定时性能提升25倍,推理模型上高40倍,用MVLink 8技术加速,引入4位浮点数优化,能效高的架构对未来数据中心重要 [44] - Blackwell扩展到MVLink 72加上Dynamo软件效果更好,能适应不同工作负载,老黄认为大型项目投资最新技术如Blackwell可避免落后,买得越多赚得越多 [45][46] 分组9:通用机器人模型 - 预计本世纪末世界劳动力短缺超5000万,通用机器人时代到来,具身智能遵循三大Scaling Law,数据短缺问题可由英伟达Omniverse和Cosmos解决 [48][49] - 官宣世界首个开源、完全可定制的通用人形机器人模型GROOT N1,采用「双系统架构」,慢思考系统推理规划行动,快思考系统转化为精确动作,可执行多步骤任务 [50][51][52] - 与DeepMind、迪士尼研究开发下一代开源的Newton物理引擎,让机器人精确处理复杂任务,以星球大战BDX机器人为灵感的Blue上台互动,老黄预言机器人领域将成最大产业 [54][55][56]
英伟达新AI半导体处理性能提升至1.5倍
日经中文网· 2025-03-19 10:52
文章核心观点 英伟达宣布半导体产品开发计划、发布AI处理优化软件,还公布人形机器人和量子计算机研究相关战略,以维持在AI半导体市场优势地位并推动相关领域发展 [1][2][3] 半导体产品开发计划 - 2025年下半年推出新型人工智能半导体,处理性能提升至当前1.5倍,计划将新型图形处理半导体嵌入AI服务器并通过大型云服务商等渠道提供 [1] - 2025年下半年推出名为“Blackwell Ultra”的新型半导体,相比“Blackwell”,AI处理性能提升1.5倍,有助于推动高级AI应用 [2] - 2026年推出下一代AI半导体“Rubin”,2027年推出性能更强的“Rubin Ultra”,其处理性能达“Blackwell Ultra”的14倍 [2] AI处理优化软件 - 发布名为“Dynamo”的AI处理优化软件,运行高性能AI模型时可控制大量GPU高效分担AI处理任务,运行DeepSeek的R1模型时每个GPU可处理的数据量提升30倍以上 [1][2] - “Dynamo”作为“开源型”软件对外免费开放,公司计划通过硬件与软体技术结合巩固在AI半导体领域的高市场份额 [3] 人形机器人相关技术 - 免费开放名为“Isaac Groot N1”的人形机器人基础模型,面向开发企业开放,旨在实现能抓取和搬运物品的人形机器人 [3] - 与人形机器人技术开发方面与美国谷歌和华特迪士尼的研究机构合作,迪士尼计划利用其基础技术开发模仿角色的机器人等产品 [3] 量子计算机研究战略 - 在美国波士顿设立研究据点,与从事量子技术开发的企业、美国哈佛大学和麻省理工学院等开展联合研究,推动量子领域半导体需求增长 [3]