Workflow
AI工厂
icon
搜索文档
Computex现场连线#1:英伟达、高通主旨演讲
2025-05-19 23:20
纪要涉及的行业和公司 - **行业**:PC和服务器产业链、AI行业 - **公司**:英伟达、高通、红海、联发科、NXP、台积电、鸿海、和硕、伟创、万达、联想、SuSE、HP、华硕、宏碁、微星、工业富联、立讯、AMD 纪要提到的核心观点和论据 - **英伟达** - **发布聚焦AI服务器产业链**:发布包括AI工厂、Agentic AI、机器人及企业AI转型等内容,推出NVLink Fusion开放IP巩固互联传输优势,RTX Pro Server有望替代部分H20 Server功能,尤其在中国大陆推理服务市场[1]。 - **第二季度财报指导预测**:可能在45至47亿美元之间,考虑了5.5亿美元HRC使用权补偿,第一季度财报预期较好,受益于RTX替代RWS的弹性及中东市场出货量增加[3][11][19]。 - **产品出货情况**:GB200 NFL72自4月起小批量出货,预计后续出货量增加,但面临柜体零部件众多及铜缆干扰问题,GB300市场预期较低,能否在3G环境中使用取决于OEM安装能力[1][12][13]。 - **市场影响**:中东市场出货量预计增加,可能取代新加坡,对英伟达和AMD均有影响[3][17]。 - **高通** - **进军服务器CPU市场**:旨在打破X86生态,构建ARM生态闭环,展示Snapdragon E - LITECOM在企业级应用进展,联想提出终端产品数据算法算力互通概念[1][5]。 - **中国台湾科技公司及服务器产业链** - **地位与不足**:拥有台积电、鸿海等全球关键企业,服务器产业链完整,但AI应用创新相对滞后,应用端较CES和上海联想Tech World差距较大[1][2][6]。 - **关键产品**:下半年GBE300的MV72将大量上市,AI PC领域主要由华硕、宏碁、微星展示硬件产品,应用端创新有待提升[1][9]。 其他重要但是可能被忽略的内容 - **AI Token**:被视为未来重要工具,数据中心将成为AI工厂,以能源为输入产出AI Token,未来数据中心每月或每年生产AI Token数量将成为重要指标,标志着AI应用落地[3][14][15]。 - **英伟达产品角色**:RTX可能充当Hopper架构角色,DGX Station主要用于研究AI,针对研究人员,NVLink Fusion希望继续垄断生态系统[16]。 - **英伟达供应链**:从MV角度芯片已交付OEM且收入确认,但OEM后续工作进度影响整体供应链[3][18]。
一文读懂老黄ComputeX演讲:这不是产品发布,这是“AI工业革命动员令”
华尔街见闻· 2025-05-19 21:50
AI基础设施革命 - 英伟达定位从技术公司转型为AI基础设施公司,提出智能基础设施是继电力、互联网后的第三次基础设施革命 [3] - AI数据中心升级为"AI工厂",以电力为输入、Token为产出,颠覆传统数据中心模式 [2] - NVLink Spine互联模块重70磅,含两英里电缆,提供130TB/s带宽,单节点性能等效2018年Sierra超算 [4] 芯片与硬件创新 - 发布Grace Blackwell GB200超级芯片:双芯封装连接72颗GPU,Q3将推出GB300,推理性能提升1.5倍,HBM内存提升1.5倍,网络带宽提升2倍 [4][6] - 推出NVLink Fusion开放生态:支持第三方CPU/ASIC/TPU与英伟达GPU互联,带宽比PCIe高14倍,吸引富士通、高通、联发科等厂商参与 [8][9][10] - 个人超算DGX Spark投产,面向AI研究人员,支持用户定制化拥有超级计算机 [11][12] 企业AI与Agentic AI - 发布RTX Pro企业AI服务器:兼容传统x86/Windows,支持图形化AI代理运行,包括游戏场景 [14] - 提出Agentic AI将作为"数字员工"融入企业,涵盖客服、市场、工程师等角色,与CrowdStrike、Red Hat等合作部署AI Ops全栈支持 [14] - 推出AI语义检索框架Nemo + NeMo Retriever + IQ,联合Dell、IBM等部署企业级GPU存储系统,处理非结构化数据 [16][17] 机器人与自动驾驶 - 机器人被视为下一个万亿美元产业,Isaac Groot平台搭载Jetson Thor处理器,覆盖自动驾驶至人机交互场景 [18][22] - 与梅赛德斯合作全球自动驾驶车队,2025年实现端到端技术落地 [21] - 推出物理AI引擎Newton:GPU加速、支持超实时操作,7月开源并整合至ISAAC模拟器 [23] 合作伙伴与生态 - 展示广泛合作伙伴网络,包括Acer、Cisco、IBM、NetApp等,覆盖AI工厂、代理、机器人领域 [15] - 开放架构策略允许客户混合使用英伟达与非英伟达硬件,保持生态灵活性 [10][11]
扶持“新势力”、牵手“国家队”,英伟达对“最大客户”时刻提防
华尔街见闻· 2025-05-18 14:43
多元化发展战略 - 公司正大力推进多元化发展战略,寻求摆脱对微软、亚马逊和谷歌等科技巨头的依赖 [1] - 通过与沙特、阿联酋等国家建立"主权AI"合作关系,以及扶持CoreWeave等"新云"平台,试图在科技巨头之外建立新的收入来源 [1] 主权AI战略 - 公司与沙特阿拉伯的Humain达成了数十亿美元的芯片交易,阿联酋宣布在阿布扎比建设全球最大数据中心之一 [2] - 海湾国家计划构建庞大的人工智能基础设施,成为公司芯片的重要买家 [2] - 已有多个国家政府接触公司,希望为类似的主权AI项目采购其芯片 [2] - CEO黄仁勋本周访问海湾地区,展示了公司希望在全球范围内复制的战略模式 [2] 新云平台战略 - 公司积极支持潜在的亚马逊AWS、微软Azure和谷歌云的竞争对手,包括CoreWeave、Nebius、Crusoe和Lambda等"新云"平台 [3] - 这些合作伙伴获得公司内部资源的优先访问权,例如为其专业设备设计和优化数据中心的顾问团队 [3] - 公司对部分新云平台进行了投资,包括CoreWeave和Nebius [3] - CoreWeave成为"首家普遍提供公司Blackwell平台的云服务提供商" [3] - 新云平台Together AI的首席执行官表示,成为公司云合作伙伴可以获得对公司组织的良好接触 [3] - 公司与思科、戴尔和惠普等供应商建立联盟,以帮助向企业客户销售产品 [3] 未来机会 - CEO黄仁勋表示比一年前更加确信大型云服务提供商之外的业务机会 [4] - 在GTC大会上推出Rubin芯片时,CoreWeave和思科等合作伙伴比传统的科技巨头更加突出 [4] - 预测"每个行业"都将拥有自己的"AI工厂",代表潜在价值数千亿美元的新销售机会 [4] 挑战与风险 - 公司最近一个财季的监管文件中警告投资者,依然依赖于"有限数量的客户",这些客户被广泛认为是运营最大云服务和消费互联网服务的科技巨头 [5] - 科技巨头正在开发自己的AI芯片并将其推向客户,例如亚马逊投资的AI初创公司Anthropic正使用AWS Trainium处理器训练和运行其下一代模型 [5] - 多元化之战的结果将决定公司能否在AI芯片霸主地位遭遇挑战时仍能保持强劲的增长势头 [5]
腾讯研究院AI速递 20250514
腾讯研究院· 2025-05-13 23:57
生成式AI - OpenAI为Deep Research新增PDF导出功能,支持表格、图片和可点击引用链接,向Plus、Team和Pro用户开放 [1] - 新任应用事业部负责人Fidji Simo上任后加速向企业市场转型,将AI能力与实际工作流程深度融合 [1] - AI研究助手竞争加剧,各公司从比拼功能转向优化用户体验和工作流集成,PDF导出成为企业级AI工具的基本门槛 [1] 设计垂类Agent - Lovart是首个设计垂类Agent,具备设计规范生成、图像生成、尺寸延展、图文分离等功能 [2] - 产品支持全流程设计,从需求分析到视频合成、二次修改,集成了可灵、11labs、suno等工具 [2] - 在Agent加持下设计工作流将发生重大变革,从单纯的作品创作转向完整的产品资产交付 [2] 交互式世界基础模型 - Matrix-Game是昆仑万维开源的首个10B+交互式世界基础模型,能生成连贯可控的游戏互动视频 [3] - 模型通过两阶段训练和Matrix-Game-MC数据集训练,实现了高精度的动作响应和场景泛化 [3] - 代表空间智能领域的重要突破,适用于游戏开发、影视、广告、XR等领域的内容生产革新 [3] 多模态统一CoT奖励模型 - 腾讯混元推出UnifiedReward-Think,首次实现具备长链式推理能力的统一多模态奖励模型 [4] - 该模型解决了现有奖励模型只能"表面判断"的问题,在图像生成和理解任务中性能显著提升 [5] - 模型已全面开源,包含模型、数据集和工具,代表奖励模型向具备认知理解的智能评估系统转变 [5] AI平台开放注册 - Manus AI取消邀请码制度,开放全民免费使用权限,每位用户可获得每日300积分的免费任务额度 [6] - 平台提供三档付费订阅方案(19美元、39美元、199美元/月),可解锁更多功能和优先服务 [6] - 近期完成由Benchmark领投的7500万美元融资,估值升至5亿美元,资金将用于拓展海外市场 [6] AI政策调整 - 美国废除《AI扩散规则》,认为其会扼杀创新并损害外交关系,计划推出新的简化规则 [7] - 加强对海外AI芯片管制,禁止全球使用华为昇腾芯片,并发布指南防止AI芯片转移 [7] - 沙特承诺向美国投资6000亿美元,涉及AI数据中心、航空航天等多个领域 [7] 医学基准测试 - OpenAI推出医疗评估基准HealthBench,由262名医生参与构建,包含5000段真实对话 [8] - 测试显示最新模型o3得分60%,远超早期GPT系列,且小型模型性能提升显著,成本降低 [8] - 项目开源两个版本并发布完整评估工具,基于模型的评分系统与医生判断达到相似一致性 [8] AI工厂产业革命 - 黄仁勋认为AI工厂将引领下一代产业革命,NVIDIA正在建设投资五六百亿美元的千兆瓦级AI工厂 [9] - AI首次实现了真正的数字劳动力扩充,将成为继信息和能源之后的新一代基础设施 [9] - 英伟达已从芯片公司转型为AI基础设施公司,年研发投入200-300亿美元,致力于构建全球AI生态系统标准 [9] AI智能体发展 - OpenAI计划将ChatGPT发展为个性化AI服务,预测2025年AI智能体大规模应用 [10] - 团队坚持精简高效结构和快速迭代策略,目标定位为用户核心AI订阅服务提供商 [10] - 不同年龄段对AI应用差异显著:老年人视为搜索工具,中年人视为顾问,年轻人已将其作为操作系统使用 [10]
科技晚报AI速递:今日科技热点一览 丨2025年5月1日
新浪财经· 2025-05-01 21:24
科技行业政策与竞争 - 英伟达CEO黄仁勋呼吁特朗普政府修改AI芯片出口管制政策,指出中国AI技术快速追赶,美国现行限制损害美企竞争力 [1] - 黄仁勋推广"AI工厂"概念,获特朗普对其在美5000亿美元AI基建投资计划的赞赏 [1] - 美国联邦法官裁定苹果公司违反2021年法院命令,未开放App Store外部支付选项,并设计新措施维持高额佣金 [1] 人工智能发展动态 - OpenAI因GPT-4o表现"过于谄媚"引发争议,CEO奥特曼承认问题并启动回滚修复 [2] - 微软发布Phi-4推理模型系列,包括140亿参数的Phi-4-reasoning在多项测试中击败6710亿参数的DeepSeek-R1 [3] - DeepSeek开源数学推理模型DeepSeek-Prover-V2,671B版本在MiniF2F测试中达到88.9%通过率 [6] 科技公司战略布局 - 谷歌CEO皮查伊计划推动旗下AI产品Gemini于2025年成为iPhone内置AI选项之一 [2] - 谷歌CEO皮查伊警告美国司法部反垄断提案将"毁灭性影响"谷歌搜索业务,称去年研发投入达490亿美元 [3][4] - 饿了么启动超百亿补贴计划参战即时零售,市场份额已跌破30% [5] 机器人产业发展 - 松延动力人形机器人N2在马拉松赛事中取得亚军成绩后订单激增,但行业商业化落地仍面临挑战 [2] - 专家指出工业领域或成机器人短期主要落地方向,但家庭场景仍需长期突破 [2] AI应用与伦理 - 奥尔特曼投资的Tools for Humanity公司推广眼球扫描设备Orb,已在全球1200万人中测试用于区分人类与AI [3] - OpenAI解释GPT-4o问题源于更新过于关注短期反馈,导致模型偏向不诚实回应 [2] 就业市场变革 - Shopify宣布全员必须"条件反射式"使用AI,正式打响AI裁员第一枪 [4] - 数据显示今年美国白领职位招聘跌至12年最低点,联合国预计全球40%岗位将受AI冲击 [4]
黄仁勋劝特朗普:AI芯片出口规则得改,中国紧追其后
新浪财经· 2025-05-01 15:24
行业动态 - 英伟达首席执行官黄仁勋呼吁特朗普政府改变芯片出口规则,认为世界已发生根本性变化,中国在AI领域并不落后 [1] - 黄仁勋强调需要加速美国AI技术在全球的传播,政府的政策和鼓励措施应支持这一点 [1] - 美国拜登政府自2022年以来不断加码对华芯片出口管制,导致英伟达被禁止向中国客户销售最先进产品 [1] - 特朗普政府近期叫停英伟达"对华减配特供版"H20芯片销售,并可能进一步限制芯片出口 [1] 竞争格局 - 中国正成长为美国在技术领域的强大竞争对手,本土企业拥有强大的计算能力和软件能力 [2] - 中国在AI领域取得巨大进步,与美国差距非常接近 [2] - 美国出口限制规则未能遏制中国AI雄心,反而限制英伟达等美国公司发展,为其他国家竞争对手创造机会 [4] 公司战略 - 英伟达批评拜登政府的AI芯片出口管制规则"误导性十足",建议美国政府应聚焦提高本国企业竞争力 [4] - 黄仁勋呼吁美国政府关注促进技术发展的AI政策,强调AI行业是美国必须赢得竞争的领域 [5] - 英伟达推广"AI工厂"概念,这是一种销售AI芯片、软件、设计和网络基础设施的"一站式"商店 [5] 投资计划 - 英伟达宣布在美投资5000亿美元建设AI基础设施的计划,获得特朗普政府赞扬 [5] - 黄仁勋支持特朗普重振美国制造业的计划,认为这有助于开发下一代技术 [6] 市场影响 - AI赋能的数据中心建设将在建筑、信息技术等领域创造新的就业岗位 [5] - 全球AI收入正逐渐落入美国以外的公司手中 [4]
NVIDIA GTC 2025:GPU、Tokens、合作关系
Counterpoint Research· 2025-04-03 10:59
AI经济与Tokens化 - Tokens是用于检索或生成信息的新型"货币",推动AI经济发展,需要大量算力支持[1] - AI推理模型复杂度提升需要更高准确性,组织机构需遵循预训练、后训练和测试时的扩展流程[1] - NVIDIA愿景聚焦构建跨行业"AI工厂",涵盖企业IT、云计算到机器人技术[1] NVIDIA芯片技术进展 - 发布Blackwell超级AI工厂平台GB300 NVL72,AI性能比GB200 NVL72提升1.5倍[6] - 公布芯片路线图,支持从Hopper系列升级到Rubin/Feynman系列,Rubin Ultra采用四掩模版GPU,FP4精度达100 petaFLOPS,搭载1TB HBM4e存储器[6] - 新款Vera CPU拥有88个Arm核心,性能是Grace CPU两倍,功耗仅50W,更新周期两年[6] - 推出Spectrum-X硅光子学产品,可横向扩展至数百万GPU,节省数兆瓦电力[6] 系统与基础设施 - 发布DGX SuperPOD GB300,配备36个Grace CPU和72个Blackwell GPU,AI性能比Hopper系统高70倍[10] - 采用第五代NVLink技术和大规模共享内存系统,可扩展至数千个GB超级芯片[10] - 推出1 petaFLOPS的个人超级计算机系统GB10,针对桌面优化微调与推理[14] 软件生态系统 - Dynamo开源框架提升AI推理效率,可使GPU的Tokens生成能力提升30倍以上[19] - Halos平台整合自动驾驶安全系统,覆盖从芯片到算法全链条[20] - CUDA-X拥有超100万开发者,成为最受欢迎的AI编程工具包[23] - 发布Isaac GR00T N1人形机器人基础模型,采用双系统架构模拟人类决策与反射[25] 行业应用拓展 - Aerial平台构建端到端AI驱动的6G技术栈,与T-Mobile等合作开发原生AI网络[23] - Omniverse-Cosmos平台支持机器人训练与场景微调,与DeepMind合作开发物理引擎[25] - 软件专业技术是NVIDIA核心优势,推动高性能芯片在HPC、自动驾驶等领域的应用[25]
刚刚,老黄携GB300震撼登场!DeepSeek推理暴涨40倍加速全球最快,26年Rubin问世
创业邦· 2025-03-19 11:17
文章核心观点 英伟达在GTC大会展示过去一年进展,发布新产品路线图,强调Scaling Law未撞墙,未来数据中心建设规模将达万亿美元,还推出开源推理软件和通用机器人模型,有望在AI和机器人领域持续引领发展[1][23][27] 分组1:大会亮点与行业趋势 - 英伟达老黄在GTC大会介绍过去一年进展,称今年GTC是AI的超级碗,每个人都是赢家 [2] - Blackwell全面投产,因AI拐点至,训练推理AI/智能体系统对计算量需求大增 [3] - 英伟达预言未来有工厂的公司将有实体工厂和AI工厂,CUDA核心及算力将引爆行业变革 [4] - 通用计算到尽头,行业正从通用计算机转向加速器和GPU上运行的机器学习软件,计算机成为生成token的工具 [28] - 加速计算趋势无法阻挡,AI将进入各行业,英伟达CUDA - X库为科学领域提供加速框架 [29] 分组2:产品路线图 - AI芯片每年一更,下一代Rubin明年亮相,英伟达构建云上、企业和机器人AI基础设施 [5][8] - 今年下半年将问世的Blackwell Ultra提升训练和测试时推理能力,显存从192GB提升到288GB,GB300 NVL72的AI性能比NVIDIA GB200 NVL72高出1.5倍 [6][7] - 2026年下半年预计发布Vera Rubin,推理时每秒50千万亿次浮点运算,比Blackwell速度高出一倍多,显存升级为HBM4,带宽从8TB/s提高到13TB/s,扩展NVLink吞吐量提升到260TB/s,机架间CX9链路达28.8TB/s [9][10] - 2027年下半年预计推出Rubin Ultra版本,FP4精度推理性能达15 ExaFLOPS,FP8精度训练性能为5 ExaFLOPS,相比GB300 NVL72性能有14倍提升,配备HBM4e内存,带宽为4.6 PB/s,支持NVLink 7,带宽为1.5 PB/s,较上一代提升12倍,机架支持CX9,带宽达115.2 TB/s [11] - 2028年将上市Feynman,命名致敬美国理论物理学家Richard Feynman [17] 分组3:桌面级产品 - 推出Blackwell RTX PRO工作站和服务器系列,包括数据中心、桌面和笔记本GPU,为开发者等提供AI支持,RTX PRO 6000 Blackwell吞吐量高达1.5倍,第五代Tensor Core每秒4000万亿次AI运算,第四代RT Core性能提升2倍 [19] - 带来两款由Blackwell驱动的DGX个人桌面AI超级计算机DGX Spark和DGX Station,DGX Spark是最小的AI超级计算机,配备128GB内存,核心是GB10 Grace Blackwell超级芯片,每秒1000万亿次AI计算能力;DGX Station将数据中心级性能带到桌面,采用GB300 Grace Blackwell Ultra桌面超级芯片,配备784GB统一内存 [20][22] 分组4:Scaling Law与数据中心 - 老黄称Scaling Law没撞墙,推理计算量需求大增,数据可通过强化学习和合成数据获取,AI处于转折点 [25][26] - 2024年全球TOP 4云服务商买进130万块Hopper架构芯片,预计2028年数据中心建设规模达一万亿美元 [27] 分组5:架构与扩展 - 英伟达通过网络InfiniBand和Spectrum X实现scale up,Spectrum X具备低延迟和拥塞控制特性,成功扩展最大单GPU集群 [14] - 官宣首个共封装硅光子系统,每秒1.6T的CPO,基于「微环谐振器调制器」技术,用台积电工艺构建,可扩展至数十万甚至百万GPU规模 [15][16] - HGX系统架构解决纵向扩展问题,包含8个GPU,通过MVLink 8连接到CPU架,再通过PCI Express连接,用InfiniBand连接多个设备,NVLink交换机让GPU全带宽通信,液冷压缩计算节点,实现一个机架Exaflops级超算 [31][32][33] 分组6:推理Scaling问题与解决 - 推理Scaling是「终极计算」问题,推理中响应时间和吞吐量存在矛盾,需最大化生成token曲线下方面积,还需巨大带宽和浮点运算能力 [36] - 传统LLM用不到500个token快速回答问题但结果错误,推理模型需超8000个token推理简单问题,计算量增加150倍,万亿级参数模型需通过管线、张量和专家并行组合解决,NVlink可实现规模终极Scaling [37][38][39] 分组7:NVIDIA Dynamo - 发布开源推理软件NVIDIA Dynamo,被称为「AI工厂的操作系统」,能协调加速数千个GPU间推理通信,分配LLM处理和生成阶段到不同GPU,优化GPU资源利用 [41][42] - Dynamo能让运行Llama模型的AI工厂在Hopper架构上性能和收入双双翻倍,在GB200 NVL72集群上运行DeepSeek - R1模型时,每个GPU生成token数量提升超30倍,还能动态分配GPU、卸载推理数据降低成本 [42] - Dynamo完全开源,支持PyTorch、SGLang、NVIDIA TensorRT - LLM和vLLM [43] 分组8:性能对比与效益 - 新的Blackwell架构比Hopper强,能耗固定时性能提升25倍,推理模型上高40倍,用MVLink 8技术加速,引入4位浮点数优化,能效高的架构对未来数据中心重要 [44] - Blackwell扩展到MVLink 72加上Dynamo软件效果更好,能适应不同工作负载,老黄认为大型项目投资最新技术如Blackwell可避免落后,买得越多赚得越多 [45][46] 分组9:通用机器人模型 - 预计本世纪末世界劳动力短缺超5000万,通用机器人时代到来,具身智能遵循三大Scaling Law,数据短缺问题可由英伟达Omniverse和Cosmos解决 [48][49] - 官宣世界首个开源、完全可定制的通用人形机器人模型GROOT N1,采用「双系统架构」,慢思考系统推理规划行动,快思考系统转化为精确动作,可执行多步骤任务 [50][51][52] - 与DeepMind、迪士尼研究开发下一代开源的Newton物理引擎,让机器人精确处理复杂任务,以星球大战BDX机器人为灵感的Blue上台互动,老黄预言机器人领域将成最大产业 [54][55][56]
黄仁勋年度演讲来了,Scaling Law失效只是假象,推理需求暴涨100倍,AI模型优化迎来新挑战|GTC 2025
AI科技大本营· 2025-03-19 09:49
演讲核心观点 - 英伟达推出下一代Blackwell Ultra芯片,提升AI训练和推理能力,并规划至2028年的芯片路线图[7][11][16] - 公司提出"AI工厂"概念,强调数据中心将从检索计算转向生成计算,预计到2028年数据中心资本支出超1万亿美元[43][69][71] - 发布个人AI超级计算机DGX Spark和DGX Station,面向模型微调与推理市场[19][21] - 布局量子计算领域,设立加速量子研究中心(NVAQC),推动量子计算与AI融合[23][25] - 推出人形机器人基础模型Isaac GR00T N1和开源物理引擎Newton,宣布"通用机器人时代已经到来"[31][33][165] 芯片与技术发布 - Blackwell Ultra芯片包含GB300 NVL72和HGX B300 NVL16两个版本,相比前代Hopper GPU,大语言模型推理速度提升11倍,算力增加7倍,内存容量扩大4倍[8] - 公布未来芯片路线图:2026年推出Rubin架构,2027年更新Rubin Ultra,2028年推出Feynman架构[11][14][16] - Rubin性能可达Hopper的900倍,Blackwell是Hopper的68倍[16] - 推出基于硅光子技术的Spectrum-X和Quantum-X交换机,能效提升3.5倍,信号稳定性提高63倍[28][30] AI与计算趋势 - 计算领域迎来拐点,AI增长加速,推理所需计算量比预期多100倍[43][63] - 从感知AI、生成式AI到自主式AI和物理AI的演进,每个阶段都带来新的市场机会[56] - 推出分布式推理服务库NVIDIA Dynamo,作为AI工厂的操作系统,并宣布开源[111][113] - 强调合成数据的重要性,需要生成万亿级token来训练AI模型[67] 行业应用与合作 - 与AWS、谷歌云、微软Azure等云服务商合作,将率先提供Blackwell Ultra实例[12] - 与戴尔、惠普、联想等服务器厂商合作,计划2025年底推出基于Blackwell Ultra的AI基础设施[12] - 与通用汽车(GM)合作构建未来自动驾驶车队,推出自动驾驶安全系统NVIDIA Halos[82][84] - 与思科、T-Mobile合作构建AI边缘计算无线网络堆栈[80] 机器人技术 - Isaac GR00T N1是全球首个开放且完全可定制的人形机器人基础模型,配套Isaac GR00T蓝图技术生成合成数据[31] - 开源物理引擎Newton由Google DeepMind和迪士尼共同开发,专为机器人设计[33] - 机器人Blue亮相,由Newton物理引擎驱动,展示具身智能技术进展[35][171] - 预测物理AI和机器人学将成为最大行业之一,机器人将作为数字工作者与人类并肩工作[148][165]