开源模型
搜索文档
英伟达新一代Rubin平台 欲重构AI与世界的联结
中国经营报· 2026-01-09 10:08
公司战略与定位 - 公司CEO黄仁勋强调公司已转型为AI基础设施公司,而不仅仅是芯片供应商,其CES主题演讲超过70%的篇幅聚焦于物理AI的应用场景与商业化路径[2] - 公司角色从芯片供应商转变为“全栈AI体系”构建者,通过开源模型、数据及开发库,为全球提供构建物理AI的底座[9] - 公司通过“三台计算机”(训练、推理、模拟)的架构,以及扩展的开源模型生态,构建其在推理时代的AI基础设施叙事[8][9][10] 新一代AI计算平台:Vera Rubin - Rubin平台是公司在CES 2026上推出的最大亮点,已全面投产,是首个采用协同设计、集成6款芯片的AI平台[2][4] - 平台集成的6款芯片包括:Vera CPU、Rubin GPU、NVLink 6交换机芯片、ConnectX-9 Spectrum-X SuperNIC超级网卡芯片、BlueField-4 DPU和Spectrum-6以太网交换机芯片[4] - 平台重新设计6颗芯片的原因是摩尔定律放缓与AI需求爆炸,模型参数规模每年增长10倍,推理生成的token数量每年增长5倍,单token成本每年下降10倍[4] Rubin平台性能与技术创新 - 核心芯片Rubin GPU相比前代Blackwell实现跨代跃升:NVFP4推理性能提升至50 PFLOPS(5倍)、训练性能提升至35 PFLOPS(3.5倍)、HBM4内存带宽提升至22TB/s(2.8倍)、单GPU NVLink互连带宽翻倍至3.6TB/s[5] - 公司CEO表示Spectrum-X网络方案非常成功,可实现25%更高的吞吐量,仅10%的性能提升就价值50亿美元,公司已成为全球有史以来最大的网络公司[5] - 平台引入由BlueField-4 DPU支持的推理上下文内存存储平台,作为新型AI存储基础设施,以应对多轮对话产生的KV Cache,公司CEO称公司可能成为世界上最大的存储公司之一[6] - 分析师认为,对于使用公司全栈GPU解决方案的企业价值较大,因为能带来更优的算存网资源运营与分配[6] 平台系统设计与功耗 - Vera Rubin NVL72系统包含18个计算托盘和9个NVLink交换机托盘,计算托盘采用“无线缆、无水管、无风扇”设计,组装一个计算节点仅需5分钟,而过去需要2小时[7] - 整个系统为100%液冷,使用45°C热水,无需冷水机,但功耗是前代GB200 NVL72系统的两倍[7] 开源模型生态与影响 - 开源模型在2025年取得显著进步,下载量爆炸式增长,虽然仍落后前沿模型约6个月,但进步迅速[8] - 2025年,每4个token中就有1个由开源模型生成,公司CEO提到公司在领导开源模型生态,并多次提及DeepSeek、Kimi、Qwen等中国开源模型[2][8] - 公司扩展其开源模型生态,新增和更新了一系列模型、数据集、代码库和工具,覆盖生物医学AI、AI物理模拟、Agentic AI、物理AI、机器人和自动驾驶6大领域[8] - 公司CEO曾表示,2025年及2026年Blackwell和Rubin平台可带来的收入超过5000亿美元,并因新进展(如Anthropic将使用其平台)而应增加对该数字的期望[8] 物理AI与推理应用 - AI发展进入“物理AI”新阶段,需要AI理解物理定律并进行推理[9] - 公司推出了开源的物理AI世界基础模型Cosmos,它经过海量视频、真实驾驶与机器人数据以及3D模拟预训练,能理解世界运行规律,实现生成内容、推理、预测轨迹等功能[9] - 公司正式发布了世界首个会思考、会推理的自动驾驶AI——Alpamayo,它是面向自动驾驶领域的开源工具链,也是首个开源的视觉—语言—行动推理模型,并开源了从数据到部署的完整开发资源[9][10]
a16z 创始人:AI 价格打下来了,机会才刚开始
36氪· 2026-01-09 09:17
文章核心观点 - AI产业的核心趋势正从追求模型能力突破,转向智能成本的急剧下降,智能正从奢侈品变为日用品,这将重塑商业规则 [1][2][3] 成本结构变化 - AI的单位调用成本正以比摩尔定律更快的速度断崖式暴跌,竞争激烈导致价格一落千丈 [4] - 硬件使用年限延长,例如GPU使用寿命从3年延长到7年以上,摊薄了每次调用的成本 [5][6] - 智能正在变成一种可批量采购、按需计费的新材料,成本下降的同时,AI公司收入正以比以往任何技术周期都快的速度增长 [7][8] 技术路径演变 - 模型应用逻辑转变:并非所有任务都需要最强大的模型,够用即可,这催生了大量小模型的出现 [12] - 小模型快速跟进:在大模型证明某项能力可行后的6到12个月内,就会出现能力相近但体积更小、成本更低的模型,例如Kimi模型在推理能力上追平GPT-5但成本更低 [13][14][15] - 使用与开发方式变革:AI从高高在上的工具变为随手可用的小工具,初创公司和独立开发者可利用开源模型快速部署和微调 [16] - 行业形成金字塔结构:顶端是少数超级模型,底层是大量扩散到各种设备中的小模型,类似计算机行业中超级计算机与微芯片的关系 [18] 定价模式与商业逻辑 - 基础设施层与应用层定价逻辑分层:基础设施层(如API)按使用量计费,价格因竞争而下降;应用层按创造的价值计费,价格可以上行 [25][26] - 应用层定价探索新方式:从按使用量收费转向按价值收费,例如按节省的工时、提升的生产力比例分成,而非调用Token的次数 [27] - 高价订阅成为可能:消费者端出现200-300美元/月的高级套餐,企业愿意为能带来直接回报的AI服务付费,用户购买的是结果而非模型本身 [9][28] - 应用公司进行“向后整合”:从调用单一API发展为使用多个甚至上百个模型,并针对垂直场景训练定制模型,以掌控技术栈并优化功能、速度与成本 [20][22][23][24] 竞争格局与市场动态 - 行业追赶速度极快:一旦技术路径被证明可行,其他团队可在半年到一年内追上,例如xAI、DeepSeek及多家中国公司均在短时间内达到前沿水平 [30][31] - 快速追赶的驱动因素:开源降低了学习门槛、知识在年轻人才中极速扩散、成本塌陷和小模型崛起降低了资源门槛 [32] - 对现有公司构成挑战:战略选择的不确定性增加,一旦押错方向,优势可能迅速被竞争对手赶上 [33][34] - 为风投与创业者创造机会:不确定性允许风投分散投资,并为创业者保留了进入市场的窗口期 [35][36][37] - 行业常态变为持续竞争:领先者的护城河变浅,追赶成为常态,竞争将持续激烈 [38] 行业总体影响与机会 - 产业转折点在于智能变得廉价可用,而非单纯变强 [39] - 核心商业机会在于:谁能将智能压缩、量产并变成随时可调用的标准件,谁就能抢占最大市场 [19] - 应用层的机会在于向后整合技术栈、深耕场景理解用户价值、并实行按价值定价的策略 [29] - 技术变革刚开始,但商业竞争规则已被重写,模型落地和可用性比单纯追求规模和技术更强更重要 [40]
黄仁勋CES最新演讲:这,是所有人的机会
搜狐财经· 2026-01-09 07:23
AI行业平台转移与双重搬家 - AI行业正经历每10-15年一次的“平台转移”,当前AI的“双重搬家”意味着应用构建和技术栈的根本性变革 [2] - 第一重搬家:AI从独立应用转变为所有软件的基础,未来所有软件都将以AI为地基 [3] - 第二重搬家:软件开发和运行模式从基于CPU的固定逻辑编程,转变为基于GPU的训练模式,计算方式被彻底重塑 [4] - 过去十年价值约十万亿美元的计算机基础设施正被现代化改造,每年有数千亿甚至上万亿美元的风险投资涌入这一领域 [4] 开源模型的颠覆性影响 - DeepSeek R1等开源模型的出现激活了更多公司,开源模型的下载量呈现爆炸式增长 [6][8] - 全球存在多种不同类型的开源模型系统,虽然仍落后前沿模型约六个月,但每六个月就有更聪明的新模型出现 [7] - 开源趋势不仅包括模型,还包括训练数据,以建立开发者信任并推动行业参与 [9] - 初创公司、大公司、研究员、学生及几乎每个国家都想参与这场AI革命 [8] 物理AI的发展与落地 - AI正从纯数字交互转向理解并作用于物理世界,核心是让AI掌握现实世界的物理规律(如重力、摩擦力、物体恒存性) [10][11] - 通过“模拟+合成数据”解决现实世界数据稀缺问题,英伟达的Cosmos平台可生成逼真视频、预测轨迹及还原罕见场景 [12][13][14] - 自动驾驶AI“Alpamayo”采用端到端训练,能从摄像头画面直接控制车辆,并能解释驾驶决策,同时搭配传统系统作为安全备份 [15] - 机器人的“ChatGPT时刻”即将到来,AI生成逼真动作视频的技术成熟,为机器人执行物理指令奠定了基础 [16][17][18] - 预计未来两三年,机器人领域将从实验室样品转变为能真正落地解决实际问题的产品 [19] 算力平台的超级升级 - 英伟达推出Rubin平台,旨在解决AI推理算力不足、成本过高及上下文丢失问题 [20][21][22] - 平台核心优势一:算得更快,训练效率翻4倍,例如训练10万亿参数模型的时间可从4个月缩短至1个月,或使用1/4的设备完成相同工作 [23][24] - 平台核心优势二:算得更省,token处理成本降低10倍,即以前生成100个token的成本现在能生成1000个 [25] - 平台核心优势三:跑得更久,通过BlueField-4芯片将GPU的上下文内存扩大16倍,从1太字节扩展至16太字节,支持长时间、复杂任务处理而不丢失上下文 [26][27] - 平台能效超高,用同样多的电可产生5倍的算力,同时提供全程数据加密的安全保障 [28] 行业竞争与公司战略 - 英伟达认可中国AI芯片公司的竞争力,认为中国的企业家和工程师是世界顶尖的,许多公司已成功上市 [30] - 公司认为竞争促使自身必须持续技术创新,其护城河在于“全栈能力+生态网络”,涵盖从CPU、GPU到软件、模型的完整链条,并与全球AI公司及行业龙头(如西门子、礼来、梅赛德斯-奔驰)深度合作 [31][32] - 对于机器人创业方向,建议要么做通用技术的“横向公司”,要么做深耕具体场景的“垂直领域公司”(如手术机器人、工厂机械臂),后者更被看好 [33][34] - 针对AI耗电问题,核心思路是提升能效,实现每一代产品算力翻10倍而功耗仅翻2倍,即每一度电干5倍的活,将能效直接转化为企业利润 [35][36] AI发展的核心趋势与未来 - AI发展的下一个十年核心是“落地”,价值从追求大模型参数转向解决实际问题(如餐厅库存、降低自动驾驶成本) [41][42] - 英伟达的整体布局围绕“落地”展开:开源促进广泛落地,物理AI推动现实世界落地,Rubin平台降低落地成本并提升效率 [43] - AI革命被视为所有人的机会,而非巨头独角戏,只要能抓住“落地”核心,大公司、小团队、技术人或普通人都能找到自身位置 [44][45] - 未来赢家将是那些能实现AI落地、算得起且用得久的玩家 [45]
开源“裸考”真实世界,国产具身智能基座模型拿下全球第二!
量子位· 2026-01-08 19:07
文章核心观点 - 国产具身智能基础模型WALL-OSS在RoboChallenge真机评测中,以46.43分的总成绩超越美国明星公司Physical Intelligence的pi0模型,位列全球第二 [1] - WALL-OSS是一个彻底开源的端到端具身智能基础模型,其成绩建立在完全透明的代码与参数之上,可被复现和检验,代表了开源模型在推动具身智能前沿发展中的关键作用 [7][9] - 该模型通过创新的“共享注意力+专家分流”架构和“启发→整合”的阶段式训练范式,有效解决了模态解耦和灾难性遗忘等核心挑战,在认知深度与动作精度之间取得了平衡 [41][43][48] - 自变量机器人团队将开源视为对“行业基础设施”的长期投入,旨在通过降低行业创新门槛,在同一个高起点上推动真正的技术创新 [57][60] 模型性能与评测表现 - **总体排名**:在RoboChallenge真机评测榜单上,WALL-OSS以46.43分排名第二,仅次于61.84分的pi0.5,但以微弱优势(0.02分)超越46.41分的pi0 [2] - **单项任务优势**:在叠洗碗巾、挂口杯、按按钮、浇盆栽、移物入盒、开瓶器进抽屉等多个单任务中,WALL-OSS均拿下单项第一 [2] - **具体任务示例**: - “叠抹布”任务:WALL-OSS以41分位列第一,任务成功率为10%,而pi0的成功率为0% [12][13] - “连续按下三个按钮”任务:WALL-OSS得分82.00,成功率为60.00%,显著领先于其他模型(如cogact/hsk得分18.00,成功率0.00%) [22][23] - “将不同形状杂物收纳至筐中”任务:WALL-OSS的得分和成功率均高于pi0 [26][28] - **评测基准特点**:RoboChallenge是首个在真实物理环境中由真实机器人执行操作的大规模、多任务基准测试,其Table 30任务集包含30个真实日常操作任务,远超行业常见的3–5个任务数量 [4][11] 技术架构与训练创新 - **核心挑战应对**:针对VLM向VLA迁移过程中的“灾难性遗忘”和“模态解耦”两大挑战,WALL-OSS在架构和训练上进行了创新 [38] - **模型架构**:采用“共享注意力+专家分流(FFN)”的架构设计,将语言、视觉与动作信息嵌入同一表示空间,实现深度跨模态交互与高效任务分流,形成紧耦合的认知—行动闭环 [41][42] - **训练策略**:设计了“启发阶段→整合阶段”的阶段式训练范式 [43] - 启发阶段:通过具身VQA、指令跟随等任务强化空间推理,结合FAST tokenization离散动作训练,保留原有认知能力并建立空间与动作基础认知 [43] - 整合阶段:先冻结VLM仅训练Action FFN下的流匹配头以精修高频动作生成,最终解冻VLM进行联合优化 [44][45] - 这种“先离散、后连续、再联合”的路径避免了能力塌缩,实现了认知能力向动作层面的无损迁移 [47] - **决策能力增强**:构建了统一的跨层级思维链框架,将思维链能力内化到具身决策过程中,使模型能够自主拆解问题、逐步思考并动态调整策略,从而具备承担长程、复杂具身任务的能力 [49][50][51] 开源属性与行业意义 - **彻底开源**:WALL-OSS不仅开放了预训练模型权重、完整训练代码和数据集接口,还提供了详尽的部署文档,仅需RTX 4090级别的消费级显卡即可完成从训练到推理部署的完整流程 [7] - **榜单开源趋势**:当前RoboChallenge榜单前三名(pi0.5, WALL-OSS, pi0)均来自开源体系,表明具身智能的前沿发展正由开源模型共同推动 [8][9] - **评测透明性**:RoboChallenge平台公开了所有任务演示数据及测试中间结果,包括多视角执行视频、机械臂关节角度与夹爪状态图表等,使评测过程完全透明可追溯 [16][17][19] - **降低行业门槛**:一个可在消费级显卡上训练和部署的开源具身模型,弥补了行业空白,实质性地降低了整个行业的创新门槛,使研究者和创业团队能将精力投入到提升泛化能力、处理复杂任务等更有价值的问题上 [57] - **推动生态创新**:开源生态使行业能在同一个高起点上竞争真正的创新,而非重复进行基础设施建设 [57] 公司背景与融资情况 - **团队背景**:自变量机器人核心团队长期深耕机器人与多模态智能方向,明确以构建“通用具身智能基座”为长期目标 [54] - 创始人兼CEO王潜:清华大学本硕,南加州大学博士,从事Robotics Learning研究,是较早将Attention思想引入神经网络体系的研究者之一 [54] - 联合创始人兼CTO王昊:北京大学计算物理博士,前IDEA研究院大模型团队负责人,曾带领团队发布多个开源大模型 [54] - **融资情况**:公司已完成多轮融资,几个月前宣布了近10亿元A+轮融资,由阿里云、国科投资领投,国开金融、红杉、渶策、美团、联想之星、君联资本等参与 [54] - **发展理念**:公司更关注如何构建一个可被反复验证、持续演化的“机器人通用大脑”,并将WALL-OSS定位为面向真实物理世界、端到端统一的基座模型,而非为特定Demo或任务定制的解法 [55][56]
“短缺终将导致过剩”!a16z安德森2026年展望:AI芯片将迎来产能爆发与价格崩塌
硬AI· 2026-01-08 12:24
AI技术变革的宏观定位 - AI是比互联网更宏大的技术变革,其量级可与电力、微处理器和蒸汽机相提并论,目前仍处于“非常早期”阶段 [3][11][23] - 智能的单位成本正以远超摩尔定律的速度下降,形成“极度通缩”,这将推动需求的爆发性增长 [4][13][41] - 基础设施(如GPU、数据中心)的短缺将引发数千亿甚至数万亿美元的大规模建设,最终导致供应过剩,进一步压低AI成本 [2][5][13][41] 市场结构与竞争格局 - 未来AI行业结构将类似计算机产业:顶端是极少数类似超级计算机的“上帝级模型”,边缘侧将普及海量低成本的小模型 [6][19][48] - AI领域实质上是中美双雄争霸的局面,世界其他国家要么造不出来,要么不想造 [6][57] - 中国在AI领域的追赶速度惊人,例如DeepSeek的发布被形容为“超新星时刻”,其开源策略和芯片自研进展对全球竞争格局产生影响 [6][13][60] 商业模式与定价演进 - AI应用正从“按Token付费”向“基于价值定价”转移,初创公司在定价上比传统SaaS公司更具创造力 [7][17][38] - 高定价可能对客户有益,因为它能支撑更好的研发,使产品变得更好 [82] - 领先的AI应用公司(如Cursor)正在向后集成,构建自己的专用模型,而不仅仅是做大模型的“套壳” [7][17][97] 技术发展路径与扩散 - 大模型与小模型并非零和博弈,而是一个分工明确的“智力金字塔”,两者将共存 [19][48][89] - 开源模型(如中国的Kimi)正快速追赶闭源大模型的能力,并能以更低的成本在本地硬件上运行,加速了技术扩散 [46][86][87] - AI技术的民主化程度极高,全球最先进的文本、视频、音乐AI(如ChatGPT、Sora、Suno)已打破壁垒,任何人都能第一时间使用 [7][28] 行业动态与初创公司生态 - 新一代AI公司的营收增长和起飞速度是前所未有的,真实需求正快速转化为银行账户中的收入 [19][32] - 初创公司生态极其活跃,不仅有应用公司爆炸式增长,也出现了新的基础模型公司(如由Ilya Sutskever、Mira Murati创立的公司) [92][93] - 风险投资机构采取投资组合策略,同时押注大模型与小模型、专有与开源、基础模型与应用等多种看似矛盾的方向,以捕捉技术变革的机遇 [20][106][108] 地缘政治与监管环境 - 中美AI竞赛促使美国联邦层面的监管风向转变,两党都少有兴趣做任何可能阻碍美国战胜中国的事情,严苛监管风险已大幅降低 [14][64][65] - 监管焦点从联邦层面转移到各州(如加州的SB 1047法案),但存在监管割裂的风险,业界正推动由联邦政府主导监管 [65][68] - 欧盟的《AI法案》被视为过度监管,扼杀了本土AI发展,甚至导致苹果和Meta拒绝在欧洲发布最新功能,欧盟正试图进行修正 [8][69][70]
黄仁勋2026第一场演讲,点赞中国3个大模型
36氪· 2026-01-07 11:24
文章核心观点 - 英伟达CEO黄仁勋在CES演讲中,将焦点从消费级显卡转向物理AI,并宣布了公司在开源模型、自动驾驶及下一代计算架构方面的重大进展,标志着AI正从数字世界走向物理世界,并进入大规模产业部署阶段 [1][5][17] 开源模型的崛起与影响 - 开源模型的崛起彻底改变了人工智能,成为全球创新的催化剂,其中DeepSeek R1的出现意外推动了整个行业的变革进程 [2] - 全球开源模型性能正快速逼近顶尖水平,目前仍落后最顶尖的闭源模型约6个月,但差距在逐步缩短 [4] - 演讲中展示了多款开源大模型,其中包括三款中国大模型:Kimi K2、DeepSeek V3.2和Qwen(千问)[2][6] 物理AI与自动驾驶进展 - 物理AI被定义为AI发展的第四阶段,它能够在物理世界中学会思考物理因果关系,其“ChatGPT时刻”已经到来 [8] - 英伟达发布全球首个开源自动驾驶推理模型Alpamayo,与特斯拉FSD展开竞争,该模型引入视觉-语言-行动模型,首创“决策——因果——推理”因果链,能生成自然语言解释决策逻辑 [8] - 搭载Alpamayo技术的奔驰CLA,将在今年第一季度在美国上市,之后逐步进入欧洲和亚洲市场 [8] - 公司认为,在接下来的10年里,世界上很大一部分汽车将是自动驾驶的、高度自动驾驶的 [9] - 特斯拉CEO马斯克指出,达到99%的准确率很容易,但要解决分布的长尾部分(如极端天气、突发障碍物)超级难,而特斯拉FSD凭借海量真实驾驶数据拥有优势 [9][10] 下一代计算架构Rubin - 英伟达下一代超级计算架构Vera Rubin正式登场,其创新在于“六款芯片协同设计”,共同执行计算、思考、数据处理、网络通信等任务 [11][13] - 在推理任务下,Rubin GPU性能达到50 PFLOPS(每秒5000万亿次运算),是Blackwell的5倍;训练性能达到35 PFLOPS,是Blackwell的3.5倍 [13] - 对比H100的性能约4 PFLOPS,Rubin有巨大提升 [14] - Rubin推理成本降低了10倍,花更少钱、用更少的时间,干更多的活 [15] - 上一代Blackwell需要一个月完成Alpamayo模型的训练,Rubin仅需一周;在Rubin上跑Alpamayo,推理延迟降低至1毫秒 [15] - Vera Rubin架构已经全面进入量产阶段 [16] 行业趋势与意义 - 中国开源大模型的崛起,让大模型不再是少数巨头的游戏 [17] - 物理AI的突破,让AI从虚拟走向实体 [17] - Rubin架构的诞生,让高效能、低成本的智能部署成为可能 [17] - 三者交织之下,AI正从实验室走向工厂、道路、社区,成为重塑产业、改变生活的核心力量 [17]
英伟达CEO黄仁勋称:开源模型将改变AI ,Deepseek-R1为行业典范
搜狐财经· 2026-01-06 15:25
英伟达CEO在CES 2026的主题演讲核心观点 - 英伟达CEO黄仁勋在CES 2026开幕式上发表演讲,发布众多前沿新产品,并高度评价中国开源模型DeepSeek-R1,称其足以让世界感到震惊并引领开源模型领域 [1] 人工智能产业的根本性变革 - 演讲揭示了人工智能产业正经历根本性变革,主要体现在代理式系统崛起、开放模型生态爆发、物理AI落地突破以及产业赋能与生态协同 [3] - AI在开源模型等前沿科技加持下,已从单一应用升级为基础结构,具备驱动计算模式、产业形态与技术生态全方位重构的能力 [3] 开源模型的竞争优势与产业影响 - 开源模型相比闭源模型具备显著优势,例如DeepSeek R1通过开源吸引全球开发者参与,实现迭代周期迅速、技术突破快,易于形成“全民共建”的创新生态 [5] - 开源模型具有场景适配灵活性,企业可基于开源模型进行二次开发,例如医疗大模型开源后,基层机构能针对地方多发病定制解决方案,实现技术普惠 [5] - 开源模型在成本和效率上具有较大优势,其工具库降低了研发门槛,叠加模块化改造能力,例如分层模型可使营销物料复用成本趋近于零,大幅提升产业效率 [5] - 在AI竞争激烈的当下,开源模型被视为引领产业前进的核心力量,能以更低的研发门槛和更高的适配效率推动AI技术在各行各业落地,形成从技术突破到产业落地的完整闭环 [6]
黄仁勋CES扔AI核弹!“六芯”Rubin量产,英伟达大杀器来了
格隆汇· 2026-01-06 15:23
全新Rubin AI计算平台发布 - 英伟达在CES 2026上正式发布下一代AI计算架构Rubin平台,该平台以天文学家薇拉・鲁宾命名,是继Hopper、Blackwell之后的又一重大升级[1][3][8] - Rubin平台由Vera CPU、Rubin GPU、NVLink6、ConnectX-9、BlueField-4、Spectrum-6六款协同工作的独立芯片组成,旨在实现推理成本的革命性下降[8] - 平台引入了五项关键创新,包括最新一代NVLink互连技术、Transformer引擎、机密计算和RAS引擎,以及NVIDIA Vera CPU,将加速智能体AI、高级推理和大规模混合专家模型推理[9] Rubin平台的性能与成本优势 - 与上一代Blackwell平台相比,Rubin平台的推理性能是Blackwell GB200的5倍,训练性能是其3.5倍[4] - Rubin平台生成推理token的成本比Blackwell平台降低高达10倍[4][9] - 训练混合专家模型所需的GPU数量比前代产品减少4倍[4][10] - 产品已进入全面生产阶段,预计将于2026年下半年通过戴尔、HPE、联想及云服务商等合作伙伴交付首批客户[5][12][13] 面向垂直领域的开源模型 - 为加速全行业AI开发,英伟达推出了四款针对不同垂直领域的开源模型:专注于逻辑推理的Nemotron、专注于物理规律的Cosmos、业界首个开源VLA自动驾驶模型Alpamayo,以及专用于生物医药与医疗影像的Clara[14] - 汽车被视作物理AI落地的首个大规模场景,公司对未来十年内自动驾驶或高度自动驾驶汽车的普及表示相当肯定[15][16] - 开源模型的崛起成为全球创新的催化剂,其性能正越来越逼近领先的前沿大模型,公司认为开源模型相比最前沿的AI模型大约落后6个月,但差距正在逐步缩小[17] 机器人与自动驾驶领域进展 - 展示了新一代人形机器人基础模型Isaac GR00T N1,该模型可在模拟环境中学习行走、抓取等技能并迁移到真实机器人[17] - 推出了面向L4/L5级自动驾驶的车载AI芯片DRIVE Thor,单芯片可同时运行自动驾驶、座舱AI及娱乐系统[17] - 介绍了Omniverse Cloud云平台,旨在通过连接数字孪生与物理设备,实现“在虚拟世界训练,在现实世界执行”[17] 行业影响与竞争格局 - 公司强调人工智能的竞争已经拉开帷幕,行业正在努力迈向更高阶段[7] - 开源模型彻底改变了人工智能,吸引了广泛参与,其中特别提到了包括Kimi K2、Qwen、DeepseekV3.2在内的中国开源模型,并指出Deepseek R1的出现意外推动了整个行业的变革[17]
黄仁勋CES扔AI核弹!“六芯”Rubin量产,英伟达终极大杀器来了
格隆汇· 2026-01-06 14:42
英伟达发布下一代AI平台与战略 - 公司在CES 2026上发布全新Rubin AI计算平台,开启下一代人工智能 [3][6][9] - Rubin平台以天文学家薇拉・鲁宾命名,包含六款协同工作的独立芯片 [6] - 平台已进入全面生产阶段,预计2026年下半年通过戴尔、HPE、联想及云服务商等合作伙伴交付首批客户 [10][11] Rubin平台性能与创新 - 平台推理、训练性能分别是上一代Blackwell GB200的5倍和3.5倍 [3] - 平台推理token生成成本比Blackwell平台降低高达10倍 [3][7] - 训练混合专家模型所需GPU数量比前代产品减少4倍 [3][8] - 核心创新包括最新一代NVLink互连技术、Transformer引擎、机密计算、RAS引擎及NVIDIA Vera CPU [7] - 通过Vera CPU、Rubin GPU、NVLink6等芯片的协同设计,实现推理成本的革命性下降 [6] 开源模型生态布局 - 公司发布四款针对不同垂直领域的开源模型,加速全行业AI开发 [12] - 四款模型分别为:专注于逻辑推理与任务执行的Nemotron(智能体AI)、专注于理解物理规律的Cosmos(物理AI)、业界首个开源VLA模型Alpamayo(自动驾驶)、专用于生物医药研发的Clara(医疗健康) [13][14][15][16] - 公司提及开源模型的崛起是全球创新的催化剂,并特别展示了Kimi K2、Qwen、DeepseekV3.2三家中国开源模型 [19][20] - 公司认为相比最前沿的AI模型,开源模型落后约6个月,但这个距离正逐步缩短 [22] 物理AI与自动驾驶进展 - 公司将汽车视为物理AI落地的首个大规模场景 [16] - 公司对未来十年自动驾驶汽车普及表示相当肯定,认为世界上很大一部分汽车将是自动驾驶或高度自动驾驶的 [17] - 展示了在机器人与自动驾驶领域的多项进展:新一代人形机器人基础模型Isaac GR00T N1、面向L4/L5级自动驾驶的单芯片车载AI芯片DRIVE Thor、连接数字孪生与物理设备的云平台Omniverse Cloud [18]
排队两小时入场,数千人现场听讲!英伟达新一代GPU发布,黄仁勋称“开源模型彻底改变了人工智能”,还提到了3个中国大模型
新浪财经· 2026-01-06 13:04
公司动态与战略 - 英伟达首席执行官黄仁勋在CES 2026主题演讲中重点围绕人工智能展开 强调公司正继续推动AI变革[3] - 公司发布了新一代GPU 其推理算力是上一代“Blackwell”系列的5倍[7] - 公司介绍了其物理AI世界模型“Cosmos AI” 旨在加速智能汽车、机器人和视频分析AI智能体的开发[5] - 公司于8年前开始研究自动驾驶汽车 愿景是实现所有车辆(每辆车、每辆卡车)的自主驾驶[5] 行业趋势与观点 - 人工智能正在改变世界并以惊人的速度普及[3] - 2025年最重要的发展之一是开放模型取得进步 开源模型(如Kimi K2, DeepSeek V3.2, Qwen)正在起飞[3] - 相比最前沿的AI模型 开源模型落后约6个月 但这个差距正逐步缩短 开源模型彻底改变了AI并吸引了广泛参与[3] - 开放创新激活了全球每个公司和行业的创新 将使AI无处不在[3] - AI模型现在的推理能力强大得不可思议[3] - AI Agent(人工智能体)是未来趋势 人们将拥有可教授公司独有技能的定制化个人AI[3] - 物理AI的“ChatGPT时刻”近在咫尺 但面临物理世界多样不可预测、真实训练数据收集缓慢昂贵且不足的挑战 合成数据是解决方案[5] - AI竞赛正在进行 每次达到新的前沿 上一代AI Token的成本就开始以大约每年10倍的速度下降[7] 技术发展与挑战 - 摩尔定律已基本放缓 晶体管数量的增长无法追上每年增长的Token需求 也无法跟上Token成本下降的速度[7] - 产业要继续进步 需要进行激进、极端的协同设计 跨所有芯片和整个技术栈同时创新 这是公司决定重新设计每块芯片的原因[7] - 公司赞赏AI搜索引擎工具Perplexity同时使用多个模型的做法 认为这是天才之举[3]