Workflow
Vera Rubin NVL72人工智能超级计算机
icon
搜索文档
这款芯片,算力是英伟达10倍
新浪财经· 2026-01-28 11:31
Neurophos公司技术突破 - 公司公布其光学处理单元在FP4/INT4低精度计算负载下,算力性能达到英伟达最新Vera Rubin NVL72人工智能超级计算机的十倍,且功耗水平基本持平 [3] - 技术突破核心在于采用更大规模计算矩阵与更高运行时钟频率,其光子传感器矩阵为1000 x 1000像素,约为当前多数AI GPU采用的256 x 256像素矩阵的15倍 [3][4] - 公司将光晶体管的物理尺寸缩小了约10000倍,解决了传统硅光子芯片因器件庞大(单颗长度约2毫米)而难以实现高集成密度的行业瓶颈 [4] Neurophos产品核心参数 - 第一代光学加速器核心单元尺寸约25平方毫米,等效于单张量核心,硬件规格与英伟达Vera Rubin的576个张量核心存在显著差距 [5] - 首款OPU产品Tulkas T100运行时钟频率高达56 GHz,是英特尔酷睿i9-14900KF创下的9.1 GHz电子芯片频率世界纪录的6倍,也大幅领先英伟达RTX Pro 6000的2.6 GHz加速频率 [5][6] - 超高时钟频率与大矩阵的协同作用,使产品在硬件规格看似劣势的情况下实现了对英伟达旗舰AI GPU的性能反超 [6] 技术产业化路径与挑战 - 公司光晶体管技术可基于成熟半导体制造技术生产,未来有望与英特尔、台积电等主流晶圆厂合作,推动OPU规模化量产 [6] - 产品目前仍处于实验室测试阶段,预计正式量产时间要到2028年 [6] - 当前研发核心挑战包括对大量矢量处理单元的配套需求,以及静态随机存取存储器与光学计算单元的协同适配问题 [6] 光子学行业动态与趋势 - 光子学凭借高速、低耗特性成为全球科技巨头布局重点,英伟达在Vera Rubin平台中已集成Spectrum-X以太网光子交换系统,将光子技术应用于芯片高速数据传输 [7] - AMD宣布计划投资2.8亿美元建立专门聚焦硅光子学技术的研发中心,加大在光子计算、光子传输等领域投入 [7] - 全球多家初创公司也纷纷入局光子芯片领域,推动技术路线多元化探索 [7] 光学计算技术前景与挑战 - 光学计算利用光子替代电子进行信息处理,从物理层面突破了传统电子芯片的发热、频率上限等瓶颈,在AI大模型训练、低精度推理等算力密集型场景中具备天然优势 [7] - 光子芯片现阶段仍面临与传统电子架构的适配、量产良率提升、成本控制等一系列行业共性问题,距离全面替代GPU仍有较长的路要走 [7] - 随着AI算力需求爆发,光子学成为突破算力瓶颈重要方向,光子与电子的异构计算架构或将成为下一代人工智能计算的核心形态 [8]
比尔盖茨押注硅光突破:旗下Neurophos首款光子芯片性能达英伟达AI超算十倍
搜狐财经· 2026-01-27 18:18
公司技术突破 - 人工智能芯片初创公司Neurophos在硅光子学领域取得重大突破,开发出采用最小集成光晶体管的光学处理单元[1] - 其光学处理单元体积较现有技术缩小约10000倍,并首次在单芯片上实现了1000×1000像素规模的光子计算矩阵[1] - 公司技术将光晶体管微型化到可与CMOS工艺兼容的尺度,使大规模并行光计算成为可能,而传统硅光子工厂生产的光晶体管长度约2毫米,难以高密度集成[3] 产品性能参数 - 公司首款光学加速器Tulkas T100在FP4/INT4精度下的AI计算性能可达英伟达最新Vera Rubin NVL72人工智能超级计算机的十倍,而功耗水平相当[3] - 性能优势源于两项关键技术:一是远超当前GPU主流256×256矩阵尺寸的1000×1000光子瓦片,二是高达56 GHz的运行频率[3] - 该运行频率显著高于英特尔酷睿i9-14900KF处理器的9.1 GHz和英伟达RTX Pro 6000 GPU的2.6 GHz加速频率[3] - Tulkas T100单芯片仅包含一个面积约为25平方毫米的“光学张量核心”,远少于英伟达Vera Rubin芯片所集成的576个数字张量核心,但通过更高矩阵维度与时钟频率实现了更高的有效吞吐量[3] 制造与商业化前景 - 该芯片使用的是现有半导体制造流程,未来有望与英特尔、台积电等主流晶圆厂合作实现量产[3] - 该技术目前仍处于工程验证阶段,量产预计不早于2028年[4] - 量产前需克服包括片上SRAM容量、矢量处理单元扩展以及光电协同设计在内的多项挑战[4]
H200需求强劲,还没获批
半导体芯闻· 2026-01-06 18:30
英伟达H200芯片在华销售进展 - 公司确认其H200芯片在中国市场需求强劲,但销售需等待美国和中国政府的批准[1] - 公司已向美国政府提交出口许可证申请,此前特朗普政府表示将允许其向中国出售Hopper 200芯片,条件是将25%的销售额上缴美国政府[1] - 作为向中国出售降级版H20芯片的交换条件,公司于8月份同意向美国政府支付销售收入的15%[1] - 中国政府于9月份指控公司违反反垄断法,导致其在中国市场份额从95%暴跌至零[2] - 美国政府正在研究如何处理不同的许可证,且“所有不同政府之间的团结一致”是开始发货的必要条件[2] - 北京方面是否批准销售以及批准多少数量,是公司能否向中国出口H200s的另一关键决定因素[2] - 野村证券分析师认为北京可能会批准H200销售,但可能附加类似配额制的条件,例如要求企业在购买H200时需同时购买一定数量的国产芯片[2] 下一代Rubin AI芯片发布与性能 - 公司在CES 2026上宣布其下一代Rubin AI芯片已“全面投产”,并将于2026年下半年上市[4] - Rubin GPU的推理计算性能是Blackwell的5倍,训练计算性能是Blackwell的3.5倍[5] - 与Blackwell相比,Rubin能降低训练和推理成本,推理令牌成本最多可降低10倍[5] - Rubin架构包含3360亿个晶体管,在处理NVFP4数据时可提供50 petaflops的性能,而Blackwell最高为10 petaflops[5] - Rubin的训练速度提升了250%,达到35 petaflops[5] - Rubin将成为首款集成HBM4内存的GPU,数据传输速度高达每秒22 TB,比Blackwell有显著提升[6] - 微软Azure和CoreWeave将成为首批在2026年下半年提供由Rubin驱动的云计算服务的公司之一[7] Vera Rubin AI超级计算机与系统架构 - 公司发布了下一代AI数据中心机架级架构Vera Rubin,由六种芯片协同设计而成:Vera CPU、Rubin GPU、NVLink 6交换机、ConnectX-9 SuperNIC、BlueField-4 DPU和Spectrum-6以太网交换机[10] - 每个Rubin GPU配备8个HBM4显存堆栈,提供288GB容量和22 TB/s带宽[11] - Vera Rubin推出NVLink 6,将每个GPU的交换矩阵带宽提升至3.6 TB/s(双向)[12] - 每个NVLink 6交换机拥有28 TB/s带宽,每个Vera Rubin NVL72机架配备9个这样的交换机,总纵向扩展带宽可达260 TB/s[12] - Nvidia Vera CPU采用88个定制的Olympus Arm核心,支持“空间多线程”技术,可同时运行多达176个线程[12] - 用于连接Vera CPU与Rubin GPU的NVLink C2C互连带宽翻倍,达到1.8 TB/s[12] - 每个Vera CPU可寻址高达1.5 TB的SOCAMM LPDDR5X内存,内存带宽高达1.2 TB/s[12] - 公司发布了“DGX SuperPOD with DGX Vera Rubin NVL72”,这是一款由八块Vera Rubin NVL72 GPU组成的扩展型超级计算机,可使用256个Vera CPU和512个Rubin GPU[20] 公司战略与市场预期 - 首席执行官黄仁勋表示,即使没有中国或其他亚洲市场,公司预计到2026年,其最先进的Blackwell AI芯片和Rubin的“早期产能提升”也将带来5000亿美元的收入[8] - 公司认为人工智能的未来将主要体现在物理世界中,并在CES 2026期间宣布与比亚迪、LG电子和波士顿动力公司等制造商、机器人制造商和汽车制造商达成合作[8] - 黄仁勋表示“机器人领域的ChatGPT时刻已经到来”,物理人工智能的突破正在解锁全新应用[9] - 投资公司Inno Chip的合伙人认为,如果英伟达的H200处理器开始在中国销售,短期内会对中国芯片制造商造成冲击,因为企业往往会选择更成熟的技术[2] - 公司表示,鉴于市场对Vera-Rubin架构的热情,选择在CES上提前推出该产品[7] 行业挑战与供应链问题 - 整个行业正陷入零部件短缺困境,公司宣布其2026年CES主题演讲将“不会发布任何新的GPU”,打破了连续五年在CES上发布新款GPU的惯例[21] - DRAM短缺可能导致了此次发布计划的搁浅,甚至有传言称公司将重启RTX 3060的生产[22] - 全球只有美光、SK海力士和三星三家公司能够生产尖端DRAM,且它们都乐于将产品卖给AI客户以获取更高利润[23] - 对通用人工智能(AGI)的渴求促使公司制定了突破性的计算目标,这些目标超出了现有供应链的承载能力[23] - 地缘政治因素使情况复杂化,因为前沿人工智能代表着另一场军备竞赛[23]