Workflow
Vera Rubin NVL72
icon
搜索文档
计算机行业动态研究:超节点OEM:被低估的中国AI核心资产
国海证券· 2026-03-30 22:35
行业投资评级 - 维持计算机行业“推荐”评级 [44] 报告核心观点 - 超节点已成为AI算力基础设施的新常态,其技术复杂性和快速迭代性为具备系统级能力的超节点OEM厂商构筑了宽阔的护城河,并驱动其盈利能力提升 [6][8][42] - 在国产大模型调用量增长、国内CSP(云服务提供商)资本开支展望乐观的背景下,超节点OEM厂商将核心受益 [7][35][44] 超节点技术架构与行业趋势 - **超节点定义**:一种为构建大规模AI算力集群而设计的新型技术架构,通过高速互联协议将数十至数百个GPU或AI计算芯片紧密整合,形成逻辑上统一编址、高带宽、低延迟的协同计算系统,让大规模算力能够“像一台计算机一样工作” [6][10] - **核心特征与优势**:具备超大带宽、超低时延和内存统一编址三大特征,能打破传统集群的“通信墙”瓶颈,相较于传统集群可达到3倍以上的训练性能提升,并支持更大规模AI处理器的高效协同 [15][16] - **行业进入规模化应用**:2025年是超节点产品“元年”,预计2026年中国国产AI超节点将进入规模化应用阶段,以英伟达、AMD、华为、中科曙光、谷歌、阿里巴巴等为代表的头部企业正持续推出相关产品 [6][19] 主要厂商超节点产品进展 - **英伟达**:在GTC 2026大会上发布Vera Rubin NVL72,集成72颗Rubin GPU与36颗Vera CPU,相较前代训练大型混合专家模型所需GPU数量减少四分之三,推理吞吐量每瓦特提升高达10倍,单token成本降至十分之一 [19] - **AMD**:发布Helios机架架构,内部集成72颗基于2nm制程的Instinct MI400系列AI加速器,拥有总计31TB的HBM4内存,总内存带宽为1.4 PB/s,预计AI推理时可实现最高2.9 FP4 exaFLOPS算力 [22] - **华为**:展示智算Atlas 950 SuperPoD,基于灵衢互联协议,最大可支持8192张昇腾NPU卡高速互联,其FP8算力达到8EFLOPS,为业界水平的6.7倍,并拥有1152TB的共享内存池 [25] - **中科曙光**:发布世界首个无线缆箱式超节点“曙光scaleX40”,单机16U,部署密度是8卡机的2.5倍,最高支持40张GPU卡,FP8算力大于28PFLOPS,HBM总显存大于5TB [5][27] - **谷歌**:基于第七代TPU “Ironwood”构建SuperPod集群,单个POD可连接多达9216颗芯片,整个集群FP8峰值性能超过42.5 exaFLOPS,专为大规模AI推理优化 [30] - **阿里巴巴**:发布磐久128超节点AI服务器,支持128~144颗GPU芯片,采用开放架构,可实现高达Pb/s级别Scale-Up带宽,同等AI算力下推理性能较传统架构提升50% [34] 国内AI算力需求与供给展望 - **需求侧:国产大模型调用量领先**:OpenRouter数据显示,截至2026年3月22日的连续三周内,国产大模型调用量保持对美国模型的反超;3月1日至3月30日,调用量前十模型中,中国模型总量占比超50% [7][35] - **供给侧:产业链景气度走高**: - **晶圆厂**:中芯国际2025Q4产能利用率达95.7%;华虹半导体计划投资38亿元建设月产能5.5万片的12英寸生产线 [40] - **芯片供应**:英伟达H200已拿到许可并获客户订单,正在生产过程中 [40] - **算力租赁**:宏景科技拟申请不超过600亿元授信额度并计划13.5亿元定增以采购算力服务器;协创数据披露2025年至2026Q1客户采购额达400亿元以上 [7][40] 超节点对OEM厂商的价值重塑 - **技术复杂度驱动溢价**:超节点在系统架构设计、信号完整性、供电、散热等方面要求极高,产品迭代快(例如NVIDIA Vera Rubin机架含130万个独立组件,近1300个芯片),这为具备系统级能力的OEM厂商构筑了宽阔护城河 [8][41] - **价值重心上移**:行业价值重心从标准化硬件组装上移至复杂的定制化系统设计、深度调优和全栈集成服务,OEM厂商凭借架构设计、热管理、供应链整合等核心能力有望获得显著产品溢价和更高客户粘性 [8][42] 投资建议与相关公司 - **投资策略**:超节点OEM厂商将核心受益于AI基础设施新常态和国内乐观的资本开支环境 [44] - **相关公司列表**:报告列出了服务器/超节点OEM、AI芯片、CPU、连接、云计算、模型、IDC等七大产业链环节的数十家相关公司 [8][44]
Microsoft Corporation (MSFT) Starts Validating Nvidia’s Vera Rubin NVL72 for AI Workloads
Yahoo Finance· 2026-03-21 20:46
微软在AI基础设施领域的里程碑进展 - 公司于3月14日成为首家开始验证英伟达Vera Rubin NVL72系统的云服务提供商[1] 该系统是英伟达开发的下一代机架级AI超级计算机 专为训练和推理万亿参数模型而设计[1] - 此次验证是公司部署下一代AI基础设施的重要里程碑 并彰显了Azure共同设计数据中心架构的战略 该架构旨在满足最强大AI超级芯片对巨大电力、冷却和带宽的需求[2] - 公司对NVL72系统的验证紧随其为期多年的电力和液冷系统重新设计之后 这对于管理NVL72机架不断增长的功率密度至关重要[3] AI基础设施的竞争格局与影响 - 亚马逊和Alphabet等其他公司预计也将在今年下半年部署Rubin系统[3] - 随着更多参与者采用新系统 硬件性能的提升是否会转化为客户更低的推理成本仍有待观察[3] 微软在人工智能领域的整体战略与优势 - 公司是人工智能领域的领导者 专注于将生成式AI整合到其整个产品生态系统中 并通过Azure提供AI基础设施 同时开发能够自主行动的“智能体”AI[4] - 通过对OpenAI长达数年、金额达数十亿美元的投资 公司独家获得了GPT-4和DALL-E 3等基础模型的访问权[4]
联想开盘涨逾1.68% 为英伟达Vera Rubin全球首发合作商
格隆汇· 2026-03-17 10:12
英伟达发布新一代AI计算系统 - 英伟达在GTC 2026大会上正式发布名为“Vrea Rubin”的AI计算系统 被描述为有史以来最复杂的AI计算系统 [1] - 该系统集成了72个Rubin GPU和36个Vera CPU [1] - 与前代Blackwell相比 Vera Rubin NVL72的每瓦推理吞吐量提高10倍 单token成本下降至前一代的1/10 [1] 联想集团成为关键合作伙伴 - 联想集团正式成为NVIDIA Vera Rubin NVL72全球首发合作伙伴 [1] - 联想集团交付了基于该平台的全液冷、机架级的AI系统 [1] 市场反应 - 截至3月17日10点 联想集团股价报9.7港元/股 涨幅1.68% [1]
黄仁勋抛出万亿美元收入预期
第一财经· 2026-03-17 09:21
新芯片平台与产品发布 - 公司推出全新的Rubin芯片平台,该平台包含7颗芯片(包括首次亮相的Groq 3 LPU)和5个机架,共同构成一台AI超级计算机[5][6] - Groq 3 LPU芯片正在由三星全力生产,计划于今年下半年发货[6] - 平台中的Vera CPU是全球首款专为智能体AI和强化学习打造的处理器,效率是传统机架级CPU的两倍,计划部署于阿里巴巴、字节跳动、Cloudflare等云服务提供商[6] - 采用共封装光学器件的Spectrum-X以太网交换机正在全力生产,其相比传统可插拔光学器件,光功率效率提高5倍,容错能力提高10倍[9] - 集成72个Rubin GPU和36个Vera CPU的Vera Rubin NVL72系统,训练大型混合专家模型所需GPU数量是Blackwell平台的1/4,每瓦推理吞吐量提高10倍,每token成本降低至1/10[9] - 公司已建立供应链,每周可生产数千个Rubin系统,用于吉瓦级数据中心[9] - 公司展示了Rubin之后的下一代架构Rubin Ultra,其新机架将通过新的NVLink连接144个GPU[9] 财务预测与市场机遇 - 公司CEO预测,来自Blackwell和Rubin两大芯片平台的收入,在2025年至2027年间将达到1万亿美元,较一年前对2025-2026年的5000亿美元预测翻倍[10] - 公司收入构成中,60%来自超大规模云服务商,40%来自广泛的AI需求,包括区域云、企业云、工业AI、机器人、边缘AI等[10] - 过去两年,AI工作负载所需的计算需求增加了1万倍[13] - 2024年,AI原生初创企业吸引了约1500亿美元的投资,创下历史记录,投资规模已从数百万美元增长至数亿甚至数十亿美元[13] 战略定位与业务生态 - 公司强调其通过协同设计与垂直整合,实现了全球最低的每token成本,并认为未来每家计算机公司和云厂商都会考虑token生产效率[12] - 公司业务覆盖自动驾驶、金融服务、健康与生命科学、工业、娱乐、量子计算、机器人和电信等多个领域,拥有庞大的上下游生态系统[12] - 在汽车领域,公司宣布新增比亚迪、吉利、五十铃和日产四个客户,共同开发基于DRIVE Hyperion平台的L4级别车辆,并与Uber合作将Robotaxi接入其网络[14] - 公司认为自动驾驶汽车的“OpenAI时刻”已经到来,未来Robotaxi的数量将非常庞大[14] 软件、模型与新兴领域布局 - 公司推出开源模型Nemotron 3系列,并与Cursor、LangChain、Mistral AI等成立Nemotron联盟,共同开发开放式前沿基础模型[15] - 在机器人领域,公司推出Isaac仿真框架、Cosmos和Isaac GROOT等新开源模型,其中Cosmos 3是首个统一合成世界生成、物理AI推理和动作模拟的世界基础模型[15] - 在自动驾驶领域,公司推出用于增强推理能力的视觉动作语言模型Alpamayo 1.5[15] - 在医疗领域,公司推出了用于蛋白质结合剂设计的生成模型Protein-Complexa等基础模型和数据集[15] - 针对智能体应用,公司推出集成Nemotron模型和OpenShell运行环境的NemoClaw软件栈,以提供开放模型和隔离沙箱[15] - 在太空计算领域,公司发布Vera Rubin太空模块,其上的Rubin GPU能为天基推理提供比H100高25倍的AI算力[14]
黄仁勋抢吃龙虾:英伟达新核弹10倍算力提升,OpenClaw自由了
36氪· 2026-03-17 08:16
公司战略与市场展望 - 公司CEO黄仁勋宣布,公司正处于一个全新平台变革的开端,其重要性堪比个人电脑和互联网革命[3] - 公司预计,全球公司在Blackwell和Rubin系统上的支出市场将在2025年至2027年间达到1万亿美元,其中60%的业务将来自超大规模云计算[3] - 公司认为AI发展已到达“推理拐点”,从训练阶段全面进入“推理和生成”阶段,算力需求刚刚爆发[5] 新一代AI算力平台:Vera Rubin - 公司发布了基于全新Vera Rubin架构的NVL72系统,这是一个包含七款全新芯片的庞大复杂AI算力系统,旨在打造全球最大规模的AI工厂[12] - Vera Rubin NVL72集成了72个Rubin GPU和36个Vera CPU,通过NVLink 6连接,并配备ConnectX-9 SuperNIC和BlueField-4 DPU[13] - 与NVIDIA Blackwell平台相比,Vera Rubin NVL72使用四分之一数量的GPU即可训练大型混合专家模型,每瓦推理吞吐量提高了10倍,每token成本仅为十分之一[13] - 公司推出了更大型的“NVIDIA Vera Rubin Ultra NVL576”系统,通过双层全互连NVLink拓扑结构,可将系统纵向扩展至最多576块GPU[16] - Vera Rubin平台已在微软Azure上开始部署,落地速度相比上代架构显著加快[20] 全新AI推理芯片:LPU - 公司通过战略交易获得了Groq推理技术授权,并发布了NVIDIA Groq 3 LPX语言处理单元[21] - Groq LPX架构与Vera Rubin GPU协同工作,专门针对智能体系统所需的低延迟与超长上下文推理进行优化,每兆瓦推理吞吐量最高可提升35倍[21] - LPX机架采用全液冷设计,包含256个LPU处理器,提供128GB片上SRAM和640 TB/s的纵向互联带宽[24] - 当与Vera Rubin NVL72系统一同部署时,Rubin GPU与LPU协同计算,可显著提升解码性能[26] - Nvidia Groq 3 LPX预计将在2024年下半年正式推出[28] 智能体平台:NemoClaw - 公司推出了具有企业级安全保障的NemoClaw平台,旨在解决当前OpenClaw智能体平台在与外部通信时的安全隐患[29] - NemoClaw通过NVIDIA Agent Toolkit,让用户只需一条命令就能完成OpenClaw的安装和优化,同时自动部署提供开源模型支持和隔离沙箱环境的OpenShell运行时[31] - 该平台支持调用运行在用户本地专用系统上的开源模型(如NVIDIA Nemotron)以及通过隐私路由访问云端的前沿模型[33] - 公司CEO黄仁勋认为,OpenClaw以及更广义的Claw系统,未来的重要性将与Linux、Kubernetes、HTML等基础软件设施相提并论[29] 开源大语言模型:Nemotron - 公司发布了面向智能体场景的开源大语言模型Nemotron 3 Super,该模型专门针对长上下文任务进行了优化,参数规模为1200亿[33] - 结合NemoClaw提供的安全层以及Nemotron 3 Super本身的隐私优势,公司旨在解决边缘部署智能体时的关键隐私限制问题[35] AI在物理世界的应用 - 公司在GTC大会上展示了110台机器人,并宣布比亚迪、现代、日产和吉利成为其最新合作伙伴,这些车企将采用NVIDIA DRIVE Hyperion技术打造L4级自动驾驶汽车[38] - 公司与Uber计划在2028年于四大洲的28个城市推出完全由NVIDIA DRIVE AV全栈软件驱动的自动驾驶车队,预计2027年上半年在洛杉矶和旧金山湾区率先推出[40] - 公司发布了全新的NVIDIA Isaac仿真框架以及面向业界的Cosmos、Isaac GR00T开放模型,用于开发、训练和部署下一代智能机器人[40] - 公司推出了开放式物理AI数据工厂Blueprint,旨在对视觉AI智能体、机器人和自动驾驶车辆的物理AI模型进行大规模数据处理和管理[40]
联想集团亮相GTC 成Vera Rubin全球首发合作商
格隆汇· 2026-03-17 08:01
公司与英伟达的战略合作深化 - 联想集团正式成为英伟达Vera Rubin NVL72平台全球首发合作伙伴,双方拥有长达30年的紧密合作关系 [1] - 联想同步推出基于英伟达HGX™ Rubin NVL8系统,并与Nscale展开合作,以支持超大规模AI部署 [1] - 此次合作标志着联想在英伟达下一代AI基础设施版图中的战略地位继续前移 [2] 新产品发布与技术突破 - 联想交付了基于Vera Rubin NVL72平台的全液冷、机架级AI系统,旨在开启agentic AI时代 [1] - Vera Rubin NVL72平台集成了72个Rubin GPU和36个Vera CPU,相比前代Blackwell实现性能与成本双重突破 [1] - 该平台每瓦推理吞吐量提高10倍,单token成本下降至前一代的1/10 [1] 产品定位与市场应用 - NVL72平台专为全球超大规模AI工厂设计,联想将基于此帮助客户构建能管理吉瓦级算力规模的数据中心基础设施 [1] - 联想致力于打造吉瓦级AI云超级工厂,新推出的系统专门针对大规模推理和新兴Agentic AI工作负载 [1] - 英伟达CEO黄仁勋表示,Vera Rubin包含七款突破性芯片、五个机架和一个巨型超级计算机,旨在为AI的各个阶段提供动力 [2] 公司战略与行业前景 - 联想集团董事长兼CEO杨元庆表示,通过将英伟达AI Enterprise软件与联想全栈混合式AI平台和服务结合,客户能以更高效率、更低单token成本、更快投产速度扩展AI [2] - AI的下一个拐点将显著推升对加速计算、软件和AI工厂的需求,联想与英伟达正携手提供支撑未来发展的全栈平台 [2] - 随着Vera Rubin启动,智能体阶段已经到来,开启了史上规模最大的基础设施建设 [2]
黄仁勋抢吃龙虾:英伟达新核弹10倍算力提升,OpenClaw自由了
机器之心· 2026-03-17 06:59
行业趋势与市场前景 - 公司正引领一个全新平台变革的开端,其重要性堪比个人电脑和互联网革命 [4] - 全球公司在Blackwell和Rubin系统上的支出预期大幅上调,预计2025年至2027年间市场将达到1万亿美元,其中60%的业务将来自超大规模云计算 [4] - 行业正经历“推理拐点”,AI应用从训练全面进入推理和生成阶段,算力需求刚刚爆发 [6] - 数据中心正从存储文件的地方转变为生成token的工厂,推理是工作负载,token是新的商品 [15] 新一代AI算力平台:Vera Rubin - 公司推出基于全新Vera Rubin架构的NVL72系统,这是一个为智能体AI时代注入强大动力的引擎,包含七款全新芯片 [9][17] - Vera Rubin NVL72集成了72个Rubin GPU和36个Vera CPU,通过NVLink 6连接,并配备ConnectX-9 SuperNIC和BlueField-4 DPU [18] - 与Blackwell平台相比,Vera Rubin NVL72使用四分之一数量的GPU即可训练大型混合专家模型,每瓦推理吞吐量提高10倍,每token成本仅为十分之一 [18] - 公司推出更强大的NVIDIA Vera Rubin Ultra NVL576,通过新型双层全互连NVLink拓扑,可将系统纵向扩展至最多576块GPU [21][24] - Vera Rubin平台已在微软Azure上开始部署,落地速度相比上代架构显著加快 [29] - 公司正在研发用于轨道数据中心的Nvidia Vera Rubin Space-1芯片/计算机 [27] 全新AI推理芯片:LPU - 公司通过约200亿美元的战略交易获得了Groq推理技术授权,并推出了NVIDIA Groq 3 LPX推理芯片 [31][33] - Groq LPU与Vera Rubin GPU协同工作,专门针对智能体系统所需的低延迟与超长上下文推理进行优化 [33] - 在该协同架构下,每兆瓦推理吞吐量最高可提升35倍,并为万亿参数模型带来最高10倍的营收潜力 [34] - LPX机架采用全液冷设计,包含256个LPU处理器,提供128GB片上SRAM和640 TB/s的纵向互联带宽 [36][37] - Nvidia Groq 3 LPX预计将在2024年下半年正式推出 [44] 智能体平台与软件生态 - 公司推出企业级安全解决方案NemoClaw,在OpenClaw基础架构上添加多层安全防护,定位为企业级安全解决方案 [47] - 公司认为OpenClaw/Claw系统未来的重要性将与Linux、Kubernetes、HTML等基础软件设施相提并论 [47] - NemoClaw通过NVIDIA Agent Toolkit简化部署,提供隔离的沙箱环境,并支持本地开源模型与云端前沿模型的结合 [49][50][52] - 与NemoClaw搭配部署的最佳模型之一是公司发布的Nemotron 3 Super,这是一款1200亿参数、面向智能体场景并优化了长上下文任务的开源大语言模型 [54][56] AI在物理世界的应用 - 公司展示了110台机器人,并与比亚迪、现代、日产和吉利等车企合作,将采用NVIDIA DRIVE Hyperion技术打造L4级自动驾驶汽车 [60] - 公司与Uber计划在2028年于四大洲的28个城市推出完全由NVIDIA DRIVE AV全栈软件驱动的自动驾驶车队,预计2027年上半年在洛杉矶和旧金山湾区率先推出 [62] - 公司发布了全新的NVIDIA Isaac仿真框架、Cosmos、Isaac GR00T开放模型以及Blueprint开放式物理AI数据工厂,用于推动生产规模的物理AI发展 [62]
半导体:英伟达业绩影响 -lackwell 架构强劲扩张,进入 “Rubin周期”- Semiconductors Nvidia result implications - Blackwell expanding strongly entering the Rubin Cycle
2026-03-02 01:23
**行业与公司** * **行业**: 人工智能 (AI) 基础设施,包括GPU、先进封装、电源、散热、网络及系统集成 * **核心公司**: * **Nvidia**: AI基础设施核心,其Blackwell和即将到来的Rubin产品周期是讨论焦点 * **上游供应链**: TSMC (台积电) [1][2][7]、KYEC (京元电子) [7]、WinWay (颖崴科技) [7]、CHPT (辛耘) [7] * **下游/系统集成**: Hon Hai (鸿海精密,即富士康) [1][7] * **电源解决方案**: Delta (台达电) [1][5][7] * **散热解决方案**: AVC (奇鋐) [6] * **电源管理芯片代工**: Vanguard (联电,UMC) [5] **Nvidia业绩与产品周期核心观点** * **强劲业绩与展望**: Nvidia 1月季度业绩非常强劲,数据中心收入创新高,Blackwell已开始向超大规模和主权客户出货[2] 公司4月季度指引远超市场预期[2] * **需求结构性增长**: 管理层强调AI基础设施需求是结构性的,而非周期性,预示着跨计算、网络和先进系统架构的持久、多年增长轨迹[2] * **Blackwell持续扩张**: 2026年大部分出货仍将是GB系统,预计超过6万套NVL72系统[1] * **Rubin周期启动**: Nvidia重申Rubin芯片已进入大规模量产,系统级机柜将在2026年下半年开始大量增加[1] Rubin平台将采用TSMC的六芯片架构,包括3nm Rubin GPU、Vera CPU等[2] * **Rubin技术规格**: 3nm Rubin GPU将首次采用5.5倍光罩尺寸的CoWoS封装,集成容量288GB、带宽22 TB/s的HBM4内存[2] * **产量预测**: 预计2026年Nvidia GPU (Blackwell + Rubin) 总产量将达到700万颗[2] **技术演进与产业链机会** * **800V电源架构转型**: Rubin架构单个GPU热设计功耗 (TDP) 可能向2.3kW发展[5] 为应对更高计算密度和功耗,Rubin Ultra (预计2027年) 将更明确地推动800V架构,并引入“电源边车” (Power Sidecar) 机柜[5] 台达电被视为电源解决方案的最大受益者[5] * **液冷散热价值提升**: Vera Rubin NVL72/144标志着向无风扇结构的转型[6] 采用覆盖GPU及其他组件的分布式冷却系统,显著扩大了冷板使用和快速接头需求,从而大幅提升了单托盘的总价值含量[6] AVC是Nvidia一级冷板参考设计合作伙伴,预计将在VR平台保持重要份额[6] * **网络成为关键增长向量**: 随着NVLink和AI以太网结构在系统总价值中占比越来越大,网络预计将保持关键增长动力[2] * **CPO (共封装光学) 机会**: 规模化的CPO机会更多出现在2027年末/2028年的Rubin Ultra阶段[2] 预计2026/2027年CPO的Switch IC出货量分别为4万和100万颗[2] TSMC被认为是Rubin系列和CPO解决方案最关键的合作方[2] **投资偏好与受益公司** * **偏好上游公司**: 基于更好的平均售价 (ASP) 和规格升级,继续偏好Nvidia供应链上游公司[1] * **具体受益公司**: * **上游 (Rubin周期)**: TSMC、KYEC、WinWay、CHPT [7] * **下游**: Delta (台达电) 和 Hon Hai (鸿海) [1][7] * **电源管理芯片代工**: Vanguard (联电,UMC) 将从PMIC代工业务中受益[5] * **业绩驱动**: 预计台达电的电源解决方案将看到显著的ASP提升,驱动潜在盈利上行[7]
不止业绩爆表!高盛点名英伟达三大催化剂,直言“未来数月跑赢路径已清晰”
华尔街见闻· 2026-02-26 14:21
业绩与财务指引 - 第四季度营收为681亿美元,高于高盛预期的673亿美元,并显著超出华尔街共识的662亿美元 [2] - 数据中心业务是核心引擎,单季营收高达623亿美元 [2] - 毛利率为75.2%,营业利润率为67.7%,调整后每股收益为1.76美元,全面超越市场预期 [2] - 公司预计第一季度营收中值将达到780亿美元,远超华尔街预期的721亿美元 [2] - 剔除约19亿美元股权激励费用影响后,第一季度同口径每股收益指引为1.79美元,明显高于市场预期的1.67美元 [2] 未来增长催化剂 - 超大规模云厂商2026年资本开支预测仍有上行空间,且2027年资本开支增长的早期迹象已开始显现 [3] - AI初创企业(如OpenAI、Anthropic)至2027年的采购计划能见度将随融资完成而显著提升 [3] - 基于新一代Blackwell架构训练的AI模型将推向市场,这有助于公司重新彰显其技术领先优势 [3] 战略合作与生态建设 - 公司正在与OpenAI就投资与合作进行积极谈判,预计近期完成签约 [3][4] - 已完成对Anthropic的100亿美元投资,协议包括Anthropic将基于Blackwell和Rubin架构训练其大语言模型 [3][4] - 宣布与Meta达成广泛合作,将提供多种数据中心产品,并计划在2027年合作部署Vera CPU及Vera Rubin NVL72 [4] 盈利能力与成本控制 - 公司预计在整个2026日历年内,仍能将毛利率维持在75%左右的中段水平 [5] - 毛利率的韧性主要归功于公司在2025年做出的与内存相关的大量提前采购承诺 [5] 行业影响与供应链 - 公司强劲的数据中心指引反映了当前极度坚实的AI支出环境,对博通和AMD等数字半导体标的最为有利,并在一定程度上利好Marvell和ARM [6]
盖茨押注硅光突破:旗下Neurophos首款光子芯片性能达英伟达AI超算十倍
环球网资讯· 2026-01-27 17:02
公司技术突破 - 人工智能芯片初创公司Neurophos在硅光子学领域取得重大突破,其开发的光学处理单元采用最小的集成光晶体管,体积较现有技术缩小约10000倍 [1] - 该技术首次实现单芯片上1000×1000像素规模的光子计算矩阵 [1] - 公司技术将光晶体管微型化到可与CMOS工艺兼容的尺度,使大规模并行光计算成为可能,芯片使用的是现有半导体制造流程 [3] 产品性能参数 - 公司首款光学加速器Tulkas T100在FP4/INT4精度下的AI计算性能可达英伟达最新Vera Rubin NVL72人工智能超级计算机的十倍,而功耗水平相当 [3] - 性能优势源于两项关键技术:一是远超当前GPU主流256×256矩阵尺寸的1000×1000光子瓦片,二是高达56 GHz的运行频率 [3] - 该运行频率显著高于英特尔酷睿i9-14900KF处理器的9.1 GHz和英伟达RTX Pro 6000 GPU的2.6 GHz加速频率 [3] - Tulkas T100单芯片仅包含一个面积约为25平方毫米的“光学张量核心”,远少于英伟达Vera Rubin芯片所集成的576个数字张量核心,但通过更高矩阵维度与时钟频率实现了更高的有效吞吐量 [3] 发展现状与规划 - 该技术仍处于工程验证阶段,量产预计不早于2028年 [4] - 未来量产需克服包括片上SRAM容量、矢量处理单元扩展以及光电协同设计在内的多项挑战 [4] - 公司未来有望与英特尔、台积电等主流晶圆厂合作实现量产 [3] 公司背景 - Neurophos是一家由比尔·盖茨旗下盖茨前沿基金投资支持的人工智能芯片初创公司 [1]