Vera Rubin superchip
搜索文档
The Best Trillion-Dollar Stock to Buy in January 2026, According to Wall Street (Hint: Not Tesla)
The Motley Fool· 2026-01-16 16:06
英伟达在AI基础设施领域的领先地位与市场观点 - 英伟达很可能在未来多年保持其作为AI基础设施黄金标准的地位 [1] - 华尔街分析师共识目标价显示,英伟达是目前最佳的超万亿美元市值股票,博通紧随其后,而特斯拉则被视为最差 [2] 英伟达的核心业务与市场优势 - 英伟达以其图形处理器闻名,该芯片也被称为数据中心加速器,在AI等密集型工作负载中能显著提升速度 [3] - 公司在数据中心加速器市场占据主导地位,市场份额接近90%,其全栈战略有望维持类似的市场份额 [3] - 公司的优势在于将GPU与相邻的中央处理器和网络设备配对,并提供名为CUDA的强大软件开发工具生态系统,这是博通等竞争对手的自定义AI加速器所缺乏的 [4] 生成式AI需求与未来增长机会 - 生成式AI的需求是英伟达强大的增长驱动力,公司不仅提供训练和推理工作负载所需的数据中心加速器和网络设备,还提供创建生成式AI软件产品所需的开发工具 [5] - 公司在物理AI领域(如自动驾驶汽车和自主机器人)拥有同样引人注目的机会,提供开发底层AI模型所需的数据中心硬件和软件、训练和测试模型所需的仿真平台,以及为自动驾驶汽车和自主机器人提供动力的车载计算机 [7] - 随着物理AI热潮的展开,英伟达很可能保持其作为AI基础设施行业标准的地位 [8] 行业增长预测 - 根据Grand View Research的数据,到2033年,数据中心GPU销售额预计将以每年36%的速度增长 [8] - 根据Grand View Research的数据,到2030年,机器人出租车芯片销售额预计将以每年74%的速度增长 [9] - 根据摩根士丹利的数据,到2045年,人形机器人半导体销售额预计将以每年55%的速度增长 [9] 公司财务表现与估值 - 英伟达第三季度营收增长62%至570亿美元,非GAAP摊薄后每股净收益增长60%至1.30美元,超出预期 [10] - 华尔街估计,截至2028年1月的财年,英伟达的调整后收益将以每年48%的速度增长,这使得当前45倍的市盈率估值看起来相对便宜 [13] - 自2023年1月以来,英伟达股价已上涨1150% [10][13] 产品路线图与潜在催化剂 - 英伟达将于2026年下半年推出Vera Rubin超级芯片,该平台将CPU与GPU结合,其中Vera CPU的性能是Grace CPU的两倍,Rubin GPU运行AI训练工作负载的速度比Blackwell GPU快4倍,运行AI推理工作负载的速度快5倍 [11] - 一个潜在的催化剂是出口限制的放宽,特朗普政府最近批准了H200 GPU的出口,尽管有报道称北京在一月份阻止了H200的进口,但这可能是一种谈判策略而非永久状况 [12] 万亿美元市值公司目标价概览 - 英伟达:平均目标价254美元,较当前股价182美元有40%的上涨空间 [6] - 博通:平均目标价459美元,较当前股价336美元有37%的上涨空间 [6] - Meta Platforms:平均目标价832美元,较当前股价618美元有35%的上涨空间 [6] - 微软:平均目标价620美元,较当前股价462美元有34%的上涨空间 [6] - 亚马逊:平均目标价291美元,较当前股价237美元有23%的上涨空间 [6] - 苹果:平均目标价286美元,较当前股价258美元有11%的上涨空间 [6] - 伯克希尔哈撒韦:平均目标价538美元,较当前股价494美元有9%的上涨空间 [6] - 谷歌:平均目标价322美元,较当前股价333美元有3%的下跌空间 [6] - 台积电:平均目标价313美元,较当前股价327美元有4%的下跌空间 [6] - 特斯拉:平均目标价390美元,较当前股价436美元有11%的下跌空间 [6]
Nvidia CEO Jensen Huang Says Rubin Architecture Is Now in Full Production. Here's Why That Matters.
Yahoo Finance· 2026-01-10 16:22
行业背景与需求 - 人工智能的采用近年来风靡一时 未来AI普及的基础已经奠定 [1] - 为满足前所未有的需求 数据中心建设出现大规模繁荣 但一些全球最大的云运营商表示其仍然面临容量限制 [1] - 云基础设施客户对AI的需求仍然超过供应 [1] - 主要云运营商的数据中心建设正以极快速度持续进行 且未见尽头 [6] - 以微软为例 其2026财年第一季度 Azure云业务同比增长加速至40% 但仍无法满足需求 [6] - 微软首席财务官指出 尽管资本支出不断增加 但公司预计至少在财年结束前都将面临容量限制 需求超过当前的基础设施建设 导致Azure在2026财年第一季度收入机会损失 [7][8] 核心瓶颈与供应 - 最大的瓶颈之一是AI芯片短缺 特别是支撑大部分AI训练和推理的图形处理器 [2] - 对人工智能芯片的前所未有的需求导致了持续的短缺 [7] 英伟达的解决方案 - 芯片制造商英伟达正在努力缓解短缺问题 [2] - 公司首席执行官在本周的国际消费电子展上宣布 其“革命性”的鲁宾架构已实现全面生产 远早于原定2026年下半年的目标 [2] - 鲁宾架构正式亮相 包含六款协同工作的芯片组 [4] - 与当前的黑威尔平台相比 这些创新可将推理令牌成本降低高达10倍 并将训练混合专家模型所需的GPU数量减少4倍 [4] - 该系统围绕Vera Rubin超级芯片构建 该芯片由Vera CPU和Rubin GPU组成 [5] - 黄仁勋表示 Vera Rubin旨在应对AI所需计算量飙升这一根本挑战 并宣布Vera Rubin已全面投产 [5] - 英伟达的鲁宾架构已提前六个月实现全面生产 [7] 影响与展望 - 下一代AI芯片比预期更早上市 将对云和数据中心运营商有利 并可能为英伟达带来巨大收益 [5] - 通过提前推出这些尖端芯片 英伟达押注需求将保持强劲 [7]
5 ETFs to Buy for January
ZACKS· 2026-01-09 02:00
市场与宏观经济背景 - 截至2026年初,标普500指数已连续三年录得远高于其长期年化平均约10%的回报率[1] - 美国经济呈现“K型”复苏,GDP增长加速且通胀缓解,但投资者仍存显著担忧[1] - 地缘政治成为焦点,美国采取行动驱逐并抓捕委内瑞拉领导人尼古拉斯·马杜罗[1] - 市场其他担忧包括人工智能领域巨额支出、股票估值偏高、私人信贷及公司债务风险上升,以及诸多地缘政治不确定性[2] - 多数央行可能在近期暂缓货币宽松政策[2] 2026年初市场表现 - 尽管存在担忧,华尔街市场表现强劲,SPDR标普500 ETF信托年初至2026年1月6日上涨1.2%[3] - SPDR道琼斯工业平均指数ETF信托和Invesco QQQ信托同期分别上涨2.5%和1.2%[3] - 价值股表现强于成长股,SPDR标普500价值ETF上涨1.5%,跑赢上涨1%的SPDR标普500成长ETF[4] 重点关注交易所交易基金 - **iShares罗素2000 ETF**:受益于“一月效应”的季节性上涨趋势,小盘股通常在1月表现突出[5] - **iShares MSCI美国动量因子ETF**:年初来自退休金缴款、奖金和基金再平衡的资金流入常追逐近期赢家,延续年初动量[6] - **VanEck半导体ETF**:芯片股在2025年因人工智能、云计算和先进数据中心的持续需求而大涨,超大规模企业和企业的巨额支出推动了高性能处理器、内存和网络芯片的订单[7] - 尽管部分科技板块出现波动,但芯片制造商因终端市场需求强劲和AI主导的投资周期而跑赢,美联储的宽松货币政策亦形成助力[8] - 2026年初,英伟达在CES 2026上发布下一代Vera Rubin超级芯片,该芯片是其新品牌Rubin平台的一部分,该平台由六个互连芯片组成[8][9] - AMD同期推出了即将面世的AI数据中心平台,首次展示了Helios系统并概述了其底层设计[9] - **SPDR标普航空航天与国防ETF**:国防股在1月初上涨,因美国对委内瑞拉的行动以及地缘政治紧张局势重燃推高了军费支出预期[12] - 根据Global X数据,到2030年全球国防开支可能超过3.6万亿美元,较2024年报告水平增长33%,各国在美国两党支持下加强AI、无人机和网络防御[12] - 全球航空旅行的增长将为商业航空航天公司提供长期增长支撑[13] - 洛克希德·马丁、诺斯罗普·格鲁曼和雷神技术等国防承包商在过往美伊紧张时期股价通常上涨[13] - **美国制药iShares ETF**:在AI泡沫担忧和经济缓慢增长的背景下,医疗保健等防御性板块近期受到重视[14] - 由于创新和并购活动增加,生物科技股走强[14] - 根据DPR Construction报告,该行业在2026年将进入投资“超级周期”,主要制药商承诺在未来五年内向美国项目投入约3700亿美元[14] 早期市场领涨板块 - 在人工智能和安全支出的推动下,小盘股、动量股、半导体和国防板块成为2026年初的领涨者[11] - 医疗保健板块作为防御性但表现优异的领域脱颖而出,因投资者在风险与安全之间寻求平衡[11]
How long will Jensen Huang be Nvidia's CEO?
Yahoo Finance· 2026-01-07 21:29
公司领导层与战略 - 公司CEO黄仁勋自1993年起担任该职位 其任期远超其他科技行业领袖 如苹果的蒂姆·库克(14年)和Meta的马克·扎克伯格(22年) [1] - 公司目前未公布任何正式的CEO继任计划 但黄仁勋已明确表示暂无离职计划 [2] - 黄仁勋认为长期担任CEO的秘诀在于不被解雇和不感到无聊 并表示只要自己值得 就会继续担任 [3] 公司市场地位与责任 - 公司股价从1999年至2016年的每股几美分 上涨至目前的超过187美元 并成为全球市值最高的公司 [1] - 黄仁勋承认 作为这家AI芯片制造商的CEO负有“重大责任” 因为公司的表现不仅对科技行业 而且对整个市场都有连锁影响 [3] - 公司自视为行业的“船长” 拥有遍布全球的供应链和协作伙伴 这些伙伴都依赖公司履行职责 公司花了34年才达到今天的地位 [4] 公司近期动态与未来规划 - 公司在CES上宣布了下一代Vera Rubin超级芯片 该芯片将于今年晚些时候开始发货 [4] - 公司宣布与梅赛德斯-奔驰建立自动驾驶技术合作伙伴关系 旨在与特斯拉的自动驾驶系统竞争 [4]
光物质通道:AI 用 3D 光子互连板 --- Lightmatter Passage _ A 3D Photonic Interposer for AI
2025-09-22 08:59
**涉及的公司和行业** * **公司**:Lightmatter、Nvidia、Cerebras、Graphcore、Tachyum、AMD、Intel、Cisco、Meta、台积电(TSMC)、GlobalFoundries [1][7][13][30][44][55][69][122][129][138][204] * **行业**:人工智能(AI)加速器、高性能计算(HPC)、光子计算、先进半导体封装、数据中心互连技术 [3][7][11][13][21][28][29][42][81][82][122][138][140][141][142][148][149][155][156] **核心观点和论据** **现代AI训练的规模化挑战** * AI模型规模及其计算需求呈指数级增长,从数百万参数发展到数百亿甚至数万亿参数 [3][4] * 训练大型语言模型如GPT-3和GPT-4需要数千个GPU组成的分布式系统 [3][4] * 扩展面临双重瓶颈:摩尔定律放缓限制单芯片性能提升,多节点分布式训练引入巨大通信开销和同步延迟,使网络带宽成为关键瓶颈 [7][8][10][11] * 英伟达CEO指出,最新AI训练和推理工作负载的计算需求相比一年前的预期激增了高达100倍 [7][8] * 现代大规模AI训练陷入困境:依赖大规模GPU集群导致网络瓶颈和功耗飙升,依赖单节点性能提升则遇到半导体扩展、热管理和功率密度的限制 [10][11] * 克服计算和通信的双重瓶颈已成为后摩尔定律时代整个行业的共同挑战 [11] **Lightmatter Passage光子互连技术** * Lightmatter Passage M1000"超级芯片"平台采用创新的3D光子堆叠架构,旨在解决芯片间连接能力不足的核心瓶颈 [13][14] * 该平台在一个光子互连板上集成多达34个芯片片,总等效晶粒面积达到4,000 mm²,超越传统光刻掩模单芯片的极限 [13][14] * 提供前所未有的互连带宽:总双向带宽为114 Tbps,包含1,024条高速SerDes通道,使每个集成计算芯片片能访问每秒多太比特的I/O带宽,有效突破传统单芯片外围I/O引脚限制的瓶颈 [17] * 通过光子堆栈,众多芯片片可共享高速光通信背板,以接近单片的效率协作,为应对AI规模扩大挑战提供新途径 [21] * 技术细节:采用2×4瓦片结构,8个光互连模块拼接;每个瓦片集成16条水平光总线,每条总线支持2个全双工光链路;每个光链路通过波分复用(WDM)使用8个波长,每个波长56 Gbps,实现每链路448 Gbps,每条光总线总吞吐量接近1 Tbps [97][98][99] * 集成光电路开关,可编程改变波导连接性,实现动态可重构的光通信网络,提高系统容错能力 [103] * 利用微环调制器等紧凑光器件实现极高I/O密度,整个M1000分布有1,024个SerDes通道,通过3D堆叠垂直光耦合绕过传统电I/O的平面限制 [104][105] * 通过256根光纤与外部连接,每根光纤支持双向多波长传输,显著提升连接效率 [106][107] * 目标是将传统扩展环境中数十甚至数百个模块的通信需求浓缩成一个单一的扩展超级包,实现"芯片内的计算,芯片内的通信" [108] **光子计算的技术验证与比较** * 《自然》杂志发表的论文验证了光子学在AI加速方面的可行性,展示了首个能执行ResNet和BERT等高级神经网络的光子处理器,在多个复杂任务中实现接近32位浮点数字加速器的精度 [22][23] * 该光子处理器采用多芯片集成封装,垂直组合六个芯片(四个128×128光子张量核心PTCs和两个12nm数字控制接口DCIs),通过高速接口连接光子计算芯片与电子控制芯片 [23][24] * 在测试中实现每秒65.5万亿次的16位运算,仅消耗约78瓦电能加1.6瓦光能,实现"接近电子精度",标志着光子计算实际应用的重要一步 [26][27] * 与Lightmatter Passage比较:《自然》处理器专注于光子核心层面的张量计算,证明光子计算核心可与电子加速器竞争;Passage则专注于跨芯片互连,提供革命性数据传输架构 [28][29][116] * 两者互补:《自然》处理器增强模块内计算性能,Passage扩展模块间通信带宽,共同预示混合电子-光子架构的未来 [28][29][82][83][116][121] **与其他行业玩家的比较分析** * **Nvidia**:继续依靠GPU集群扩展和先进封装,其Blackwell Ultra GPU采用双芯片设计,拥有2080亿晶体管,性能比H100提高约50% [30][31];计划推出的Vera Rubin超级芯片结合Rubin GPU和Vera CPU,基于3nm工艺和HBM4内存(带宽13 Tbps),提供50 PFLOPS(4位)推理性能,约为Blackwell的2.5倍;Rubin Ultra通过封装两个Rubin GPU预计达100 PFLOPS FP4性能 [34][35];升级互连技术,NVLink 6提供每节点3.6 Tbps带宽,并推出基于光学的数据中心交换机(如Spectrum-X, Quantum-X),端口速度达800 Gbps [36][37];但其电气互连的功率和距离限制突出,单个Vera Rubin机架功耗高达600 kW [39][40];Passage通过光互连在单机内实现十到数百Tbps联网能力,将数据中心级通信压缩成"超级芯片",简化部署并提高效率 [42][127][128] * **Cerebras**:采取极端规模扩展策略,构建晶圆级引擎(WSE),第三代WSE-3单个芯片面积46,250 mm²,集成4万亿晶体管、90万个核心、42 GB片上SRAM,片上内存带宽达21 PB/s [44][45];可将24万亿参数模型全部权重集成在单芯片中,提供极高内部带宽密度(约为Nvidia H100的7,000倍)和超低延迟 [47][48];但面临制造良率、热管理(单个CS-3系统耗电15 kW)和成本挑战,超出一块晶圆的扩展仍依赖外部电互连(以太网/InfiniBand) [49][50];Passage通过光互连在标准芯片片间实现近乎单片的带宽通信,提供更好的成本效益和灵活性 [52][53] * **Graphcore**:专注于先进封装和内存架构创新,其第二代IPU集成900 MB分布式SRAM,通过近内存设计提供260 TB/s片上内存带宽 [55];Bow IPU采用台积电晶圆上晶圆(WoW)3D堆叠技术,将计算晶圆与电源供应晶圆直接粘合,运行频率从1.35 GHz提升至1.85 GHz,性能提升约40%,能效提升16% [58][59];但其IPU间通信仍依赖电接口,在大规模扩展时效率低于光互连 [61][62];Passage专注于打破跨芯片通信瓶颈,而Graphcore强调芯片内带宽和功率传输提升,未来结合两者技术可能解锁更高性能 [66][67] * **Tachyum**:追求"通用处理器"路线,其Prodigy芯片采用多核设计,提供192个64位核心,AI性能媲美GPU,强调核心功耗比传统处理器低一个数量级,支持统一架构处理推理、训练和通用计算 [69][70][74];在互连方面采用UCIe开放芯片片标准,并与光连接器供应商合作引入光纤高速连接增强节点间通信 [74][75][76];但其超大型模型训练仍需多芯片集群,节点间互连是关键,其光连接方法侧重于板级或机架级改进,而Passage将光集成到封装级互连结构,实现更深集成和更高带宽密度 [77][78] * **AMD MI300**:将CPU、GPU和HBM集成在一个封装中,采用芯片片堆叠和3D V-Cache技术,实现CPU和GPU共享缓存一致性和巨大HBM容量,代表另一种规模扩展方法 [129];封装集成多达九个芯片(三个计算芯片和六个HBM3堆叠),通过Infinity架构提供数百GB/s CPU-GPU通信和超过1 TB/s内部内存带宽 [131][132];但跨插槽或多节点通信仍依赖电互连(Infinity Fabric或以太网),封装和功率限制集成芯片数量 [135];Passage的3D光子堆叠提供更激进的扩展路径,使任意数量芯片片通过光子底板互连,形成"巨型APU" [136][137] * **系统互连趋势**:超大规模数据中心探索光背板和光子交换机,Meta提出构建"AI超级网络"光学织物,Intel和思科开发共封装光学(CPO)交换机,将光收发器直接置于交换机ASIC旁 [138][139];这些努力可视为系统级规模扩展,将整个网络视为单台计算机;Passage是此概念在机器级的延伸,提供模块化光子互连平台 [140][141];行业趋势是铜链路逐渐被光纤取代,光子互连成为从处理器内部到数据中心网络的焦点 [141] **铜互连的局限性与光子互连的优势** * **铜互连局限**:传输距离有限,高频下信号衰减严重,仅几厘米后即需中继器,增加功耗和延迟 [157][159][160];功耗随距离线性或更快增加,现代高速SerDes每比特消耗数皮焦耳,例如Nvidia H100的NVLink带宽约900 GB/s,I/O能耗可达数十瓦,扩展到数百Tbps需求时,纯电方案不切实际 [163][164][165];I/O引脚数量和布线密度是基本瓶颈,计算性能增长快于I/O增长,导致"计算快但数据移不出"的瓶颈 [167][168];功率密度(W/mm²)持续上升,对封装材料和热管理提出更高要求,先进GPU已达0.5–0.7 W/mm²,需要大型散热器和液冷,3D集成中多芯片片集中热量加剧冷却挑战 [170][171][172][173] * **Passage光子方案优势**:用光波导和光纤替代铜线,光信号在硅波导中损耗极低,可实现芯片间或机架级传输而无须中继器 [176][177];利用波分复用(WDM)提升带宽密度,每个波导8个波长各56 Gbps,达448 Gbps,16个波导组成~7.17 Tbps光总线,远超铜线密度 [179][180];单根光纤传输16个双向波长,提供~1 Tbps全双工吞吐量,功耗仅~100 mW/光纤,而铜线实现同等带宽需数十至数百高速通道,体积和功耗大得多 [181][182];采用微环谐振器调制器,Tx/Rx对仅占0.006 mm²(比电SerDes小约3倍),驱动功率~1 mW/设备,调制能量~0.018 pJ/比特,总能量/比特预计接近1 pJ,比先进铜SerDes高效数倍 [184][185];内部测试显示光链路在56 Gbps NRZ和112 Gbps PAM4下稳定运行,误码率达标,眼图开放,TDECQ消光比仅0.83 dB [187][188];3D堆叠结合强大电源和热管理,光子互连板集成密集TSV电源通孔,承载>2.5 A/mm²电流,支持多个150–200W级计算芯片同时工作而无供电瓶颈 [189][190][191];热管理上,3D堆叠缩短热路径,计算芯片可从顶部直接冷却,集中式热设计更易优化(如使用单一片冷板) [193][194];证明即使节点聚合数千TB/s带宽和接近千瓦级功率也能在物理限制内可靠运行,为突破铜互连约束提供明确路径 [195][196] * **行业应对比较**:Nvidia和AMD在封装级优化,如HBM通过硅中介层直接连GPU,缩短路径至毫米级,实现>1 TB/s GPU内存带宽 [204];交换机中CPO成为热点,思科和微软测试将光收发器嵌入交换机ASIC旁,实现直接光I/O [206];Passage将CPO概念从板级推进至芯片间光互连,Nvidia计划在未来Kyber机架采用CPO支持600 kW GPU系统,而Passage已在单超级模块内展示数百Tbps连接,减少对机架级交换机的依赖 [206][207];为降低铜互连功耗,行业投资SerDes创新(如PAM4、DSP/FEC均衡),但常以功耗换带宽,新一代技术提高每比特能量 [208][209];Graphcore降低每通道速度但在封装内集成更多芯片片以分散功耗,但仍依赖传统互连进行跨卡扩展,且I/O驱动摆幅电压缩放放缓,未来电I/O可能消耗系统大部分功率 [210][211];光子互连成为必然路径,不受RC约束,可长距离低功率传输,微环调制器能效高;Lightmatter报告其3D光子CPO相比传统2D CPO在功率减半下实现8倍带宽提升,是量级飞跃 [213];光子学引入新维度解决电学权衡:光信号实现"快速且远距离",3D集成实现"分布式散热"和更有效的热负载管理,缩短电源路径稳定高电流传输 [215];《自然》处理器验证了小规模混合光电子系统效率,Passage M1000将其扩展至大规模带宽和高功率集成,证明光子3D集成的可靠性 [216] **其他重要内容** **规模扩展(Scale-Up)与规模扩大(Scale-Out)的辩证关系** * 两者不应被视为对立面,而是光谱的两端 [144][151];规模扩大提供灵活性和增量增长,但系统扩展后边际收益下降(受阿姆达尔定律和通信开销增加限制);规模扩展提供更高的每资源效率,但受硬件限制和成本制约 [144][151] * 未来AI基础设施可能平衡两者,即"适度规模扩展 + 协调规模扩大",例如将数十或数百个计算芯片封装成光互连模块,然后通过高级网络连接 [145][146][152][153] * 《自然》光子处理器和Cerebras WSE代表极端规模扩展,证明单节点内突破传统限制的可行性;Nvidia和AMD正逐步将规模扩展元素注入规模扩大框架(如芯片片、更快节点间连接) [147][154] * 光电子集成正在重新定义规模扩大/规模扩展的边界,Lightmatter Passage展示了如何结合两者优势以满足下一代AI的巨大计算需求 [149][156] * 未来几年,光子互连将发挥关键作用,将大规模计算架构从松散分布集群转变为紧密结合的光学织物,为用户带来更大模型、更快训练和更低能耗 [148][155] **技术细节与性能数据** * Passage M1000总双向带宽114 Tbps,1,024条SerDes通道 [17] * Passage每个光链路通过WDM达448 Gbps,每条光总线近1 Tbps,每个瓦片总带宽巨大 [98][99] * 《自然》光子处理器性能:65.5万亿16位操作/秒,功耗~78 W电能 + 1.6 W光能 [26] * Nvidia H100 NVLink带宽约900 GB/s,假设~10 pJ/比特,I/O能耗可达数十瓦 [164] * Passage微环调制器Tx/Rx对面积0.006 mm²,驱动功率~1 mW,调制能量~0.018 pJ/比特 [184][185] * Passage光纤传输~1 Tbps全双工吞吐量,功耗~100 mW/光纤 [181][182] * Lightmatter 3D光子CPO相比传统2D CPO实现8倍带宽提升,功耗减半 [213]