H100 GPU
搜索文档
云巨头,为何倒向英伟达?
半导体行业观察· 2026-02-19 10:46
Meta与英伟达的AI算力合作 - 公司近期与英伟达达成大规模AI系统交易,这是双方已知的第三起巨额合作,交易规模远超上一次,对英伟达而言价值至少数百亿美元,原始设计制造商还能获得额外收益[2] - 尽管公司一直致力于自研AI芯片(如MTIA项目)并收购RISC-V厂商Rivos,但仍向英伟达投入巨额资金,采购整系统、GPU、NVSwitch互联芯片并扩展InfiniBand网络[3] - 此次合作涉及采购数百万片英伟达Blackwell与Rubin GPU,部分部署在自有数据中心,另一部分(未披露比例)将从英伟达的云合作伙伴处租赁算力[7] - 初期部署将以GB300系统为主,优先面向推理任务,可能附带少量训练[8] - 合作还包含英伟达所称的“首个大规模纯Grace部署”,推测指的是Grace-Grace超级芯片,双方正在研究如何部署纯Vera (Grace) 算力,并有望在2027年大规模落地[8][9] 公司AI算力战略的演变与选择 - 当AI算力需求足够紧迫时,公司愿意放弃自家开放计算项目(OCP)的设计方案,转而采用英伟达的方案,前两起案例及本次新案例均体现了这一点[2] - 公司最初并不想大量采购英伟达GPU,但因英特尔Ponte Vecchio GPU延迟、AMD MI250X供货不足,最终选择英伟达A100 GPU搭建其研究超级计算机(RSC)[4] - 该RSC系统为2000节点,搭载4000颗AMD CPU与16000颗英伟达A100 GPU加速器,合同于2022年1月签订并当年部署[5] - 2022年3月,公司计划投资A100与H100加速器,打造总算力超过50万片H100等效算力的集群舰队,包括两套各搭载24576颗GPU的基于Grand Teton平台的集群[5] - 为紧急补齐AI算力缺口,公司于2022年5月与微软达成协议,在Azure云上采购基于NDm A100 v4实例的虚拟超算资源[5] - 公司近期试图降低对英伟达依赖,推出自研MTIA v2推理加速器,并与AMD合作设计“Helios”机架方案,其密度为英伟达Oberon机架的一半[6] - 本次合作公告中未提及InfiniBand,表明公司已做出长期选择[8] 合作规模与财务影响估算 - 假设合同为逐年放量,总规模达到200万到300万颗GPU[11] - 若全部采用GB300算力集群,单套GB300 NVL72机柜成本超过400万美元,采购200万到300万颗GPU的总价值大约在1100亿到1670亿美元之间[11] - 公司希望尽可能少租算力,因为四年周期内,租赁GPU成本是直接购买的4~6倍,且无法利用其重金建设的自有数据中心[11] - 租赁算力属于运营支出,不计入资本支出预算,公司2026年的资本支出预算预计为1250亿美元[12] 行业背景与公司定位 - 在超大规模云厂商与大模型厂商中,公司定位独特:不仅为搜索加入AI能力、打造通用大模型,还高举开源大旗,并运营庞大的高性能集群作为推荐引擎[3] - 公司推荐引擎系统需要CPU与加速器紧密耦合,英伟达的Grace-Hopper超级芯片正是瞄准这类场景设计,且公司拥有大量此类设备[3] - 所有超大规模云厂商与云服务商都希望拥有自研CPU与XPU,包括公司在内,有传闻称公司还在与谷歌洽谈租用TPU算力,并最终希望在自有系统中用上自研TPU[12]
AI算力的下一个战场,已经延伸到了太空?
36氪· 2026-02-09 14:26
文章核心观点 - 将数据中心部署到太空正从一个科幻概念转变为科技巨头们积极布局的现实战略,旨在解决地面AI算力发展面临的能源、散热和延迟等核心物理瓶颈 [1][3] - 太空数据中心建设目前主要探索“在轨边缘计算”和“轨道云数据中心”两条技术路径,前者已进入实践验证阶段,后者则代表更长期的规模化野心 [13] - 尽管面临技术、工程成本及监管等多重挑战,且短期内无法替代地面设施,但太空数据中心为算力的长期增长提供了一条不受地面资源约束的可行路径,未来可能形成天地混合的算力体系 [60][62][63] 地面数据中心面临的挑战 - **能源消耗巨大**:超大规模AI数据中心的持续用电规模已从几十兆瓦跃升至数百兆瓦,甚至逼近1吉瓦(GW),1吉瓦功率全年运行耗电约8.8太瓦时,相当于一座中等规模城市一年的用电量 [6] - **散热成为昂贵系统难题**:以H100 GPU为例,单卡功耗近700瓦,集群散热成本高昂;大型数据中心每消耗1千瓦时电力,通常需要1至2升淡水用于冷却,一个百兆瓦级AI数据中心日耗水量可达上百万升 [6] - **能源获取竞争激烈**:AI巨头为保障电力供应,采取收购发电厂、自建电网、抢购燃气轮机乃至研究核能等多种手段,地面已陷入“AI能源战争” [8] 太空数据中心的优势 - **近乎无限且稳定的能源**:近地轨道太阳能利用效率是地面的8到10倍,可提供24小时不间断、几乎零成本的清洁能源;太阳本身被视为一个稳定运行了45亿年的天然核聚变反应堆,能量极其充沛 [9] - **高效自然的散热环境**:太空背景温度仅约3开尔文(-270℃),热量可通过辐射方式直接排向深空,理论上可使数据中心能源使用效率(PUE)无限逼近于1,即几乎所有电力都用于计算而非制冷 [10][11] - **极低的通信延迟**:光在真空中的传播速度比在光纤中快30%,通过激光链路可实现“全球算力秒达”,太空算力节点可能成为更接近用户的快速中继节点 [13] 当前主要技术路径:在轨边缘计算 - **核心逻辑**:将AI加速器直接部署于在轨卫星,使数据(如遥感图像)在太空就地处理、筛选和压缩,减少下行数据量,降低延迟和通信能耗 [16][17] - **实践案例**:初创公司Starcloud与英伟达合作,于2023年11月将搭载H100 GPU(系统重60公斤)的Starcloud-1卫星送入轨道,并成功在太空中完成调用Gemma模型、训练NanoGPT以及实时识别野火等任务 [19] - **技术特点与意义**:使用成熟的数据中心级硬件进行适应性封装,任务专用,技术难度相对可控;商业模式清晰,可立即提升效率;更重要的是为验证算力在太空辐射环境下的长期稳定运行提供了关键第一步 [21][22][24][25] - **局限性**:受卫星体积、供电和散热限制,无法无限堆叠GPU,不适合训练超大模型,主要服务于图像识别、目标检测等特定任务,存在明确的天花板 [25][27] 当前主要技术路径:轨道云数据中心 - **谷歌的Suncatcher计划**:目标是在轨道上构建固定位置的算力平台,作为地面云计算的补充;计划于2027年初发射两颗原型卫星进行测试;设想由81颗卫星组成半径1公里的集群,卫星间通过自由空间光通信(FSO)互联并保持近距离编队飞行 [28][30][31][33] - **SpaceX基于Starlink的演进路线**:依托现有约9300颗活跃卫星(占所有在轨可运行卫星约65%)组成的、已具备激光链路的星座网络,通过后续发射专门的“算力增强型卫星”来逐步使网络具备分布式计算属性,形成分层式轨道云系统 [34][36][38][40] - **太空站式集中数据中心**:探索在国际空间站或大型在轨平台集中部署机柜级算力,结构接近地面数据中心,但面临极高的发射建设成本、有限扩展性及在轨维护挑战,目前多处于研究和早期验证阶段 [41][42][44] 建设挑战与成本分析 - **技术挑战**:需重新设计卫星的整个工程逻辑,包括扩大太阳能板面积以提供持续稳定电力、在卫星平台内集成计算载荷、以及增加专门的辐射散热板来处理持续发热问题 [47][48] - **工程与成本挑战**:建设流程复杂且容错率低;当前1GW太空数据中心的预估建设成本可能高达千亿美元,其中仅发射和在轨组装成本就可能达到200至300亿美元(基于将上万吨级系统送入轨道的测算) [51][53] - **成本未来展望**:尽管前期投入巨大,但在发射成本大幅下降(如SpaceX星舰实现完全复用后可能低至每公斤15美元)的前提下,凭借近乎零的长期运行能源成本,其全生命周期成本未来有望与地面数据中心接近甚至更低 [33][55][56] - **监管挑战**:大规模部署将加剧近地轨道拥挤,增加碰撞风险与太空垃圾问题,需要建立全新的跨国界轨道治理机制,包括更严格的离轨与退役标准 [57][59] 未来前景与定位 - **角色定位**:在可预见的未来,太空数据中心并非地面数据中心的替代者,而是作为补充,与地面设施共同构成“混合算力体系” [60][63] - **适用场景**:特别适合处理对能耗要求极大、对延迟和可靠性要求相对不高的计算任务,如部分AI训练;也适用于在太空采集并需要就地计算的数据,充当边缘数据中心 [64] - **长期意义**:为持续膨胀的算力需求开辟一条不受地面能源、散热、用水及土地资源约束的增长路径,重新定义算力的物理边界,标志着算力开始被视为一种需要跨越行星尺度来规划的基础资源 [62][65][67]
NVIDIA (NasdaqGS:NVDA) Conference Transcript
2026-02-03 15:02
纪要涉及的行业或公司 * 公司:英伟达 (NVIDIA),专注于为人工智能工厂构建超级计算机和网络基础设施 [1] * 行业:人工智能计算、数据中心网络、硅光子学、共封装光学 (CPO) 技术 [3] 核心观点和论据 1. AI超级计算机的架构与四大网络基础设施 * 构建AI超级计算机需要整合四大网络基础设施:Scale-Up (纵向扩展)、Scale-Out (横向扩展)、Context Memory Storage (上下文内存存储) 和 Scale Across (跨域扩展) [4][5][6] * **Scale-Up**:通过NVLink连接H100 GPU,形成机架规模的单一虚拟GPU,未来可连接数百个H100 GPU [4] * **Scale-Out**:通过Spectrum-X以太网连接数十万个GPU,运行单一AI工作负载,其核心使命是消除抖动,确保所有GPU完全同步 [5][10] * **Context Memory Storage**:利用BlueField DPU在AI Pod内构建新的存储层级,服务于推理工作负载的存储需求 [6] * **Scale Across**:基于Spectrum-X以太网,连接远程数据中心,形成支持千兆规模AI工厂的单一计算引擎 [7] 2. Spectrum-X以太网:专为AI设计的网络 * 现有以太网技术(企业级、超大规模数据中心级、服务提供商级)均非为AI分布式计算设计 [8][9] * Spectrum-X以太网采用端到端基础设施设计,专注于RDMA和消除抖动,以实现GPU间的高效、同步数据交换 [10] * 通过SuperNIC控制注入速率以避免热点,交换机使用细粒度自适应路由为每个数据包选择最佳路径,共同消除抖动 [11] * **性能提升**:通过消除抖动,将专家调度性能提升3倍;在训练中实现1.4倍的性能提升,并提供可预测的性能 [12] 3. 共封装光学 (CPO) 技术的优势与创新 * **驱动因素**:随着带宽代际翻倍,用于横向扩展网络的光连接功耗持续增加,可消耗近10%的计算资源,降低功耗对提升数据中心计算能力至关重要 [13][14] * **技术原理**:将传统上位于交换机外部光模块中的光引擎,移至与交换机ASIC相同的封装内 [15] * **核心优势**: * **功耗**:将横向扩展基础设施的功耗降低5倍 [18] * **可靠性**:通过将光引擎封装在液冷盒内、避免人为接触,将可靠性提升13倍,信号完整性提升64倍 [20][21] * **组件**:减少所需激光器和组件数量,无需使用可插拔光模块 [18][21] * **产品规格**: * **Spectrum-X以太网光子学**:提供102 Tb/s交换机(120个800Gb端口或512个200Gb端口)和409 Tb/s大型交换机(512个800Gb端口或2,000个200Gb端口)[22] * **Quantum-X InfiniBand光子学**:提供115 Tb/s全液冷交换机,支持144个800Gb端口 [21][22] * **技术创新**:与台积电合作开发共封装工艺;采用微阵列调制器构建支持大基数交换机的小型光引擎;设计高功率激光器以减少激光器数量;改进光纤对准和连接技术 [30][31][32][33] 4. CPO部署计划与客户案例 * **部署时间表**:CPO部署已于今年开始 [26] * **InfiniBand CPO**:CoreWeave、Lambda和德克萨斯高级计算中心将在今年上半年首批部署Quantum-2 InfiniBand CPO [26] * **以太网 CPO**:Spectrum-X以太网CPO将于今年下半年开始发货 [26] 5. CPO与可插拔光模块的对比及客户关切 * **灵活性担忧**:可插拔光模块支持按端口选择多模/单模等不同技术,CPO交换机需预先确定连接技术 [34][35][36] * **公司回应**:NVIDIA的CPO技术选择已能覆盖数据中心内部乃至园区楼宇间的全部距离,无需多种光模块,在降低功耗的同时提供了所需的连接能力 [37][38][42] * **可靠性担忧**:可插拔光模块因人为接触、灰尘等需要不时更换,可能引发对CPO可靠性的顾虑 [27][28][39] * **公司回应**:CPO将光引擎内置封装、液冷、全系统测试且避免人为接触,其可靠性堪比不带光模块的可插拔交换机,解决了可靠性问题 [29][40][41] * **成本模型担忧**:可插拔光模块支持“按需付费”模式,CPO可能提高前期采购成本 [49] * **公司回应**:AI超级计算机的拓扑结构经过优化,交换机完全利用,通常需要一次性购买全部光模块。采用CPO降低了基础设施的总成本(节省资本支出和运营支出),并提高了可靠性和正常运行时间,是双赢局面 [51][52][53] 6. 未来创新方向与生态系统 * **创新节奏**:为支持新一代AI工作负载,数据中心设计、GPU、交换机、超级网卡等技术已进入年度更新节奏 [54] * **未来重点**:支持更大基数的交换机;提高光网络密度和横向扩展基础设施的带宽容量;优化整个机架和数据中心的密度与液冷设计 [54][55] * **液冷兼容性**:网络交换机的液冷机架设计与计算服务器(如DGX)使用的机架设计相同,便于数据中心构建、安装和管理 [56] * **合作伙伴与灵活性**:与大型制造商合作,为不同云服务提供商和客户设计交换机;Spectrum以太网支持多种操作系统(如Cumulus、Nexus),具备全面灵活性 [57][58] 其他重要内容 * **术语澄清**:在问答中,演讲者使用了“Coherent Edge Optics”来指代其CPO技术,这与之前使用的“co-package optics”含义相同 [44][53][54] * **未回答问题处理**:由于时间有限,大量未现场回答的问题将通过PDF形式在后续提供给参会者 [45][59]
广发证券:太空算力远期市场空间广阔 太阳翼或为最优通胀环节
智通财经网· 2026-01-20 16:43
文章核心观点 - 太空算力行业因中美积极布局及其自身的成本与性能优势 远期市场空间广阔 其发展将推动太阳翼技术向柔性路线演进 并使其成为产业链中价值提升潜力最大的环节[1][3][4] 太空算力行业概述与优势 - 太空算力指将数据中心和计算能力部署到太空轨道 从“天数地算”模式转变为“天数天算”模式 直接在太空完成数据处理[1] - 太空算力具备显著的运营成本优势 以单个40MW算力集群运行10年为例 其综合成本仅为820万美元 相比传统算力集群可节省约1.59亿美元 其中边际能源成本节省超1.3亿美元[2] 行业布局与市场前景 - 海外方面 英伟达已完成H100 GPU在轨测试 SpaceX计划未来4年内每年部署100GW太空数据中心 谷歌拟2027年发射TPU原型卫星 Starcloud推进40MW数据中心落地[3] - 国内方面 “零碳太空计算中心”已实现单星744TOPS、星座5POPS算力 星算计划将部署2800颗卫星构建全球天基网络[3] - 中美积极布局叠加太空算力自身优势 行业远期市场空间广阔[3] 技术演进与产业链机会 - 太空算力发展将带动太阳翼功率和面积需求跃升 受限于发射空间和重量 太阳翼将采用柔性技术路线[1][4] - 柔性太阳翼可实现减重20%-40% 缩小收纳体积60%以上 并实现更高性能[1][4] - 当前柔性太阳翼技术路线分化 硅基依赖大运力火箭 砷化镓成本高但性能优 钙钛矿为潜力路线且成本仅为砷化镓的1/10[4] - 太阳翼在电源系统中价值量占比达60%-80% 技术路线改变有望使其成为全链条最优通胀环节[1][4] 相关投资标的 - 迈为股份:主要产品包括全自动太阳能电池丝网印刷生产线及异质结高效电池制造整体解决方案 未来有望切入航天级光伏产线 成为太空算力光伏环节核心设备供应商[5] - 高测股份:公司金刚线切割适配硅基太阳电池轻薄化 契合太空光伏降本路线 太空算力有望驱动其切割业务打开第二成长曲线[5] - 捷佳伟创:公司全面布局TOPCon、HJT、XBC、钙钛矿太阳能电池装备 提供高效太阳能电池装备及智能制造系统解决方案 未来有望深度绑定下游国内航天客户 分享太空算力柔性太阳翼扩容红利[5]
硅谷大空头杀回来了,做空甲骨文,英伟达万亿AI泡沫要崩?
36氪· 2026-01-12 08:33
文章核心观点 - 当前AI行业面临资本支出与实际收入之间的巨大鸿沟 存在潜在的泡沫风险 多位行业资深人士对此展开激辩 [1][2] - 传奇投资者Michael Burry对当前AI热潮持深度怀疑态度 认为存在历史性资本错配的风险 并已开始做空甲骨文等公司 [1][7] - 以Sam Altman为代表的另一派则认为AI“奇点”临近 通过“递归自我改进”将实现指数级飞跃 导致赢家通吃的局面 [36][39][41] - 全球AI算力正以惊人速度增长 但面临严重的能源与基础设施瓶颈 可能制约发展并导致资产搁浅 [4][42][54] AI行业资本与盈利矛盾 - 尽管Claude Code和Gemini等技术能力突飞猛进 但资本支出与实际收入之间存在巨大鸿沟 [2] - 大型语言模型根本问题是成本过高 导致盈利模型难以理解 竞争优势难以判断 [9] - 过去一年大部分收益来自推理规模扩张 这需要可变成本呈指数级增长才能维持 [9] - 从资本周期看 当前处于周期中期 股票不再因扩张奖励投资者 真实成本和收入不足开始显现 [15] 对AI基础设施与商业模式的批判 - 当前AI繁荣的资本支出持续时间极短 芯片每年更新 数据中心可能两三年内就会折旧完毕 [10][12] - 私募信贷对繁荣的融资作用巨大 但其存在严重期限错配 资产证券化期限长达二十年 而超大规模企业每四五年就得退出一次 可能导致资产搁浅 [13] - 如果AI产业链任何一方都无法获得巨额利润 且AI仍然至关重要 那么价值将流向客户 如同自动扶梯大战中唯一获利的是顾客 [21] - 大多数AI应用可能面临类似结局 即像百货公司安装自动扶梯一样 双方都无法从昂贵项目中获益 [16] 对特定公司的看空观点与做空逻辑 - Michael Burry公开做空甲骨文 因其为追赶AI激进扩张 导致债务规模飙升至950亿美元 [7][29] - 甲骨文为抢占云计算市场疯狂建设数据中心 背负沉重债务 其股价从去年9月峰值已回撤约40% [26][28] - Burry避开做空Meta、Alphabet和微软等业务多元的科技巨头 因其拥有强大自我调节能力和核心业务护城河 [32] - Burry将英伟达形容为表达对AI交易看跌观点的“最纯粹”标的 并认为其优势不持久 未来SLM和ASIC才是发展方向 [18][34] - Burry表示若OpenAI估值达到5000亿美元 会毫不犹豫做空 [7][34] - Burry对Palantir持负面看法 认为其CEO缺乏自信 公司终将衰落 [20] 全球AI算力发展现状与瓶颈 - 全球AI算力总容量已达到1500万个H100 GPU当量 且从2022年开始每年以约3.3倍速度增长 [4][44] - AI算力增长每7个月就能翻一番 [42] - 芯片运作功耗高达10GW 相当于两个纽约市的平均用电量 引发对发展可持续性的担忧 [4] - 当前新增AI算力中超过60%来自英伟达 但谷歌和亚马逊正凭借自研芯片争夺市场份额 [51] - 英伟达B300 GPU已占据其AI芯片营收大头 H100市场占比大幅萎缩至不足10% [47] 基础设施与能源瓶颈 - 当前核心瓶颈在于缺少“热壳” 即基础设施完备的已完工数据中心 而非芯片供应 [54] - 存在“时间差错配” 电力输送和建设需数年周期 而GPU供应按季度指数级递增 可能导致芯片闲置贬值 [54] - Michael Burry建议美国应投入万亿美元建设小型核反应堆和全新先进电网 以支持发展并偿还债务 [22] 关于AI“奇点”与递归自我改进的展望 - OpenAI掌门人Sam Altman认为“起飞已经开始” 跨越了事件视界 [36] - OpenAI内部战略为“递归自我改进” 即利用AI编写代码改进AI自身 形成指数级智力飞跃 [39] - OpenAI路线图显示 目标在2026年9月开发出自动化AI研究“实习生” 2028年3月打造出完全自动化的AI研究员 [39] - Anthropic的Opus 4.5模型已被部分员工视为“近乎完整的入门级研究员替代品” [40] - 如果实现AI研究的完全自动化 “复利效应”将导致无法逾越的鸿沟 领先模型将以人类无法理解的速度自我进化 [41]
马斯克的xAI融资1400亿元!估值一年翻倍,英伟达参投
第一财经· 2026-01-07 15:00
融资与估值 - 公司完成E轮融资,融资额达**200亿美元**(约合人民币1400亿元),超过原定150亿美元目标 [3] - 本轮融资吸引了Valor股权投资公司、富达基金、卡塔尔投资局、阿布扎比基金MGX等全球顶级资本,以及英伟达和思科作为战略投资者参与 [5] - 融资后公司估值据称达到**2300亿美元**,较2025年3月披露的**1130亿美元**估值翻了一番 [5] - 2025年3月,公司收购X平台时,对公司估值为**800亿美元**,对X平台估值为**330亿美元** [5] - 2025年以来公司公开的总融资额已达**420亿美元**(约合人民币2934亿元) [6] 行业格局与竞争 - 目前大模型行业估值最高的公司是OpenAI,在2025年10月完成66亿美元股份出售后,估值达**5000亿美元** [5] - Anthropic在2025年9月完成130亿美元融资后估值达**1380亿美元**,同年11月有消息称微软和英伟达将投资150亿美元,可能将其估值推高至约**3500亿美元** [5] - 公司、OpenAI和Anthropic这三家大模型独角兽的总估值预计已在**万亿美元**附近 [5] - 公司旗下Grok系列模型与谷歌的Gemini、OpenAI的GPT系列以及Anthropic的Claude系列竞争激烈 [6] 业务发展与运营 - 公司成立于2023年7月,仅用两年时间成为大模型第一梯队 [6] - 通过X和Grok APP,公司覆盖了大约**6亿**月活跃用户 [6] - 公司正在训练Grok 5,未来将专注于推出创新的消费者和企业产品,目标覆盖数十亿用户 [7] - 公司为支持Grok开发,在美国田纳西州孟菲斯建立了超级计算中心“Colossus” [6] - 到2025年底,其Colossus I和II超级计算中心已部署超**百万**块H100等效GPU [6] 财务状况与投入 - 公司烧钱速度惊人,此前有消息称其每月消耗高达**10亿美元**,目前其收入远小于成本 [6] - 2025年6月底,公司完成总计**100亿美元**的融资,包括50亿美元债务融资和50亿美元股权融资 [6] - 此次融资将用于加速基础设施建设以及推动突破性研究 [7] 监管与风险事件 - 公司近期面临监管风波,旗下聊天机器人Grok因生成未成年人和成人的色情图像引发争议 [7] - 欧盟、英国、印度、马来西亚和法国的相关部门均已对公司展开调查 [7] - 公司将Grok定位为“更宽松开放”的工具,而多数主流模型明令禁止生成色情图像与视频 [7] - 公司表示正对此事展开审查,以杜绝类似问题再次发生 [7]
突破“存储墙”,三路并进
36氪· 2025-12-31 11:35
文章核心观点 AI与高性能计算需求的爆发式增长,正遭遇“存储墙”的核心瓶颈,即存储器带宽、延迟和能效的增长速度严重滞后于计算性能的增长,制约了系统整体潜力[1][4] 行业领导者台积电指出,未来竞争将是内存子系统性能、能效与集成创新的综合较量,并提出了以SRAM、MRAM、存内计算(CIM)为核心,结合3D封装与计算-存储融合的全栈技术演进路径[1][11][62] AI算力需求与存储“带宽墙”挑战 - AI模型参数从百万级跃升至万亿级,过去70年间训练计算量增长超过10^18倍,推理计算量同步爆发式增长[2] - 硬件峰值浮点运算性能(HW FLOPS)在过去20年间增长60000倍(平均每2年增长3.0倍),而DRAM带宽仅增长100倍(平均每2年增长1.6倍),互连带宽仅增长30倍(平均每2年增长1.4倍),增长速度严重失衡形成“带宽墙”[4] - 以英伟达H100 GPU为例,其BF16精度峰值算力达989 TFLOPs,但峰值带宽仅3.35 TB/s,在运算强度不足时系统性能受存储限制,计算资源闲置[7] - AI/HPC对存储器提出三大核心要求:大容量(存储模型参数)、高带宽(解决吞吐瓶颈)、低数据传输能耗(实现绿色计算与边缘部署)[7] 存储技术演进的全链条协同路径 - 行业正从传统以计算为中心的架构加速向以存储为中心的架构转型[7] - 未来存储器架构演进围绕“存储-计算协同”展开:从传统片上缓存,到片上缓存+大容量封装内存储器,再到高带宽低能耗封装内存储器,最终实现存算一体与近存计算[7] - 现代系统采用分层存储架构,从寄存器(延迟约1ns)、SRAM缓存(延迟约10ns)到HBM/DRAM主存,再到SSD,进行性能-成本权衡[9] - 技术突破需材料、工艺、架构、封装的全链条协同优化,而非单点突破[11] SRAM:高速缓存层的性能基石与演进 - SRAM凭借低延迟、高带宽、低功耗、高可靠性及兼容先进CMOS工艺的优势,是寄存器、缓存等关键层的首选技术,广泛应用于数据中心CPU、AI加速器、移动SoC等芯片[12] - SRAM工艺已覆盖N28至N2全节点,随着N3/N2等先进工艺普及,其在高性能计算芯片中的用量持续增长[12] - 随着工艺向7nm、5nm、3nm、2nm演进,SRAM面临面积缩放速度放缓、最小工作电压(VMIN)优化困境、以及互连损耗加剧(Cu线宽<20nm时电阻率快速上升)等挑战[16][17] - 台积电通过设计-工艺协同优化(DTCO)及技术创新推动SRAM缩放,例如:90nm引入应变硅,45nm采用高k金属栅,28nm推出FinFET与飞跨位线,7nm应用EUV光刻,2nm采用Nanosheet架构[13] - 设计层面,台积电推出3D堆叠V-Cache技术以优化末级缓存容量、延迟与带宽,应用于AMD Ryzen 7 5800X3D处理器,集成最高96MB共享L3缓存,游戏性能显著提升[17][20] - 通过写辅助电路、读辅助电路、双轨SRAM等技术,将N3工艺SRAM的VMIN降低超过300mV;通过交错三金属层字线、飞跨位线等技术降低互连损耗[20] - 未来SRAM发展聚焦:1)在N2及更先进节点通过Nanosheet与DTCO提升密度与能效;2)与3D封装结合垂直堆叠以匹配AI加速器超高带宽需求;3)与存算一体架构协同,作为DCiM的核心存储单元[20] 存内计算(CIM):突破能效瓶颈的架构革命 - 在典型AI加速器中,超过90%的能耗用于存储与计算单元间的数据搬运,而非实际计算,数据移动是制约能效的核心因素[21] - 存内计算架构打破冯·诺依曼架构,将计算功能嵌入内存阵列,数据在原地或近旁处理,极大节省能耗和延迟[24] - 台积电认为,数字存内计算(DCiM)相比模拟存内计算(ACiM)更具潜力,因其无精度损失、灵活性强、工艺兼容,能随节点演进持续提升性能,特别适用于边缘推理场景[26] - DCiM核心优势:1)灵活性高,可针对不同AI工作负载配置计算位宽;2)计算密度高,从22nm到3nm,其能效(TOPS/W)和计算密度(TOPS/mm²)实现数量级飞跃;3)精度灵活与能效比高,支持INT8/12/16及FP16精度,精度损失<2.0%,INT8能效比相比传统架构提升约4倍[28] MRAM:非易失性嵌入式存储器的突破 - 传统嵌入式闪存(eFlash)在28nm以下工艺微缩困难,磁阻随机存取存储器(MRAM)凭借低待机功耗、高密度、非易失性、速度快、耐久性和工艺友好等优势,成为理想替代方案[33] - MRAM核心价值在于兼顾高速读写与数据长期保存,满足汽车电子、边缘AI等场景对非易失性、高可靠性和极高耐久性的需求[35] - 在汽车电子领域,台积电N16 FinFET eMRAM技术满足严苛要求:100万次循环耐久性、支持焊料回流、150℃下20年数据保持能力,支撑车载MCU的OTA更新功能[39] - 在边缘AI领域,MRAM支持TinyML等紧凑AI架构,仅需2-4MB容量存储模型权重,同时支持安全OTA更新,匹配其对低容量、高能效与高可靠性的需求[39] - MRAM短板包括:单位容量成本高于DRAM与NAND;高温度下数据保持需优化;强磁场环境(如强永磁体N52)下需保持9mm安全距离等抗干扰挑战[43] - 台积电通过多重技术优化MRAM可靠性:1)数据擦洗技术结合ECC纠错,在125℃下控制位错误率;2)优化MTJ结构与布局以抗磁性干扰;3)针对NVM与RAM不同应用场景调整参数,权衡数据保持、密度与速度[43][47][49] - 台积电已将N16 eMRAM技术成功推向市场,特别是在汽车领域,并正在向更先进节点迈进[49] 计算-存储融合与3D先进封装的系统级优化 - 单一存储技术优化已难以满足系统需求,必须通过3D封装、芯粒集成等技术,将存储与计算单元紧密连接,实现存储靠近计算的架构重构[50] - 2.5D/3D先进封装通过硅中介层或硅桥将计算芯粒与高带宽内存(如HBM)封装在一起,创造带宽极高、距离极近的超级系统,以匹配AI加速器的巨大吞吐需求[54] - 台积电先进封装布局包括:CoWoS平台(将逻辑芯片和HBM集成在硅中介层上)和SoIC技术(允许芯片垂直3D堆叠,实现最短最密集互连)[58] - 高密度互连优势:缩短数据路径,降低数据移动能耗与延迟;提升带宽密度,3D堆叠的比特能效相比封装外铜互连提升60倍;模块化设计灵活适配不同场景,如AI内存带宽需求已达20.0TB/s[58] - 未来AI芯片可能通过3D堆叠将计算单元直接放置在高速缓存或存内计算单元之上,形成紧耦合异构集成体,并结合集成电压调节器、光子互连等技术[60] - 这要求芯片设计、存储器专家、封装工程师从架构设计之初就进行内存-计算协同优化,以突破存储墙与能效瓶颈[61] 行业未来图景与竞争关键 - AI计算正推动存储技术进入全维度创新时代,需应对“带宽墙”与“能效瓶颈”双重挑战[62] - 台积电的技术蓝图路径:以SRAM保障高速访问;以MRAM开拓新场景并填补非易失性存储空白;以DCiM实现存算一体突破能效瓶颈;最终以3D封装与芯粒集成实现系统级融合,重构存储与计算连接[62] - 对产业而言,竞争格局深化,领先企业不仅需掌握尖端制程工艺,更需在存储技术、先进封装和系统架构上构建全方位创新能力,技术的协同与融合成为破局关键[62]
突破“存储墙”,三路并进
半导体行业观察· 2025-12-31 09:40
文章核心观点 AI与高性能计算需求的爆发式增长正遭遇“存储墙”瓶颈,即存储带宽和性能的提升速度远落后于计算性能的增长,这严重制约了系统整体能效和算力释放[1][5]。为突破此瓶颈,行业需从单一器件优化转向材料、工艺、架构、封装的全链条协同创新[12]。台积电的技术蓝图指出,未来竞争将是内存子系统性能、能效与集成创新的综合较量,其演进路径围绕“存储-计算协同”展开,具体通过优化SRAM、发展MRAM与存内计算(DCiM)、并利用3D封装等技术实现计算-存储深度融合,以构建下一代硬件平台[1][8][12][50][59]。 AI算力增长与存储“带宽墙”挑战 - AI模型参数规模与计算量呈爆炸式增长,过去70年间机器学习模型的训练计算量增长超过10^18倍[2] - 计算性能与存储器带宽提升速度严重失衡,过去20年间硬件峰值浮点运算性能(HW FLOPS)增长60000倍(平均每2年3.0倍),而DRAM带宽仅增长100倍(平均每2年1.6倍),互连带宽仅增长30倍(平均每2年1.4倍),形成“带宽墙”[5] - 存储带宽成为限制计算吞吐量的主要瓶颈,以英伟达H100 GPU为例,其BF16精度峰值算力达989 TFLOPs,但峰值带宽仅3.35 TB/s,在运算强度不足时系统性能受存储限制[8] - AI与HPC对存储器提出三大核心需求:大容量、高带宽、低数据传输能耗[8] - 行业架构正从以计算为中心加速向以存储为中心转型,存储架构演进路径为:从传统片上缓存,到片上缓存+大容量封装内存储器,再到高带宽低能耗封装内存储器,最终实现存算一体与近存计算[8] 分层存储架构与全链条优化 - 现代计算系统采用分层存储架构以平衡速度、带宽、容量与功耗,从寄存器(延迟约1ns)、SRAM缓存(延迟约10ns)到HBM/DRAM主存,再到SSD等存储设备,性能与成本逐级权衡[10] - 应对挑战需材料、工艺、架构、封装的全链条协同优化,台积电基于层次结构优化各级嵌入式存储器:SRAM提升缓存层密度与能效;MRAM填补嵌入式非易失性存储器(eNVM)缺口;DCiM从架构层面优化能效比;3D封装与芯粒集成则提供系统级解决方案[12] SRAM:性能基石的技术演进与挑战 - SRAM是高速嵌入式存储器主力,具有低延迟、高带宽、低功耗、高可靠性优势,广泛应用于数据中心CPU、AI加速器、移动SoC等,工艺节点覆盖N28至N2[13] - SRAM面积缩放依赖关键工艺与设计突破:90nm引入应变硅;45nm采用高k金属栅;28nm推出FinFET、飞跨位线与双字线;7nm应用EUV光刻与金属耦合;2nm通过Nanosheet架构实现进一步缩放[14] - SRAM密度提升直接推动计算性能,例如L3缓存容量增加可显著提升CPU每周期指令数(IPC)[17] - 先进节点下面临三大挑战:面积缩放速度放缓;最小工作电压(VMIN)优化困难,影响读写稳定性与能效;互连损耗加剧(Cu线宽<20nm时电阻率快速上升),制约速度提升[17] - 设计层面通过3D堆叠V-Cache技术优化末级缓存,AMD Ryzen™ 7 5800X3D处理器集成最高96MB共享L3缓存,游戏性能显著提升[17][20] - 通过写辅助电路、读辅助电路、双轨SRAM等技术,将N3工艺SRAM的VMIN降低超过300mV;通过交错三金属层字线、飞跨位线等技术降低互连损耗[22] - 未来聚焦方向:在N2及更先进节点通过Nanosheet架构与设计-工艺协同优化(DTCO)提升密度与能效;与3D封装结合实现缓存容量跨越式增长;与存算一体架构协同,作为DCiM的核心存储单元[22] 存内计算(CIM)与DCiM的架构革命 - 传统AI加速器中超过90%的能耗可能用于存储与计算单元间的数据搬运,而非实际计算,数据移动成为制约能效的核心因素[23] - 存内计算(CIM)打破冯·诺依曼架构,将计算功能嵌入内存阵列,数据在原地或近旁处理,极大节省能耗和延迟[26] - 台积电认为数字存内计算(DCiM)相比模拟存内计算(ACiM)更具潜力,DCiM无精度损失、灵活性强、工艺兼容,能随节点演进持续提升性能,特别适用于边缘推理场景[28] - DCiM核心优势:灵活性高,可针对不同AI工作负载配置计算位宽;计算密度高,从22nm到3nm,其能效(TOPS/W)和计算密度(TOPS/mm²)实现数量级飞跃;精度灵活与能效比高,支持INT8/12/16及FP16精度,精度损失<2.0%,INT8精度下能效比较传统架构提升约4倍[30] MRAM:非易失性嵌入式存储器的突破 - 传统嵌入式闪存(eFlash)在28nm以下工艺微缩困难,磁阻随机存取存储器(MRAM)凭借低待机功耗、高密度、非易失性、速度快、耐久性和工艺友好等优势,成为eNVM的理想替代方案,适用于汽车电子、边缘AI等新兴场景[35][38] - 在汽车电子领域,台积电N16 FinFET嵌入式MRAM技术满足严苛要求:100万次循环耐久性、支持焊料回流、150℃下20年数据保持能力,支撑软件定义汽车的OTA更新等功能[41] - 在边缘AI领域,MRAM支持TinyML等紧凑AI架构,仅需2-4MB容量存储模型权重,同时支持安全OTA更新,匹配边缘设备对低容量、高能效与可靠性的需求[41] - MRAM存在短板:单位容量成本高于DRAM与NAND;高温度下数据保持能力需优化;强磁场环境(如强永磁体N52)下需保持9mm安全距离,抗干扰能力需特殊设计[42] - 台积电通过技术优化提升MRAM可靠性:采用数据擦洗(Data Scrubbing)技术结合ECC纠错,在125℃下控制位错误率(BER);优化MTJ结构与布局以抗磁性干扰;针对NVM与RAM不同应用场景差异化调整参数[43][46] - 台积电已将N16 eMRAM技术成功推向市场,特别是在汽车领域,并正向更先进节点迈进[50] 计算-存储融合与3D封装的系统级优化 - 单一存储技术优化已难以满足系统需求,必须通过3D封装、芯粒集成等技术实现存储靠近计算的架构重构,需求包括更高带宽密度、更低单位比特能耗、更短延迟、更高互连密度[50] - 2.5D/3D先进封装(如通过硅中介层或硅桥)将计算芯粒与高带宽内存(如HBM)集成,创造带宽极高、距离极近的超级系统,使内存带宽匹配AI加速器的巨大吞吐需求[52] - 高密度互连优势:缩短数据路径,降低移动能耗与延迟;提升带宽密度,3D堆叠的比特能效相比封装外铜互连提升60倍;模块化设计灵活适配不同场景,AI内存带宽需求已达20.0TB/s,3D封装可高效支撑[56] - 未来AI芯片可能通过3D堆叠将计算单元直接放置在高速缓存或存内计算单元之上,形成紧耦合异构集成体,并集成电压调节器、光子互连等技术[58] - 需芯片设计、存储器、封装工程师早期紧密协作,通过内存-计算协同优化,实现能效和性能的阶跃式提升[58] - 台积电具体布局包括:CoWoS先进封装平台,将逻辑芯片和HBM集成在硅中介层上,实现高互连密度和带宽;SoIC 3D堆叠技术,允许芯片垂直堆叠,将数据移动能耗和延迟降至最低[59]
年终盘点|DeepSeek点燃AI热......一文看懂2025年A股热炒题材
新浪财经· 2025-12-29 21:45
2025年A股市场整体特征 - 市场在4月上旬经历快速向下调整后,迎来长达半年多的单边震荡向上主升行情,沪指于10月28日一度站上4000点整数关 [1][23] - 全年题材炒作呈现“政策驱动+事件催化+产业落地”三重逻辑交织、轮动加速、主线清晰但持续性缩短的特点 [1][23] - 全年炒作节奏快、热点密集,且高度集中于“新质生产力”相关方向 [1][23] AI硬件与算力产业链 - 2025年1月DeepSeek-R1模型训练核心成本仅约29.4万美元,颠覆了业界认为顶级模型需要“数千万美元”的逻辑,推动了国产AI软硬件生态协同加速 [3][25] - 国产算力芯片概念股迎来高潮,寒武纪自8月28日股价首次超越贵州茅台,12月上市的GPU龙头摩尔线程、沐曦股份上市首日单签分别盈利24.31万元、36.26万元,沐曦股份登顶A股史上最赚钱新股 [3][25] - 算力芯片概念股中,天普股份年内最高涨幅超1300%居首,东芯股份、芯原股份年内最高涨幅均超300% [3][25] - 2025年9月,英伟达与OpenAI宣布价值1000亿美元的合作,GPT-5及下一代多模态模型训练需数万颗H100 GPU [4][26] - 中际旭创、新易盛、天孚通信三大光模块巨头在内的算力硬件股从今年4月后全面爆发,其中新易盛从4月7日最低点起股价实现翻10倍 [4][26] - CPO概念股中,仕佳光子年内最大涨幅超570%,新易盛、中际旭创、源杰科技年内最大涨幅均超400% [4][26] 存储芯片 - 云端AI算力需求导致存储企业将主要资源投入HBM与DDR5,传统存储产品供应缺口扩大,价格显著上涨 [8][29] - DRAM与NAND Flash现货价格自9月至今均已累计上涨超过300%,CFM闪存市场预计2026年第一季度NAND价格还将上涨25%—30%,DRAM上涨30%—35% [8][29] - 存储芯片概念股中,香农芯创年内最大涨幅超600%,德明利、江波龙、诚邦股份、西测测试年内最大涨幅均超200% [8][29] 有色金属与大宗商品 - 美联储2024年底开启降息周期,美元走弱,推动以美元计价的大宗商品价格持续上行,全球央行购金浪潮刺激贵金属市场 [10][31] - 黄金年内涨幅突破70%,白银飙升超170%,铂金、钯金亦刷新历史高点 [10][31] - AI算力基建、电网升级、储能、人形机器人等新兴产业需求带动铜、铝、锂、钴、镍等工业、能源金属需求激增,伦铜主力合约年内涨超40%,沪铜主力合约一度突破10万元/吨,均创历史新高 [10][31] - 有色金属板块中,招金黄金、兴业银锡、中钨高新、藏格矿业、盛屯矿业、西部黄金、洛阳钼业年内最大涨幅均超200% [10][31] 商业航天 - 政府工作报告中商业航天被提及两次,“十五五”规划建议明确将航空航天列为需加快发展的战略性新兴产业集群 [12][33] - 12月以来,朱雀三号、长征十二号、快舟十一号等火箭接连成功发射,海外方面,马斯克旗下SpaceX正加速推进IPO计划,目标估值约1.5万亿美元,有望成为史上最大规模IPO [12][33] - 商业航天概念在第四季度迎来井喷行情,航天发展从11月14日至12月5日录得16天10板,顺灏股份从11月28日至12月12日走出11天8板,西部材料从12月5日至12月19日录得11天6板 [12][33] - 商业航天概念股中,顺灏股份、飞沃科技年内最大涨幅均超450%,超捷股份、斯瑞新材、天力复合年内最大涨幅均超300% [13][34] 储能与锂电池产业链 - 《新型储能规模化建设专项行动方案(2025-2027年)》提出,全国新增新型储能装机容量2027年底达到1.8亿千瓦以上 [15][36] - 美国数据中心电力供应短缺、欧洲电网不稳定和现货峰谷价差拉大均推动储能需求,东吴证券预计全球储能装机明年60%以上增长,未来三年复合30-50%增长 [15][36] - 储能电芯一货难求驱动排产持续上行,碳酸锂、六氟磷酸锂、VC、正极材料以及隔膜、负极轮番涨价,引爆储能、锂电池产业链 [15][36] - 锂电龙头宁德时代总市值一度突破1.8万亿元并超越贵州茅台,阳光电源、海博思创、海科新源、华盛锂电、大中矿业、中矿资源均创出历史新高 [15][36] - 储能概念股中,奕东电子、振华股份、震裕科技年内最大涨幅均超270% [15][36] - 锂电池概念股中,海科新源、华盛锂电年内最大涨幅超560%,天际股份年内最大涨幅超480% [15][36] 区域主题投资(福建、海南) - 福建发布“十五五”规划,提出支持厦门与金门、福州与马祖加快融合发展,加快平潭综合实验区开放发展,推进新一轮全岛封关运作 [17][40] - 福建板块行情火爆,平潭发展从10月17日至11月17日走出22天14板,九牧王、海欣食品分别走出过7连板和8天7板 [17][40] - 福建板块概念股中,海峡创新年内最大涨幅超500%,广生堂、平潭发展年内最大涨幅超400% [17][40] - 12月18日,海南自由贸易港全岛封关正式启动,标志着海南与全球市场互联互通水平提升 [17][40] - 海南板块概念股中,中钨高新、康芝药业、海马汽车年内最大涨幅超180% [17][40]
年终盘点|DeepSeek点燃AI热,贵金属引领周期逆袭,商业航天奏响年末最强音......一文看懂2025年A股热炒题材
新浪财经· 2025-12-29 17:39
2025年A股市场整体特征 - 全年市场在4月上旬经历快速向下调整后,迎来长达半年多的单边震荡向上主升行情,沪指于10月28日一度站上4000点整数关 [1] - 题材炒作呈现“政策驱动+事件催化+产业落地”三重逻辑交织、轮动加速、主线清晰但持续性缩短的特点 [1] - 全年炒作节奏快、热点密集,且高度集中于“新质生产力”相关方向 [1] AI硬件与算力产业链 - 2025年1月DeepSeek-R1模型训练核心成本仅约29.4万美元,颠覆了业界顶级模型需要“数千万美元”的逻辑,推动国产算力软硬件生态协同加速 [3] - 国产算力芯片概念股迎来高潮,寒武纪自8月28日股价首次超越贵州茅台,GPU龙头摩尔线程、沐曦股份上市首日单签分别盈利24.31万元、36.26万元,沐曦股份登顶A股史上最赚钱新股 [3] - 算力芯片概念股天普股份年内最高涨幅超1300%居首,东芯股份、芯原股份年内最高涨幅均超300% [3] - 2025年9月,英伟达与OpenAI宣布价值1000亿美元的合作,GPT-5及下一代多模态模型训练需数万颗H100 GPU [4] - 光模块(CPO)概念股从4月后全面爆发,新易盛从4月7日最低点起股价实现翻10倍 [5] - CPO概念股仕佳光子年内最大涨幅超570%,新易盛、中际旭创、源杰科技年内最大涨幅均超400% [5] 存储芯片 - 云端AI算力需求导致传统存储产品供应缺口急剧扩大,价格显著上涨,DRAM与NAND Flash现货价格9月至今均已累计上涨超过300% [9] - CFM闪存市场预计,2026年第一季度NAND价格还将上涨25%—30%,DRAM则上涨30%—35% [9] - 国内存储芯片概念在8月份起加速向上,香农芯创年内最大涨幅超600%,德明利、江波龙、诚邦股份、西测测试年内最大涨幅均超200% [9] 大宗商品与有色金属 - 美联储降息周期推动以美元计价的大宗商品价格上行,全球央行购金浪潮刺激贵金属市场迎来牛市,黄金年内涨幅突破70%,白银飙升超170%,铂金、钯金亦刷新历史高点 [11] - AI算力基建、电网升级等新兴产业需求带动工业金属需求激增,伦铜主力合约年内涨超40%,沪铜主力合约一度突破10万元/吨,均创历史新高 [11] - 有色板块全年涨势火爆,招金黄金、兴业银锡、中钨高新、藏格矿业、盛屯矿业、西部黄金、洛阳钼业年内最大涨幅均超200% [11] 商业航天 - 商业航天在“十五五”规划建议中被明确列为需加快发展的战略性新兴产业集群,12月以来朱雀三号、长征十二号、快舟十一号等火箭接连成功发射 [13] - 海外方面,马斯克旗下SpaceX正加速推进IPO计划,目标估值约1.5万亿美元,有望成为史上最大规模IPO [13] - 商业航天概念在第四季度迎来井喷行情,航天发展从11月14日至12月5日录得16天10板,顺灏股份从11月28日至12月12日走出11天8板,西部材料从12月5日至12月19日录得11天6板 [13] - 商业航天概念股顺灏股份、飞沃科技年内最大涨幅均超450%,超捷股份、斯瑞新材、天力复合年内最大涨幅均超300% [13] 储能与锂电产业链 - 《新型储能规模化建设专项行动方案(2025-2027年)》提出,全国新增新型储能装机容量2027年底达到1.8亿千瓦以上 [15] - 东吴证券预计全球储能装机明年60%以上增长,未来三年复合30-50%增长 [15] - 储能需求超预期带动产业链排产上行,碳酸锂、六氟磷酸锂等材料轮番涨价,锂电龙头宁德时代总市值一度突破1.8万亿元并超越贵州茅台 [15] - 储能概念股奕东电子、振华股份、震裕科技年内最大涨幅均超270% [15] - 锂电池概念股海科新源、华盛锂电年内最大涨幅超560%,天际股份年内最大涨幅超480% [15] 区域主题投资 - 福建发布“十五五”规划,提出支持厦门与金门、福州与马祖加快融合发展,推进平潭综合实验区开放发展 [18] - 10月中旬起福建板块开启火爆行情,平潭发展从10月17日至11月17日走出22天14板,九牧王、海欣食品分别走出过7连板和8天7板 [18] - 福建板块海峡创新年内最大涨幅超500%,广生堂、平潭发展年内最大涨幅超400% [18] - 12月18日,海南自由贸易港全岛封关正式启动,标志着海南与全球市场互联互通水平大力提升 [18] - 海南自贸概念在封关消息落地后走出先抑后扬行情,中钨高新、康芝药业、海马汽车年内最大涨幅超180% [18]