英伟达与谷歌合作推动AI推理本地化与边缘化 - 英伟达与谷歌合作对Gemma 4开源模型进行GPU深度优化,使其可在RTX PC、DGX Spark、Jetson边缘设备高效运行,推动AI代理从云端走向本地[1][2] - Gemma 4家族包括E2B、E4B、26B和31B四种规模,覆盖边缘设备、移动端、工作站及高性能服务器全场景硬件[2] - Gemma 4原生支持函数调用、复杂推理和代码生成,可作为AI代理执行本地文件访问、应用程序控制和日常任务自动化,OpenClaw平台已兼容该模型[2] AI推理需求爆发与市场拐点 - 过去两年,AI推理需求增长了约100倍,计算量增长了1万倍[3] - 英伟达在GTC 2026上指出AI已进入推理时代,未来三年AI芯片市场规模有望突破1万亿美元[4] - 英伟达预测到2027年Blackwell与Vera Rubin产品线收入达1万亿美元,远超此前预期,增长驱动力来自推理[4] - Gemma 4的本地化部署将激活边缘推理市场,对服务器、光模块、铜连接、边缘计算硬件产生新的增量需求[3] LPU+GPU异构架构与光互联升级 - 英伟达收购Groq团队推出LPU,与GPU形成异构协同,使推理吞吐量每瓦提升35倍[6] - Groq 3 LPU预计2026Q3出货,LPX机架集成256个LPU,专为低延迟推理设计[6] - 异构架构对光互联带宽提出更高要求,直接拉动光模块、铜缆、CPO需求[6] - Vera Rubin Ultra NVL576及Kyber NVL1152将在Scale-up的L2层采用光互联,CPO/NPO/XPO多技术路线并行[6] - 2026年起Scale-up侧光互联以CPO/NPO形态开始渗透,光互联在AI集群的价值量占比将持续抬升[6] 光铜并行与光纤技术升级 - OFC 2026期间成立XPO MSA、OCI-MSA等多个多源协议组织,聚焦超大规模AI数据中心互连需求[7] - 行业共识为光铜“双轨制”:机柜内短距场景铜缆凭借低延时、低成本不可替代;机柜间光互联随带宽需求提升加速渗透[7] - 长飞在OFC展示单盘91.2km、衰减0.04dB/km的空芯光纤,可显著提升算力利用率、降低传输时延[7] - 康宁展示多芯光纤解决方案,将光纤容量提升数倍,安装时间缩短60%[7] - 北美数据中心对光纤需求大幅提振,国内厂商份额有望快速提升,光纤价格有望延续上行趋势[7][9] 通信硬件产业链迎来全栈式机遇 - AI推理从云端向边缘设备扩散,结合云端算力高景气,通信硬件迎来“云端+边缘”双轮驱动[9] - 北美五大CSP 2026年资本开支合计预计达7295亿美元,同比增速超60%[9] - 光模块、高速铜缆、光纤光缆作为算力基础设施核心部件,需求确定性强[9] - 边缘推理将带动边缘数据中心的光互联需求,以及端侧设备与云端之间的网络升级[9] - 国产供应链迎来机遇,北美数据中心光纤需求外溢至国内厂商,国内算力基建同步开启[9] 通信ETF作为AI算力投资工具 - 通信ETF国泰(515880)覆盖光模块、铜连接、光纤光缆等算力核心环节[1] - 该ETF超过45%的权重集中于光模块,算力核心环节合计占比超75%[11] - 通信ETF国泰(515880)2025年内涨幅125.81%,居全市场ETF第一名[11] - 截至2026/4/2,该ETF规模为143.64亿,在同类15只产品中排名第一[12]
英伟达联手谷歌优化Gemma 4,AI推理从云端走向本地,通信ETF(515880)大涨3%