Workflow
MTIA
icon
搜索文档
通信周观点:台积电资本开支锚定上限,光芯片与硅光迎密集扩产-20260423
长江证券· 2026-04-23 18:13
行业投资评级 - 投资评级为“看好”,并维持此评级 [10] 报告核心观点 - 通信板块市场表现强劲 2026年第15周上涨8.23%,年初至今上涨29.60%,在长江一级行业中均排名第一 [2][4] - 台积电26Q1业绩创新高 资本开支计划接近规划上限,先进封装产能极度紧张,印证AI算力需求高涨 [2][5] - 产业链核心环节密集扩产 从光芯片、硅光到先进封装,产业投资火热,反映AI集群对低功耗、高密度光互连的迫切需求 [2][7] - 算力高景气持续验证 云巨头深化自研算力合作,将深度拉动高速光连接等增量需求 [2][6] 板块行情总结 - **市场表现**:2026年第15周,通信板块上涨8.23%,在长江一级行业中排名第1位;2026年年初以来,通信板块上涨29.60%,在长江一级行业中排名第1位 [4] - **个股表现**:通信板块内市值在80亿元以上的公司中,本周涨幅前三分别为鼎通科技(+27.90%)、剑桥科技(+24.99%)、中贝通信(+21.75%);跌幅前三分别为长江通信(-6.84%)、恒宝股份(-6.75%)、烽火通信(-5.97%)[4] 核心产业动态总结 - **台积电业绩与资本开支**: - 26Q1实现营业收入11341.0亿新台币,同比+35.1%,环比+8.4%;归母净利润5724.8亿新台币,同比+58.1%,环比+13.2% [5] - 盈利能力创新高,26Q1毛利率达66.2%,环比+3.9个百分点;净利率50.5%,环比+2.1个百分点 [5] - 高性能计算(HPC)业务收入占比跃升至61%,26Q1环比增长约20%,成为主要增长引擎 [5] - 公司上调全年营收指引至增长30%以上,并将2026年资本支出锚定在520亿至560亿美元区间的上限 [5] - 先进封装(CoWoS)产能极度紧张,公司正加速全球3nm产能扩张 [5] - **云巨头合作与自研算力**: - 博通宣布与Meta延长合作至2029年,为Meta自研芯片MTIA提供技术支持 [6] - MTIA首批部署规划超过1吉瓦(GW),远期向数吉瓦扩展 [6] - 博通还将提供涵盖交换机、光互联在内的以太网网络解决方案 [6] - **光通信产业链扩产**: - **仕佳光子**:拟投资12.65亿元扩充高速光芯片与器件产能,建设周期2年 [7] - **Credo**:拟斥资超7.5亿美元收购硅光PIC厂商DustPhotonics,整合其1.6T、3.2T硅光芯片技术 [7] - Credo预计完成收购后,FY2027光业务营收将超5亿美元 [7] 投资建议总结 报告推荐了多个细分领域的公司 [8]: - **运营商**:推荐中国移动、中国电信、中国联通 - **光模块**:推荐中际旭创、新易盛、天孚通信、仕佳光子、华懋科技、嘉元科技,关注太辰光、源杰科技 - **液冷**:推荐英维克 - **光纤光缆**:推荐烽火通信、亨通光电、中天科技,关注长飞光纤 - **国产算力**:推荐润泽科技、光环新网、奥飞数据、华丰科技、光迅科技、中兴通讯、紫光股份 - **AI应用**:推荐博实结、和而泰、拓邦股份、移远通信、美格智能、广和通 - **卫星应用**:推荐华测导航、海格通信、灿勤科技
Broadcom Inc. (AVGO): Nancy Pelosi Is Trading This Chip Stock
Yahoo Finance· 2026-04-21 22:49AI 处理中...
公司业务与市场地位 - 公司设计、开发并全球供应各类半导体设备和基础设施软件解决方案[1] - 公司产品线包括网络连接解决方案 如定制硅解决方案、以太网交换与路由、以太网NIC控制器、物理层设备和光纤组件[1] - 公司产品线还包括无线设备连接解决方案 如RF半导体器件、连接解决方案和定制触摸控制器[1] - 公司在人工智能竞赛中变得与竞争对手英伟达同等重要 因企业焦点从购买现成GPU转向构建专有AI芯片[2] - 公司是谷歌TPU、Meta MTIA以及OpenAI新定制芯片的主要设计合作伙伴[2] - 公司的人工智能订单积压超过730亿美元[2] - 公司近期披露来自Anthropic的订单 预计到2027年将达到3吉瓦的产能 这为公司的长期收入预测增加了数十亿美元[2] 交易与投资 - 南希·佩洛西在去年的一份财务披露报告显示 其行使了200份看涨期权 这些期权于2024年6月以80美元的行权价购买[1] - 该笔交易的价值在100万美元至500万美元之间[1] - 博通对VMware的收购为投资者提供了所渴望的稳定性[2]
Meta Platforms Taps AVGO for AI Expansion: Buy or Hold META Stock?
ZACKS· 2026-04-18 01:36
核心合作与战略 - Meta Platforms与Broadcom扩大合作,共同开发多代定制AI芯片,以支持其平台上的AI应用,合作涵盖芯片设计、封装和网络技术,以支持大规模AI工作负载[1] - Broadcom将提供其XPU平台和先进网络技术,帮助Meta构建高性能AI基础设施,合作初期部署将超过1吉瓦的计算能力,并计划逐步扩展至多吉瓦规模[1] - Meta Platforms与Arm合作开发新型CPU,以支持增长的AI工作负载和通用计算,首代产品在每机架性能上远超传统CPU[8][9] - Meta Platforms与AMD的合作涉及使用后者的定制MI450芯片、第六代EPYC CPU,并运行在ROCm软件和AMD Helios机架规模架构上[9] - Meta Platforms与NVIDIA合作,支持其优化用于AI训练和推理以及核心业务的数据中心建设[10] AI整合与用户参与度 - Meta Platforms将AI深度整合至Facebook、WhatsApp、Instagram、Messenger和Threads平台,这推动了用户和广告商的参与度,其AI高度依赖于数据,而公司拥有超过35.8亿的日活用户数据宝库[3] - AI推荐系统通过提供更高质量和更相关的内容来提升用户参与度,公司预计在2026年提升其底层媒体生成模型的能力并推出新功能,以增强产品体验[4] - 专注于扩展Meta AI的个性化功能,有助于公司理解用户兴趣和偏好,并识别平台上的最相关内容,公司已开始向广告商测试Meta AI商业助手,以帮助完成如广告活动优化和账户支持等任务[4] - 在Instagram上,由于排名优化和改进的内容推荐,Reels观看时长同比增长超过30%,Facebook视频观看时长实现两位数增长,自然信息流和视频帖子的观看量因排名改进提升了7%[5] - Threads因推荐增强,用户使用时长增加了20%,Meta Platforms还推出了支持九种语言的AI视频配音功能,增加了用户在Instagram上的使用时长[5] 产品与商业化进展 - WhatsApp是Meta Platforms极具价值的资产,在2025年第四季度,其扩展了付费消息功能,年化收入运行率突破20亿美元,并推出了商业AI工具,每周促成超过100万次用户与企业间的对话[6] - WhatsApp的新功能,包括更智能的存储管理、跨平台聊天转移、iOS双账号、AI照片编辑、贴纸建议和增强的AI写作辅助,预计将改善用户体验[6] - Meta Platforms计划利用其超级智能实验室开发的模型,提供有吸引力且差异化的AI产品,公司认为Threads和WhatsApp Status在长期内拥有强大的广告供应机会管道[7] - Threads信息流中的广告现已全球上线,公司计划在增加供应前优化广告格式和性能,公司已扩展其Andromeda广告检索引擎,使其现在可以在NVIDIA、AMD和MTIA芯片上运行[7] 基础设施与能源 - Meta Platforms的数据中心对于为其所有平台的用户带来个人超级智能和更好的应用体验至关重要,这些数据中心消耗大量电力[10] - 公司现已转向核能以满足电力需求,并与Vistra、TerraPower和Oklo签署了长期核电协议,计划到2035年供应高达6.6吉瓦的核电[10] 财务表现与估值 - Meta Platforms股价年初至今上涨2.5%,表现逊于Zacks计算机与技术行业整体4.3%的涨幅[11] - 公司股票估值偏高,其价值评分仅为C,基于未来12个月市销率,公司交易倍数为6.52倍,高于行业平均的6.38倍[14] - 公司预计2026年资本支出在1150亿至1350亿美元之间,激进的支出以及预计在1620亿至1690亿美元之间的2026年运营费用,预计将在短期内损害盈利前景[16] - Zacks对2026年每股收益的一致预期为29.78美元,过去30天下调了0.05美元,但暗示较2025年报告的数据增长26.78%[17] - 公司预计在未来几年将大幅增加投资,以开发更先进的模型和全球最大的AI服务,这对已持有股票的投资者而言是利好[18]
科技巨头集体押注自研芯,AI芯片战场正加速向推理端迁移
硬AI· 2026-04-08 16:00
文章核心观点 - 生成式AI的普及正推动AI芯片市场的核心战场从模型训练阶段向推理阶段发生结构性迁移 这一转变将深刻影响基础设施投资逻辑 商业模式以及半导体供应链的长期走向 [4] - AI算力投资的价值重心正在发生位移 训练芯片代表一次性资本开支 而推理芯片则对应持续性的收入消耗模型 AI正从技术工具演变为按量计费的算力引擎 [2][4] 训练与推理的算力需求差异 - 训练阶段需要对海量数据集进行前向与反向传播 持续更新模型权重 涉及极大规模的矩阵运算 通常需要在多GPU或TPU集群上进行数周乃至数月的分布式计算 训练芯片需具备高密度计算核心 大容量高带宽内存以及多芯片横向扩展能力 [7] - 推理阶段仅需前向传播 无需梯度更新 所需算力通常比训练低一个数量级 但其挑战在于三重约束——低延迟 高吞吐 低成本 这决定了推理芯片在架构设计上必须走向差异化路径 如能效优先 数据移动优化等 [7] 行业竞争格局变化 - 推理需求的激增已有明确信号 OpenAI的GPU资源因吉卜力风格图像生成等应用而全面饱和 GPT-4.5因此不得不分阶段发布 初期仅向付费用户开放 Meta等AI头部企业同样面临算力瓶颈 [4] - 越来越多的企业选择绕开英伟达在训练GPU市场的正面竞争 转而构建专为推理优化的定制芯片 超大规模云厂商如谷歌 亚马逊 Meta均已布局 初创企业如Groq Tenstorrent Cerebras SambaNova等也在寻求差异化突破 [10] - 随着AI从简单问答向智能体系统演进 推理需求将不仅持续增长 更将加速扩张 智能体系统对低延迟 高内存带宽和持续算力的要求 将进一步推动推理专用芯片的战略价值提升 [10] 英伟达的战略转型 - 英伟达正主动扩张其在推理市场的布局 其最新架构Blackwell的核心设计目标是在提升吞吐量的同时降低每个token的生成成本 旨在驱动AI经济的指数级增长 [13] - 在系统层面 英伟达通过NVL72等大规模紧密集成GPU集群 构建能够处理更长上下文窗口 更复杂推理任务和多步骤AI工作流的“AI工厂”架构 [13] - 英伟达正将自身从芯片供应商转型为全栈AI基础设施提供商 其从CUDA到TensorRT-LLM及推理优化软件栈构成了强大的生态系统 微软 甲骨文 CoreWeave等云服务商持续向这一架构靠拢 [13] 结构性转变的深远影响 - 在商业模式层面 AI的经济逻辑正在发生根本性重构 训练对应资本开支 推理对应持续性收入 算力正从技术指标直接与营收挂钩 GPU正从硬件设备演变为token生成机器 [15] - 在供应链层面 后训练时代技术的广泛应用 如微调 LoRA 适配器等 以及动态提示结构调整 多模型协作等推理增强手段 正在大幅提升对推理算力的依赖程度 推动NPU ASIC FPGA等多元化推理硬件需求快速扩张 [15] - OpenAI正自主研发AI芯片 目标是在2026年前后实现量产 以降低对英伟达的依赖 其与微软联合推进的“星际之门”超级数据中心项目 据报道涉及高达5000亿美元的投资规模 [4] - AI芯片竞争的核心命题正在发生根本转变 从“谁能训练最大的模型” 转向“谁能以最高效率在规模化场景中运行模型” [13]
理想这次入选的ISCA Industry Track门槛真挺高的
理想TOP2· 2026-03-30 16:31
文章核心观点 - 理想汽车即将发布的M100芯片相关论文入选ISCA Industry Track,这比在ICCV等主流AI顶会发表论文更具含金量,因为ISCA Industry Track录取标准严苛,强调工业界主导和真实量产成果,是衡量芯片研发实力的硬门槛 [1] ISCA Industry Track 会议价值与门槛 - ISCA Industry Track自2020年起设立独立评审委员会,每年仅录取4至6篇论文,要求第一作者必须来自工业界,且研究成果必须是真实量产或准量产成果,门槛极高 [1] - 相比之下,ICCV等主流AI顶会每年录用论文数量达两三千篇,对于理想这类体量的公司,在头部会议Main Track发表多篇论文是“认真做就能做到的事” [1] - 理想M100芯片的论文预计将在2026年4月上传至arXiv,其Camera-Ready版本截止日期为2026年5月9日 [1] 历年ISCA Industry Track入选论文分析 - **IBM**:多次入选,成果涵盖处理器数据压缩加速器、高频分支预测器及AI增强的能效提升,均应用于POWER9、z15、POWER10等企业级处理器,显著降低了存储成本并提升了大型机处理效率 [3][4] - **三星**:入选论文涉及移动SoC CPU微架构演进、稀疏感知可重构NPU架构以及基于商用DRAM的存内计算技术,提升了移动端SoC的单核性能与AI能效,并尝试商业化突破“存储墙” [3][4] - **AMD**:其关于Chiplet技术的论文解析了EPYC和Ryzen处理器家族的设计,这项技术改变了半导体行业,使Chiplet成为高性能芯片设计的主流 [4] - **谷歌**:分享了TPUv4i的关键设计教训,被广泛引用为AI芯片设计指南;TPU v4论文介绍了采用光重构技术的超算系统,奠定了其在大模型时代的算力领先地位 [4][8] - **阿里巴巴**:推出了高性能64位RISC-V处理器玄铁910,是RISC-V生态的里程碑;另有关基于FPGA的云端安全任务卸载系统Fidas,提升了云基础设施的安全性与性能 [3][6] - **Meta**:入选论文数量多且迭代快,涵盖针对推荐系统的自研AI推理芯片MTIA及其第二代MTIA v2、大规模推荐模型训练的软硬件协同设计、Llama 3训练的扩展经验以及数据中心性能基准测试套件DCPerf,展现了其快速进入并深耕自研芯片领域的能力 [6][8][10] - **英伟达**:介绍了其PTX内存一致性模型的混合代理扩展,为GPU编程提供了更精细的内存控制能力 [6] - **DeepSeek**:其论文深入解析了DeepSeek-V3大模型的训练挑战及对AI硬件架构的思考,展现了国产大模型的全球影响力,并为行业提供了稀疏激活架构的深度实践 [10]
AI芯片荒:当算力成为比电力更稀缺的资源
傅里叶的猫· 2026-03-14 10:04
文章核心观点 - AI产业已进入“硅片短缺时代”,核心瓶颈从前两年的电力、CoWoS先进封装,转移至**台积电的3nm前端晶圆产能**和**高带宽内存(HBM)供应**,这一状态预计将持续到2027年[1][26][37] - 在算力稀缺的背景下,**供应链掌控能力**变得与技术能力同等重要,甚至更为关键,能够获取最多硅片的公司将在AI军备竞赛中占据优势[33][34][38] - AI芯片需求的爆发式增长正在**挤压消费电子**(如手机、PC)的先进制程与内存产能,引发“位重新分配”,可能导致消费电子产品更新放缓或价格上涨[23][37][38] 行业瓶颈分析:从封装到晶圆与内存 - **CoWoS封装紧张但非最大瓶颈**:台积电已将前端晶圆限制纳入CoWoS产能规划,且存在日月光、Amkor等外包选项以及英特尔EMIB等替代方案,因此封装已非死结[24][25][26] - **台积电3nm(N3)晶圆产能成为核心瓶颈**:2024年起,几乎所有主流AI芯片(NVIDIA Rubin、AMD MI350X、Google TPU v7、AWS Trainium3等)均转向3nm制程,导致需求激增,但台积电容积开支滞后,产能扩张严重跟不上[8][9][27] - **AI芯片将挤占绝大部分3nm产能**:预计2025年AI相关芯片将占据台积电近**60%** 的3nm产能,2026年这一比例将飙升至**86%**,手机和PC处理器等传统需求将被挤出[11] - **高带宽内存(HBM)成为另一关键瓶颈**:HBM消耗的晶圆产能是普通DDR内存的**3到4倍**,且随着AI芯片内存容量代际大幅提升(如NVIDIA Rubin Ultra的HBM容量较Blackwell增加**50%**,再到Rubin Ultra翻**4倍**),供应压力加剧[17][18] - **服务器DRAM需求强劲,与HBM形成产能竞争**:云计算服务器更新周期及AI工作负载推动DDR需求,其价格上涨导致利润率接近HBM,削弱了内存厂商将产能转向HBM的动力[20][21][22] 主要参与者的战略与格局 - **台积电成为“造王者”**:其3nm产能分配直接决定各AI芯片厂商的出货能力与市场竞争力,AI客户因其芯片价值高、需求长期稳定且支付意愿强而获得优先权[12][13] - **NVIDIA是供应链战争的最大赢家**:通过提前锁定逻辑晶圆、内存等关键组件供应,甚至帮助客户争取更优的DRAM价格,建立了强大的供应链护城河[33] - **云服务商加速自研ASIC以争夺产能**:AWS、Google等大力投资自研芯片(如TPU、Trainium),不仅为性能优化,更是为了绕过NVIDIA,直接从台积电获取产能,增强供应链话语权[35][37] - **定制ASIC与GPU的竞争态势**:在算力稀缺时代,获取硅片的能力比技术路线优劣更重要,因此尽管定制ASIC在特定负载上可能更高效,但拥有强大供应链的NVIDIA仍占据优势[33][34] 市场需求与产能影响的具体数据 - **AI需求增长迅猛**:Anthropic仅在**2025年2月单月**就新增了**60亿美元**的年度经常性收入,凸显了算力需求的爆炸性增长[4] - **消费电子需求疲软可能释放产能**:若手机需求下滑,释放出的N3晶圆产能可转产AI芯片。例如,转移**5%** 的手机芯片N3晶圆(约**22,000片**)可多生产约**10万片** NVIDIA Rubin GPU或**30万片** Google TPU v7[14] - **内存产能的重新分配**:若消费电子需求暴跌**50%**,可释放约**55,390百万Gb**的DRAM产能,相当于2026年总需求的**14%**;即使需求削减**25%**,也能释放约**27,690百万Gb**(占总需求**7%**),几乎是2025年HBM需求的**80%**[23] - **数据中心与芯片产能增长脱节**:数据中心和电力设施的扩张速度已超过AI算力增长,形成了“有电没芯片”的局面,凸显了晶圆厂建设周期长、投资大(动辄上百亿美元)的刚性约束[29][31][32] 对产业链各环节的影响 - **对AI公司**:供应链管理能力至关重要,缺乏算力获取能力将限制其技术落地,例如Anthropic需依赖Google和AWS的ASIC算力[37] - **对云服务商**:是获取产能、扩大服务的机遇,拥有自研芯片能力者更具优势[37] - **对消费电子厂商**:面临芯片成本上升或供应不足的挑战,可能导致产品更新周期延长或价格上涨,智能手机需求预计出现**低两位数**的同比下滑[23][37] - **对内存厂商**:三星、SK海力士、美光等HBM供应商将拥有更强的定价权,2027年的HBM价格谈判可能大幅涨价[22][40] - **对台积电竞争对手**:三星、英特尔等若能在先进制程上缩小差距,有望在当前极度紧张的供应状况下获得市场机会[40]
Inside Meta's AI chip lab
Youtube· 2026-03-11 22:35
公司自研AI芯片战略 - 公司在加州弗里蒙特设有芯片实验室,专注于开发下一代MTIA(Meta训练与推理加速器),旨在为内部工作负载构建最高效的架构 [1] - 公司计划在未来两年内推出四代新的MTIA芯片,应用场景从排名和推荐扩展到大规模生成式AI推理 [2] - MTIA 300芯片已投入生产,用于支持排名和推荐训练 [2] - MTIA 400芯片正在向部署阶段推进,将扩展到更广泛的AI工作负载,包括生成式AI [3] - 未来的450和500版本将进一步深入生成式AI推理,计划于2027年部署 [3] 芯片开发进展与挑战 - 芯片开发进度并未完全达到公司管理层最初的期望 [3] - 公司通过收购和尝试收购来加强内部芯片人才储备,以加速进展 [3] - AI模型的进化速度超过了传统的芯片周期,因此公司正在加快设计流程,旨在提升大规模应用时的性能、成本效益和能效 [4] 混合计算采购策略 - 公司在与领先的芯片制造商达成重大供应协议,以确保数千兆瓦(gigawatts)级的AI计算能力 [4] - 公司的战略是,一方面从英伟达和AMD大规模采购计算资源,另一方面在自身工作负载具有独特性的领域使用自研芯片 [4]
【招商电子】博通(AVGO.O)26Q1跟踪报告:六大XPU客户业务势头强劲,27年AI芯片收入将超千亿美元
招商电子· 2026-03-06 22:33
博通FY2026Q1业绩核心观点 - 公司FY2026Q1营收创历史新高,达193.11亿美元,同比增长29%,主要由AI半导体业务驱动,预计增长势头将加速 [2] - 公司对FY2026Q2及未来业绩给出强劲指引,预计Q2营收达220亿美元,同比增长47%,并预计2027年仅来自AI芯片的营收就将远超1000亿美元 [3][4][5] FY2026Q1业绩表现总结 - 总营收为193.11亿美元,创历史单季新高,同比增长29%,环比增长7%,略超此前指引(约191亿美元)[2] - 毛利率为76.99%,同比下降2.11个百分点,环比下降0.94个百分点,符合此前76.9%的指引 [2] - 调整后EBITDA为131亿美元,占营收的68%,高于此前67%的预期 [2] - 半导体部门营收125.15亿美元,同比增长52%,环比增长13%,占总营收65% [3] - 基础设施软件部门营收67.96亿美元,同比增长1%,环比下降2%,占总营收35% [3] - 自由现金流为80亿美元,占营收的41% [16] - 公司向股东派发31亿美元现金股息,并回购了价值78亿美元的普通股,合计返还股东109亿美元 [16] AI半导体业务表现与展望 - AI半导体业务营收84亿美元,同比增长106%,远超此前预期 [3] - AI网络营收同比增长60%,占AI总营收的三分之一,预计Q2将增长至总AI营收的40% [3][11] - 预计FY26Q2 AI业务营收将达107亿美元,同比增长140% [3][10] - 公司为六家主要客户(谷歌、Meta、Anthropic、OpenAI等)定制AI XPU,预计2027年仅来自AI芯片的营收就将远超1000亿美元 [5][12] - 公司已确保到2028年的关键供应链产能,以支持增长 [5] - 预计2027年AI芯片总交付量将接近10吉瓦(GW)[5][19] 半导体部门细分分析 - **AI业务**:营收84亿美元,同比增长106% [3] - **非AI业务**:营收41亿美元,同比持平,企业网络、宽带服务及存储收入的增长被无线业务季节性下滑所抵消 [3] - **毛利率**:约为68% [3] - **运营利润率**:为60%,同比提升2.6个百分点 [3] - **Q2指引**:半导体部门总营收预计148亿美元,同比增长76%,其中AI业务107亿美元,非AI业务41亿美元(同比增长约4%)[3][16] 基础设施软件部门表现 - 营收67.96亿美元,同比增长1%,环比下降2% [3] - 毛利率为93%,运营利润率为78%,同比提升1.9个百分点 [3] - 本季度订单量持续强劲,总合同价值超过92亿美元 [3] - 年度经常性收入(ARR)同比增长19% [3] - VMware表现突出,营收同比增长13% [14] - Q2营收指引为72亿美元,同比增长9%,环比增长6% [3][16] 网络业务与技术优势 - AI网络需求正在加速增长,Q1营收同比增长60% [3][11] - 在Scale Out(横向扩展)方面,公司率先上市的100Tbps Tomahawk 6交换机及200G 30s产品需求加大,下一代Tomahawk 7性能将实现翻倍 [5][12] - 在Scale Up(纵向扩展)方面,公司凭借200G DAC(直连铜缆)方案具备独特优势,能让客户继续使用DAC,因其时延、功耗和成本最低 [5][20] - 公司已有可跑400G且能保证传输距离的铜缆方案 [5][21] - 公司是CPO(共封装光学)技术的领先者,但预计今明两年都不会大规模应用 [5][21] - 以太网已成为横向扩展的事实标准,并正成为纵向扩展的正确技术选择 [22] 客户与项目进展详情 - **谷歌**:TPUv7需求强劲,预计2027年及以后下一代TPU需求会更强劲 [5][10] - **Anthropic**:2026年已启动1吉瓦TPU算力部署,2027年需求预计激增至超过3吉瓦 [5][10] - **Meta**:MTIA路线图进展顺利并已开始出货,下一代XPU将在2027年及以后扩大到多个吉瓦规模 [5][10] - **第四和第五个客户**:2026年出货量强劲,预计2027年将实现翻倍以上增长 [5][10] - **OpenAI(第六个客户)**:预计将在2027年大规模部署第一代XPU,算力规模超过1吉瓦 [5][10] - 公司与这六家客户是深度、战略性、多年期的合作,已完全锁定了2026年至2028年关键组件的产能 [11][19] 财务状况与资本配置 - 营业利润创历史新高,达128亿美元,同比增长31% [15] - 营业利润率为66.4%,同比提升50个基点 [15] - 库存金额为30亿美元,库存周转天数为68天,高于上季度的58天,反映了为AI业务增长进行的战略储备 [16] - 截至Q1末,公司持有现金142亿美元 [16] - 董事会已批准追加100亿美元用于股票回购计划,有效期至2026年底 [16] - 预计2026财年非GAAP税率约为16.5% [16] 管理层对竞争与市场趋势的看法 - 公司认为完全自主创建定制芯片(COT)挑战巨大,博通在技术、IP、量产良率和快速推向市场能力上遥遥领先,COT领域在未来多年内很难出现真正的竞争对手 [17] - AI网络组件增速甚至超过了XPU,预计其在总AI营收中的占比将维持在33%到40%之间 [18] - 定制AI XPU的设计针对特定工作负载(如LLM),能够灵活区分训练和推理,性能、成本和功耗优于通用GPU [17][23] - 大多数客户正朝着同时开发训练和推理芯片的方向发展,业务的可见度越来越高 [23] - 关于机架业务对毛利率的影响,公司认为担忧过度,影响并不显著 [18]
Counterpoint:博通(AVGO.US)将领跑AI ASIC设计市场,预计2027年市占率达60%
智通财经网· 2026-01-28 15:10
行业趋势与市场预测 - 人工智能服务器运算ASIC的出货量预计将在2027年增长两倍 [1] - 到2028年,AI服务器运算ASIC的出货量将超过1500万颗,超过数据中心GPU的出货量 [2] - 排名前十的AI超大规模数据中心运营商在2024年至2028年期间累计部署的AI服务器运算ASIC芯片将超过4000万颗 [2] - 市场正进入内部定制XPU时代,AI加速器针对特定训练或推理工作负载量身定制,不再仅仅依赖通用GPU [2] 主要参与者与市场份额动态 - 博通预计在2027年继续保持其在AI服务器运算ASIC设计合作伙伴领域的领先地位,市场份额将达到60% [1][3] - 到2027年,Alchip预计占据超大规模数据中心ASIC设计服务合作伙伴市场份额的18% [3] - 谷歌在2024年主导AI服务器运算ASIC出货量,市场份额为64%,但预计到2027年将下降至52% [3] - 亚马逊在2024年市场份额为36%,预计到2027年将下降至29% [3] - 迈威尔科技在ASIC设计服务市场的份额预计将从12%下降至8% [3] - 台积电在AI服务器运算ASIC出货量排名前十的公司中占据了近99%的晶圆制造份额 [2] 增长驱动因素 - 谷歌、亚马逊、苹果、微软、字节跳动和OpenAI加速部署用于训练和推理工作负载的芯片是增长主要驱动力 [1] - 具体需求包括对谷歌TPU基础设施的需求(支持Gemini项目)、亚马逊Trainium集群的持续扩展,以及Meta的MTIA和微软的Maia芯片的产能提升 [1] - 超大规模数据中心运营商基于自身技术栈构建了规模庞大的机架级AI基础设施,如谷歌的TPU Pod和AWS的Trainium UltraCluster,使其能够像超级计算机一样运行 [2] 竞争格局与战略动向 - 市场格局正迅速多元化,随着Meta、微软和其他公司进入该领域,谷歌和亚马逊的主导地位将减弱 [3] - 超大规模数据中心正逐渐摆脱对英伟达的过度依赖,转而寻求自研定制芯片以满足部分计算需求 [3] - 迈威尔科技的端到端定制芯片产品组合因定制硅创新技术(如定制的HBM/SRAM存储器和PIVR解决方案)及对Celestial AI的收购而更加稳固 [4] - 对Celestial AI的收购不仅每年能为迈威尔科技带来数十亿美元的收入增长,还有可能在未来几年内推动其在光规模化连接领域占据领先地位 [4]
Broadcom Set To Dominate Custom AI Chip Market With 60% Share By 2027, Counterpoint Says
Benzinga· 2026-01-28 01:26
行业趋势:超大规模企业加速部署定制AI芯片 - 领先的云与AI提供商,包括谷歌、亚马逊AWS、微软、OpenAI、字节跳动和苹果,正在迅速扩大基于专用集成电路(ASIC)的AI服务器计算系统的部署,以处理专门的训练和推理工作负载 [1] - 定制AI芯片的竞赛正在加速,超大规模企业正在扩大内部芯片规模以满足激增的需求 [1] - 行业结构正在转变,AI服务器计算ASIC的出货量正从2024年由谷歌和AWS主导的集中双头垄断格局,转向2027年更多元化的格局 [5] - 这反映了超大规模企业更广泛的战略,即减少对商用GPU的依赖,并通过针对特定工作负载定制的芯片来优化每瓦性能 [5] 市场增长预测 - Counterpoint Research预测,2024年至2027年间,前10大超大规模企业的AI服务器计算ASIC出货量将增长两倍(即增至三倍) [2] - 这一增长由以下因素推动:支持Gemini的谷歌张量处理单元(TPU)基础设施需求激增、AWS Trainium集群的持续扩展,以及Meta的MTIA和微软的Maia芯片在构建内部芯片组合过程中的批量上量 [2] 主要参与者与竞争格局 - 博通预计将保持其顶级AI服务器计算ASIC设计合作伙伴的地位,尽管面临来自日益壮大的谷歌-联发科联盟的竞争,但其在2027年的市场份额仍将保持在约60% [3] - 与此同时,迈威尔科技面临设计订单压力,尽管同期出货量将翻倍,但其设计服务份额预计到2027年将下滑至约8% [3] - 谷歌的TPU舰队将继续锚定行业出货量,因为训练和服务下一代Gemini模型的计算需求推动了持续的内部芯片投资 [4] - 随着总可寻址市场的扩大和竞争对手扩大自身芯片规模,谷歌的市场份额可能会有所缓解,但TPU仍将是AI服务器计算ASIC部署的核心支柱 [4] - Meta和微软正在加速内部芯片计划,预计将对市场做出有意义的贡献 [5] 制造环节 - 台积电继续主导制造环节,是首选的代工厂,在前10大玩家的AI服务器计算ASIC的几乎所有前端和大部分后端生产的晶圆制造中占据主导地位 [6]