英伟达AI GPU
搜索文档
微软(MSFT.US)新一代自研AI芯片“Maia 200”出鞘! 推理狂潮席卷全球 属于AI ASIC的黄金时代到来
智通财经网· 2026-01-27 08:34
微软推出自研AI芯片Maia 200 - 微软重磅推出第二代自研AI芯片Maia 200,旨在为云端AI训练/推理提供更高能效比与性价比的算力,作为英伟达AI GPU的替代方案 [1] - 该芯片由台积电采用3nm先进制程制造,每颗芯片包含超过1400亿个晶体管 [5] - Maia 200专为大规模AI推理定制,在FP4精度下提供超过10 petaFLOPS算力,在FP8精度下提供超过5 petaFLOPS性能,功耗为750瓦 [5] - 芯片配备216GB、带宽达7TB/s的HBM3e内存,以及272MB片上SRAM,系统层面支持在6144个加速器集群中提供高性能集合操作 [6] Maia 200的性能与定位 - 微软官方称Maia 200为“所有超大规模云计算服务商中性能最强的自研内部专属AI芯片” [3] - 在多项测试中,其性能超越亚马逊第三代Trainium和谷歌第七代TPU [3] - 该芯片每美元性能比微软当前最新一代硬件提升30% [5] - 在FP4精度下的整体推理性能是亚马逊第三代Trainium的3倍,FP8性能超过谷歌第七代TPU [5] - 微软将其定位为“显著改善AI token generation的经济性”,并强调performance per dollar [10] 行业趋势:云计算巨头转向自研AI ASIC - 生成式AI热潮加速了亚马逊、谷歌、微软等云计算巨头开发内部专属AI ASIC芯片的进程 [2] - 经济性与电力约束是推动这一趋势的核心原因,巨头们旨在打造更具性价比与能效比的AI算力集群 [9] - 自研AI ASIC能提供“第二曲线产能”,帮助云厂商在采购谈判、产品定价与服务毛利层面更主动,并降低总体拥有成本 [10] - 芯片设计公司如博通、迈威尔、联发科正聚焦于与云巨头合作开发定制化AI ASIC,该业务已成为其重要增长点 [2] 市场竞争格局 - 云计算“三巨头”(亚马逊AWS、谷歌GCP、微软Azure)均在推进自研AI芯片,目标相似:打造高成本效益、无缝接入数据中心的算力基础设施 [4] - 英伟达AI GPU的高成本与持续供给短缺,推动了市场寻找更廉价且高效的替代算力来源 [4] - 谷歌最新的TPU v7 (Ironwood) 展现代际跨越,其BF16算力达4614 TFLOPS,是上一代TPU v5p(459 TFLOPS)的约10倍 [11] - 针对特定应用,AI ASIC架构更具性价比与能效比优势,例如谷歌TPU集群能提供比英伟达Blackwell高出1.4倍的每美元性能 [11] - 英伟达与AI芯片初创公司Groq达成200亿美元非独家授权合作,以维持其在AI芯片领域约90%的市场份额主导权 [13] 产品部署与未来规划 - Maia 200正陆续进入微软位于爱荷华州的数据中心,下一步大规模部署将转向凤凰城地区 [1] - 首批芯片设备将提供给微软的超级智能团队,用于改进下一代AI大模型,并为Copilot AI助手及托管型AI推理服务提供算力支撑 [3] - 微软已向开发者、学术界和前沿AI实验室开放Maia 200软件开发工具包的预览版,并计划未来向更多客户开放云端租用 [5] - 微软已在着手设计下一代AI芯片Maia 300 [8] - 根据与OpenAI的协议,微软可以获取后者的独家自研AI芯片设计方案作为备选 [8] 市场需求与行业前景 - 谷歌Gemini3 AI应用生态发布后带来庞大AI token处理量,导致算力需求激增,验证了AI算力基础设施仍处于供不应求的早期建设阶段 [12] - 摩根士丹利研报显示,谷歌TPU AI芯片的实际产量预期被大幅上修,2027年和2028年预计分别达到500万和700万块,较此前预期分别上调67%和120% [13] - 报告测算,谷歌若对外销售TPU,每50万片有望带来130亿美元的额外营收及0.40美元的每股收益 [13] - 随着AI推理需求猛增,更具性价比优势的AI ASIC预计将迈入比2023-2025年期间更强劲的需求扩张轨迹 [11]
?AI推理狂潮席卷全球 “英伟达挑战者”Cerebras来势汹汹! 估值狂飙170%至220亿美元
智通财经· 2026-01-14 11:27
公司融资与估值动态 - AI芯片供应商Cerebras Systems Inc正在商讨进行一轮约10亿美元的新融资以支持其与英伟达的长期竞争[1] - 此轮融资前估值定为220亿美元较去年9月融资时的估值大幅扩张170%[1] - 该公司仍计划积极推进在美股的首次公开募股[1] - 另一家AI芯片初创公司Etched在新一轮融资中筹集了约5亿美元估值达到约50亿美元[6] 市场竞争格局 - 英伟达在人工智能芯片领域占据高达90%的市场份额[2][4][7] - Cerebras Systems被视为英伟达在AI芯片领域最强劲的竞争对手之一尤其是在AI推理这一快速增长的细分市场[5] - 谷歌TPU AI算力集群给英伟达带来越来越大的竞争压力[4] - 英伟达通过与非独家授权方Groq达成200亿美元协议并吸纳其团队以及通过AI21 Labs来巩固其AI全栈话语权[4][9][10] 公司技术与产品 - Cerebras Systems采用“晶圆级引擎”架构将整个AI模型放在单个超大芯片上极大提升了推理性能和内存带宽[5] - 其最新的CS-3系统在运行Llama 3 70B推理任务时比英伟达Blackwell架构的B200 AI GPU系统快约21倍同时总体成本和能耗更低[7] - 第三方分析指出在某些模型推理中Cerebras的速度可以达到比GPU快20倍或更多[7] - 该公司的晶圆级架构在处理大型语言模型推理任务时可以实现比传统AI GPU/AI ASIC更强劲的性能密度和能效比例[5][8] - 谷歌最新的TPU v7的BF16算力高达4614 TFLOPS而上一代TPU v5p为459 TFLOPS实现了数量级提升[9] - 谷歌TPU v7针对特定AI应用场景能提供比英伟达Blackwell高出1.4倍的每美元性能[9] 市场趋势与需求 - 超大规模AI推理需求正呈现每六个月翻一番的极速增长趋势[9] - AI推理侧更看重单位token成本、延迟与能效[8] - 当AI推理算力体系成为长期现金成本中心客户更愿意选择更具性价比的AI ASIC加速器例如OpenAI通过谷歌云平台大规模租用TPU以降低推理成本[8] 客户与合作伙伴 - Cerebras Systems向Meta Platforms Inc、IBM以及Mistral AI等大型客户提供远程人工智能计算服务[3] - 该公司在很大程度上依赖总部位于阿布扎比的人工智能公司G42的业务这一深度合作关系已引起美国外国投资委员会的审查[6]
AI推理狂潮席卷全球 “英伟达挑战者”Cerebras来势汹汹! 估值狂飙170%至220亿美元
智通财经网· 2026-01-14 10:40
公司融资与估值动态 - Cerebras Systems Inc 正在商讨进行一轮约10亿美元的新融资 以支持其与英伟达的长期竞争 [1] - 此轮融资前估值定为220亿美元 较去年9月约81亿美元的估值大幅扩张170% [1][2] - 公司仍计划积极推进在美国的首次公开募股 [1] 公司技术路线与产品性能 - Cerebras Systems 采用“晶圆级引擎”架构 将整个AI模型放在单个超大芯片上 极大提升了推理性能和内存带宽 [4] - 其最新的 CS‑3 系统在运行 Llama 3 70B 推理任务时 比英伟达 Blackwell 架构的 B200 AI GPU 系统快约21倍 同时总体成本和能耗更低 [6] - 该架构在处理大型语言模型推理任务时 可实现比传统AI GPU/AI ASIC更强劲的性能密度和能效比 在某些模型推理中速度可以达到比GPU快20倍或更多 [4][6] 市场竞争格局 - 英伟达在人工智能芯片领域占据高达90%的市场份额 [1][3] - 除Cerebras外 另一家初创公司Etched在新融资中筹集了约5亿美元 估值达到约50亿美元 [5] - 谷歌最新的TPU v7 在特定AI应用场景下 能提供比英伟达Blackwell高出1.4倍的每美元性能 [11] 行业发展趋势与竞争动态 - AI推理需求正呈现每六个月翻一番的极速增长趋势 [11] - 英伟达与AI芯片初创公司Groq达成了一项200亿美元的非独家授权合作协议 以获得其AI推理技术 交易完成后Groq创始人及核心研发团队将加入英伟达 [3][12] - 谷歌明确把其最新TPU代际Ironwood定位为“为AI推理时代而生” 强调性能、能效与性价比 [10] 公司业务与客户 - Cerebras Systems 向Meta Platforms Inc、IBM以及Mistral AI等大型客户提供远程人工智能计算服务 [2] - 公司在很大程度上依赖总部位于阿布扎比的人工智能公司G42的业务 这一深度合作关系已引起美国外国投资委员会的审查 [5] 技术路线对比 - Cerebras的晶圆级架构优势显著于特定推理场景 在通用计算任务部署、AI训练算子以及CUDA生态兼容性方面 英伟达仍具备很大优势 [7] - 英伟达通过“多架构AI算力+巩固CUDA生态+引进更多AI芯片设计人才”来维持其市场主导权 [3] - 谷歌TPU属于AI ASIC技术路线 OpenAI通过谷歌云平台大规模租用TPU的核心动机之一是降低AI推理成本 [10]
A推理狂潮来袭 英伟达全力迎战TPU! 拿下Groq核心团队后瞄准AI21 Labs
美股IPO· 2025-12-31 08:37
英伟达潜在收购AI21 Labs的战略意图 - 公司正在就以20亿美元至30亿美元收购以色列人工智能公司AI21 Labs进行深入谈判 [1] - 此次收购旨在与近期达成的200亿美元Groq技术授权及人才引进协议形成协同,共同巩固公司在AI全栈领域的话语权 [3] - 若交易成功,公司将通过整合AI21 Labs的大语言模型开发及企业级生成式AI应用能力,将客户更深地锁定在自身的软件、平台及生态系统内,而不仅仅是作为GPU供应商 [11] 目标公司AI21 Labs概况 - AI21 Labs是一家专注于开发大语言模型并帮助企业构建定制化生成式AI应用的以色列初创公司,由Mobileye联合创始人Amnon Shashua于2017年共同创立 [3] - 该公司在2023年由英伟达和谷歌领投的一轮融资后,估值约为14亿美元 [4] - 公司拥有约200名员工,其中许多人拥有高等理工科学位和丰富的AI应用开发经验,英伟达可能更看重其顶尖人才的综合技能 [4] 英伟达在以色列的收购与布局 - 公司近年来积极收购以色列顶级科技公司,包括2023年12月以约7亿美元收购Run:ai,同年收购Deci,以及2019年以69亿美元收购Mellanox [5] - Mellanox的高速互连技术是英伟达当前主导的InfiniBand及Spectrum-X高性能网络架构的基础 [5] - 公司正在以色列Kiryat Tivon建设大型研发中心,办公空间达160,000平方米,预计2031年投入使用,首席执行官黄仁勋曾称以色列为公司的“第二故乡” [5][6] 行业竞争格局:AI推理浪潮与谷歌TPU的挑战 - 行业竞争焦点正从训练最强模型转向以最低成本、最低延迟规模化部署模型,即“AI推理大浪潮” [7][10] - 谷歌专门为AI推理设计的TPU v7 (Ironwood) 展现出代际跨越,其BF16算力高达4614 TFLOPS,是上一代TPU v5p(459 TFLOPS)的十倍 [9] - 针对特定AI应用,谷歌TPU能提供比英伟达Blackwell架构GPU高出1.4倍的每美元性能,在成本、能效和可扩展性上构成竞争压力 [8][9] - 谷歌通过推进TorchTPU等软件生态,降低开发者使用门槛,正削弱英伟达CUDA生态的护城河优势 [9] 英伟达的战略回应:多元化与生态绑定 - 为应对推理浪潮和竞争压力,公司采取“多架构AI算力+巩固CUDA生态+引进人才”的组合策略,以维持其在AI芯片领域约80%的市场份额 [3] - 通过Groq交易获得推理专用芯片技术(如使用片上SRAM降低数据搬运瓶颈)及核心团队,直指推理阶段的成本与延迟痛点 [10] - 超大规模AI推理需求正以每六个月翻一番的速度增长,公司通过收购AI21 Labs补强软件与模型侧能力,属于“硬件技术路线多元化 + AI应用生态端到端绑定”的防守/反击策略 [10][11]
AI大浪潮之下,“主权AI”进程如火如荼! 马斯克旗下xAI成为沙特数据中心首位客户
智通财经网· 2025-11-20 09:25
沙特AI数据中心项目 - 沙特阿拉伯正在建设的大型AI数据中心将配备至少60万颗英伟达高性能AI芯片,主要以Blackwell/Blackwell Ultra架构AI GPU算力集群为主 [1] - 特斯拉CEO埃隆·马斯克旗下的xAI将成为该数据中心的首位大型客户 [1] - 该项目是此前5月合作的延伸,当时英伟达承诺向沙特的Humain数据中心提供耗电量达500兆瓦的AI芯片算力集群 [1][2] - 该项目隶属于沙特主权财富基金支持的AI初创公司Humain,是“主权AI系统”的典范 [2] 英伟达的业务与市场战略 - 英伟达下一季度营收展望超预期,第三财季总营收同比激增62%至570亿美元,数据中心业务部门营收达512亿美元,同比增长66%,环比增长25% [4] - 公司高管多次强调“主权AI”概念,指出各国政府为保护国家安全和文化,对主权级超大规模AI数据中心的需求激增 [3] - 除超大规模云服务商外,英伟达正将业务多元化至主权AI领域,印度、日本、法国和加拿大等国均有意投资主权人工智能系统 [3] - 最新一代Blackwell架构AI GPU销量远超预期,云端GPU已售罄,AI训练和推理的计算需求呈指数级增长 [4][5] 合作与竞争格局 - 沙特Humain数据中心项目除使用英伟达芯片外,还将大规模采购AMD和高通的AI芯片及软硬件协同系统 [1][6] - AMD预计到2030年向Humain提供可能高达1吉瓦电力功率的AI芯片算力集群,包括其下一代Instinct MI450 AI GPU集群 [6] - MI450采用台积电2nm制程,显存带宽从MI300X的5.3 TB/s大幅跃升至19.6 TB/s,显存容量从192GB升至432GB [7] - 高通将向Humain销售其新推出的AI200及AI250数据中心高性能AI芯片,部署规模约200兆瓦,重点面向高能效AI推理 [7][8] 行业趋势与技术发展 - “主权AI”趋势意味着在少数超大规模云厂商之外,各国政府对AI硬件的需求将开辟一个极为庞大的新市场 [3] - AMD的MI450和高通的AI200/AI250均强调通过先进架构(如near-memory compute)降低AI数据中心的总拥有成本(TCO) [7][8] - 高通的AI200/AI250是机架级方案,单卡最高支持768GB LPDDR,目标对标谷歌TPU,属于AI专用加速器(ASIC)技术路线 [8]
AI投资狂潮再起? 逢低买盘正在用真金白银守护“AI牛市叙事”
智通财经· 2025-11-10 22:35
华尔街机构对AI驱动科技股牛市的观点 - Wedbush预测纳斯达克100指数在今年剩余时间还有10%左右的上行空间 [1] - 高盛、摩根士丹利和瑞银等华尔街巨头驳斥AI泡沫理论,认为AI驱动的牛市曲线远未完结 [1] - 花旗集团表示短期市场疲软在预期之内,人工智能基本面叙事依然完好,创造逢低买入机遇 [6] AI泡沫论调与市场短期回调 - 上周Palantir Technologies交出远超预期的爆炸性增长数据,但股价第二天大幅回落,凸显市场对AI泡沫和估值的担忧 [2] - Palantir波动型股票出现10%以上的下跌幅度被视为资金布局的最佳机遇 [2] - 空头关于AI泡沫的论调升级,包括对英伟达在中国市场营收的担忧以及Michael Burry做空英伟达与Palantir [2] 科技股财报与AI长期牛市叙事 - 第三季度全球科技股财报最重要的结论是微软、亚马逊和Alphabet旗下谷歌的强劲云计算业务营收数据 [3] - Meta Platforms和其他科技中坚势力针对2026年大幅提升AI关联资本支出 [3] - 财报强调与生成式AI和AI智能体关联的算力需求激增,AI创收前景愈发积极 [3] AI支出浪潮与资本开支预测 - Wedbush预计大型科技公司整体资本开支可能从2023年约3800亿美元大幅升至2026年的接近5500亿美元至6000亿美元 [4] - Palantir被视为企业端AI应用场景的最佳需求晴雨表,其美国商业业务增长大幅超出华尔街预期 [4] - Snowflake和MongoDB的强劲业绩体现企业及政府组织加速推进AI投资与部署计划 [4] 华尔街机构对AI泡沫的具体分析 - 高盛将当前AI支出狂潮和科技股估值飙升比作20世纪90年代末科技热潮的早期阶段,而非投机性顶峰 [7] - 高盛指出当前AI相关投资热潮与1997年至1998年的科技股投资热潮更为相似,属于基础设施建设阶段 [7] - 摩根士丹利指出有明确迹象显示AI驱动下的美国企业盈利正在显著复苏,美国公司享有更强劲的定价能力 [7] AI算力产业链与个股表现 - 英伟达、台积电和美光等AI算力产业链领军者延续反攻之势 [6] - 花旗集团点名英伟达以及半导体ETF标的(PSI、SMH、SOXX、XSD)为AI贝塔逢低买入的重大投资机遇 [6] - 亚马逊被重点提及为AI技术的超级赋能者,其AWS近期公布强劲云计算营收,并与OpenAI签订为期七年、金额高达380亿美元的AI算力协议 [6]
韩国这是要举国之力“All in AI”? 李在明首次预算演讲彰显“AI融万物”宏图
智通财经网· 2025-11-04 12:40
韩国政府AI战略 - 韩国总统李在明将人工智能置于其经济愿景的最核心位置,誓言通过AI投资全面改造国家核心产业链、公共服务和军工国防 [1] - 韩国政府计划在2026年预算中将AI投资规模增加到10.1万亿韩元(约70亿美元),约为目前水平的三倍多,作为728万亿韩元整体预算提案的重要部分 [2] - 国防预算将提高8.2%至66.3万亿韩元,重点升级常规武器和引入"AI+军事"超级智能系统,使军工国防支出达到国内生产总值的2.4% [3] 韩国财阀与英伟达合作 - 三星、现代汽车等韩国财阀巨头将联手英伟达斥巨资打造"AI工厂",以支撑韩国国内天量级AI训练/推理工作负载 [1] - 英伟达宣布分别与三星电子、SK集团及现代汽车集团合作,将供应超过26万颗高性能AI GPU以启动韩国庞大的AI基建项目 [4] - 英伟达与三星合作的AI工厂将搭载超过5万块GPU,双方正就下一代高带宽内存芯片HBM4的供应进行密切商讨 [5] 具体合作项目细节 - 英伟达与SK集团联合建设的AI工厂将配备超过5万块AI加速芯片,首期工程计划于2027年底竣工,通过算力集群即服务模式为集团子公司及外部机构提供支持 [5] - 英伟达与现代汽车集团将基于Blackwell架构部署5万块AI GPU,共同开发自动驾驶汽车、智能工厂与机器人技术 [6] - 三星与英伟达的合作标志着智能计算与芯片制造全面融合,双方拥有长达25年的联盟关系,为AI变革奠定基石 [5] 市场影响与行业展望 - 韩国两大存储芯片巨头SK海力士、三星以及AI算力领军者股价狂飙并频繁创下新高,带动韩国综合股价指数KOSPI在今年屡创新高,10月单月涨幅超过20%,创2001年来最佳单月表现 [1] - 英伟达CEO黄仁勋提出"2025-2026年累计5000亿美元数据中心业务营收可见度",推动公司总市值突破并站稳5万亿美元,成为全球首个达到此市值的公司 [4] - AI被视为人形机器人、自动驾驶汽车、半导体和物流等关键技术领域未来竞争力的基础,目标是培育"物理AI"能力并推进在生物科技、公共卫生等领域的广泛应用 [2]
特斯拉(TSLA.US)AI5芯片采用台积电+三星双线代工 剑指FSD车端高效AI推理
智通财经网· 2025-10-23 11:58
特斯拉AI芯片代工策略 - 特斯拉AI5芯片的初始生产将采用台积电与三星双代工模式,由台积电亚利桑那州工厂和三星得克萨斯州工厂共同承担制造任务 [1][2] - 此双代工策略旨在锁定产能与保障供应链安全,公司计划在起步阶段即为AI5芯片实现过量供给 [2] - 与此前计划由台积电独家生产相比,策略发生重大转变,三星在特斯拉芯片制造中的合作角色变得更为重要 [1][2] 特斯拉AI芯片技术特点 - AI5是一款专为车端实时推理设计的专用AI芯片,并非传统GPU架构,其设计删除了图像信号处理模块以提升效率 [1][4][5] - 通过专注于矩阵/注意力单元、片上SRAM等对大模型推理关键的部分,该芯片旨在实现优于传统技术的性能/功耗比和更低时延 [4][5][6] - AI5芯片的性能预计将达到前代AI4芯片的40倍 [4] 行业竞争格局与未来合作 - 台积电在芯片代工行业占据主导地位,凭借先进制程、高良率和封装技术长期获得全球绝大多数先进制程订单 [3] - 三星在先进制程良率和代工规模上仍落后于台积电,但正通过在美国奥斯汀加大投资以提升竞争力 [2] - 对于下一代AI6芯片,特斯拉已与三星签署价值165亿美元的合作协议,计划由三星完全代工,标志着三星代工业务的一次重大胜利 [4]
LPU推理引擎获资金认可! 正面硬刚英伟达的Groq估值猛增 一年内几乎翻倍
智通财经· 2025-09-18 12:07
融资与估值 - 公司近期完成新一轮融资,筹集75亿美元,融资后估值约为690亿美元 [1] - 最新融资额高于7月传闻的60亿美元,估值也高于当时传闻的近600亿美元 [1] - 公司在2024年8月曾以280亿美元估值融资64亿美元,最新估值在一年内翻了两倍多 [1] - 公司今年迄今累计融资规模已超过300亿美元,堪比Anthropic等AI超级独角兽 [1] 技术与产品定位 - 公司专注于开发LPU(语言处理单元),这是一种为AI大模型推理场景定制的AI ASIC,而非通用GPU [1][2] - 产品形态包括GroqCard、GroqNode和GroqRack,被明确归类为定制推理ASIC [1] - 产品可作为云计算算力服务提供,也可作为本地部署的硬件集群提供,能运行来自Meta、DeepSeek等公司的AI模型 [2] - 公司称其LPU产品在成本显著低于核心替代方案的情况下,能保持或提升AI大模型推理运行效率 [2] 市场地位与竞争格局 - 公司被视为英伟达在AI芯片领域的最大竞争对手之一,其所在市场规模可能仅次于博通与AMD [1] - 公司致力于打破英伟达对AI算力基础设施的强势控制,后者市场份额高达90% [2] - 在可标准化的主流推理任务上,定制化AI ASIC的单位吞吐成本和能耗显著优于纯GPU方案 [7] - 当前行业实践倾向于采用“ASIC扛常态化、GPU扛探索峰值”的混合架构来最小化总拥有成本 [7] 技术优势与性能 - LPU采用TSP(张量流式处理器)核心架构,以静态、可预测的流式数据通路替代传统GPU范式,强调低延迟和稳定时延 [5] - LPU芯片采用大容量片上SRAM(约220MB)和超高片上带宽(官方示例达80TB/s),大幅减少“算存”往返 [5][6] - 在低/零批量的LLM推理场景中,LPU相比AI GPU集群能提供更低的时延、更稳定的吞吐和潜在更高的能效 [5] - 有报道称LPU在等效推理任务上的功耗约为常见GPU的三分之一 [6] 创始人背景与行业趋势 - 公司创始人Jonathan Ross曾参与开发谷歌的TPU芯片,该类芯片是谷歌为高负载AI计算设计的专用处理器 [3] - 谷歌最新披露的Ironwood TPU(TPU v6)与TPU v5p相比,峰值FLOPS性能提升10倍,功效比提升56倍 [3] - 谷歌Ironwood的42TFLOPS/瓦功效比略低于英伟达B200/300 GPU的45TFLOPS/瓦,表明专用AI ASIC正快速缩小与领先AI GPU的性能差距 [4] - 摩根大通评论认为,这一趋势正推动超大规模云计算服务商加大对象具性价比的定制化ASIC项目的投资 [4] 客户与投资者 - 公司目前为超过200万名开发者的AI应用提供算力支持,一年前这一数字仅为约35万名 [4] - 新一轮融资由投资公司Disruptive领投,资管巨头BlackRock、Neuberger Berman、Deutsche Telekom Capital Partners等参投 [4] - 三星、思科、D1和Altimeter等现有投资者也参与了本轮融资 [4][5]
AI点燃的半导体“牛市叙事”再强化! 高盛预言“AI算力+先进封装+EDA”撑起最强主线
智通财经网· 2025-09-12 18:34
高盛对半导体行业的结构性牛市判断 - 高盛维持对半导体行业"AI驱动的结构性牛市"主线判断 在全球半导体行业中 与AI密切相关的基础设施最具长期"牛市叙事"确定性[1] - AI算力基础设施包括英伟达AI GPU 博通AI ASIC以及SK海力士 美光主导的HBM存储系统[1] - 半导体设备端聚焦HBM/先进封装与GAA/BPD工艺推升的中长期巨额增量领域 包括阿斯麦 应用材料以及泛林集团等领军者[1] 高盛看好的半导体细分领域 - EDA芯片设计软件以及芯片IP领域将受益于史无前例的AI基建浪潮[2] - 非AI领域与低端产能存在"消化期" 高盛对"高苹果权重的"模拟/RF供应链条保持谨慎立场[2] - 未来12个月首选半导体投资标的包括博通 应用材料和铿腾电子 建议规避ARM和Skyworks[3] AI算力需求与市场前景 - 生成式AI应用与AI智能体主导的推理端带来AI算力需求堪称"星辰大海" 有望推动人工智能算力基础设施市场持续呈现指数级别增长[2] - 全球持续井喷式扩张的AI算力需求 美国政府主导的AI基础设施投资项目愈发庞大 科技巨头不断斥巨资投入建设大型数据中心[3] - 以AI算力硬件为核心的全球人工智能基础设施投资浪潮规模有望高达2万亿美元[4] 博通的AI业务展望 - 博通与AI密切相关联的营收预计在未来两年内将超过软件和非AI业务营收的总和[5] - 博通管理层设定了到2030财年AI营收最高达到1200亿美元的目标 与CEO薪酬直接挂钩[5] - 这一展望与高盛对博通2025财年200亿美元AI营收的预测相比增长了整整五倍[6] AI芯片市场竞争格局 - 大型云计算服务商将主导定制化的AI ASIC芯片的应用 博通AI ASIC业务机遇主要来自现有的7家超大规模客户与潜在客户[6] - 广泛的企业级客户将可能继续使用英伟达AI GPU+CUDA生态[6] - AI ASIC与英伟达AI GPU属于两种截然不同技术路线 当前两者在很大程度上互为市场竞争对手[8] 半导体设备增长动力 - 应用材料表示HBM与先进封装制造设备将是中长期强劲增长向量 GAA/背面供电等新芯片制造节点设备将是驱动下一轮强劲增长的核心驱动力[6] - 先进封装制造设备业务线的营收翻倍路径仍然在轨 HBM设备领域市占仍在继续扩张[6] - 应用材料在HBM/先进封装领域提供混合键合技术/TSV/金属互连与封装薄膜等全流程解决方案[10] EDA软件行业发展 - 铿腾电子表示全球芯片设计规模持续强劲扩张 来自云计算/系统级公司的非传统计算客户开始贡献约45%营收[7] - EDA软件工具中的AI辅助工具采用与渗透率日益扩大 设计周期更快 效率更高[7] - 芯片设计R&D预算渗透率由7–8%上升至约11% 并仍有上行空间[7] 公司具体表现与前景 - 铿腾电子在模拟与混合信号 定制版图/版图驱动设计长期领先 并且在封装+PCB/系统仿真纵深更大[11] - 铿腾电子推出的JedAI数据与AI平台支撑一系列AI工具 如ChipGPT这一LLM助手概念验证已落地到客户PoC[11] - 寒武纪作为中国ASIC路线代表 今年以来涨幅高达95% 高盛将其12个月目标价从人民币1835元上调至2104元 上调幅度达14.7%[9][10]