英特尔(INTC)
搜索文档
AMD Plunges 11% Post Q4 Earnings: Buy, Sell or Hold the Stock?
ZACKS· 2026-02-11 01:00
核心观点 - 尽管AMD在2025年第四季度实现了强劲的营收和盈利增长,但由于对2026年第一季度的营收指引较为温和,股价在财报发布后下跌了11% [2] - 公司面临来自英伟达、博通和英特尔等公司的激烈竞争,且当前估值偏高,这些因素对近期前景构成压力 [5][10][18] - 公司正通过扩展AI产品组合和加强数据中心业务来推动长期增长,市场对其长期增长前景保持乐观 [13][15][17] 财务表现与指引 - 2025年第四季度非GAAP每股收益为1.53美元,同比增长40.4%,环比增长27.5%;营收为102.7亿美元,同比增长34.1%,环比增长11.1% [2] - 对2026年第一季度的营收指引为98亿美元(正负3亿美元),按指引中值计算,同比增长约32%,但环比下降约5% [3] - 环比营收下降主要归因于客户和游戏业务的季节性下滑以及嵌入式业务下滑,部分被数据中心业务的增长所抵消 [3] - 2026年第一季度的营收指引中包含了约1亿美元的对中国MI308销售额 [3] 竞争格局与市场表现 - AMD在AI数据中心、高性能计算和AI PC领域面临来自英伟达、博通和英特尔的激烈竞争 [5] - 过去一年AMD股价上涨了93.9%,表现优于Zacks计算机和科技板块23.5%的回报率,也优于博通46.7%和英伟达43.1%的同期回报,但落后于英特尔139.5%的涨幅 [5] - 英伟达正受益于其新一代Hopper和Blackwell GPU平台的强劲增长,博通则受益于其网络产品和定制AI加速器的强劲需求 [8] 估值水平 - AMD股票目前估值偏高,其价值评分为D级,表明估值处于高位 [10] - 该股以远期12个月市销率7.52倍交易,高于行业平均的6.54倍,存在溢价 [10] AI与数据中心战略及前景 - 公司在CES 2026上概述了“AI无处不在,面向所有人”的战略,推出了Helios机架级平台、Instinct MI400系列产品线以及用于AI PC的Ryzen AI 400和AI PRO 400系列处理器 [13] - 公司预计到2030年,数据中心总可寻址市场将达到1万亿美元,这意味着从2025年估计的约2000亿美元开始,年复合增长率超过40% [15] - 数据中心收入正受益于对Instinct MI350系列GPU部署的强劲需求,以及第四代和第五代EPYC芯片被广泛采用带来的服务器份额增长 [15] - 目前,十大AI公司中有八家使用Instinct来驱动越来越多用例的生产工作负载 [15] - 在2025年,超大规模云服务商推出了超过500个基于AMD的实例,使EPYC云实例数量同比增长超过50%,达到近1600个 [16] - 领先的服务器供应商现在提供超过3000种由第四代和第五代EPYC CPU驱动的解决方案,这些方案针对所有主要的企业工作负载进行了优化 [16] 盈利预测趋势 - Zacks对AMD 2026年营收的一致预期为452.1亿美元,表明较2025年报告数据增长30.5% [17] - 对2026年每股收益的一致预期为6.59美元,过去30天内上调了5.1%,表明较2025年报告数据增长58% [17]
4卡96GB显存暴力输出!英特尔锐炫Pro B60和长城世恒X-AIGC工作站评测
新浪财经· 2026-02-10 20:41
行业竞争格局 - 凭借CUDA生态护城河,NVIDIA在AI领域一度拥有定价权,但其绝对垄断地位正被打破 [1] - 硬件巨头Intel正快速向“全栈AI公司”转型,旨在打破NVIDIA的垄断 [1] 英特尔软件生态与战略 - 英特尔于2019年发布了oneAPI跨架构编程模型,旨在让一套代码可在CPU、GPU、NPU间通用,降低开发者迁移成本 [1][53] - oneAPI允许开发者通过其迁移工具(SYCLomatic)将原本仅能在NVIDIA CUDA环境下运行的代码快速转换到英特尔硬件上,为Arc系列显卡运行主流大模型打下软件基础 [4][55] 英特尔Arc Pro B60产品规格 - 该产品基于第二代Xe2架构(Battlemage),采用完整的BMG-G21 GPU核心,拥有20个Xe2核心、2560个FP32单元、20个光追单元和160个XXM AI引擎 [6][57] - 每颗BMG-G21 GPU可提供12.28 TFLOPS的FP32浮点性能以及197 TOPS的INT8 AI性能 [8][59] - 显卡配备192bit位宽、19Gbps GDDR6显存,显存带宽高达456GB/s,显存容量为24GB [9][59] - 与更贵的NVIDIA RTX Pro 2000相比,英特尔Arc Pro B60的显存容量和显存带宽均高出50% [9][59] - NVIDIA同等显存规格的AI加速卡,售价往往是Arc Pro B60的3至4倍 [9][51][59] 高性价比AI推理解决方案 - 随着DeepSeek等大规模MoE模型爆发,英特尔Arc Pro B60成为目前市面上构建96GB(4卡)到192GB(8卡)超大显存池最具性价比的方案 [9][59] - 对于想要组建高性能本地LLM推理站的企业而言,售价约5000元的Arc Pro B60 24GB是更具性价比的选择 [50][98] - 该产品能让用户以入门级NVIDIA显卡的价钱,获得接近旗舰级NVIDIA显卡的显存容量和推理性能 [52][100] 大模型推理性能测试 (GPT-OSS-120B) - 测试平台为长城世恒X-AIGC工作站,搭载4张英特尔Arc Pro B60 24GB显卡,共计96GB显存 [11][61] - 测试模型为OpenAI开源的千亿级参数模型GPT-OSS-120B(总参数1170亿),使用MXFP4量化压缩 [27][76] - 在并发数为1的测试中,请求成功率为100%,系统运行非常稳定 [30][79] - 并发数为1时,首字延迟(TTFT)均值仅为91.37毫秒,显示预填充阶段爆发力极强 [31][80] - 并发数为1时,平均逐词延迟(ITL)为32.01毫秒,输出吞吐量为184 tokens/秒 [32][81] - 当并发数从1增至10时,系统吞吐量呈指数级增长,从184 tokens/秒飙升至613 tokens/秒 [36][85] - 并发数达到60后,吞吐量达701 tokens/秒,基本达到系统极限,请求数增至100后总吞吐量仅增加约1% [36][85] - 高负载下,计算核心填充更满,单步推理效率因批处理效应略微提升,ITL在并发数超过30后随并发增加轻微下降 [38][87] - 根据工作站约700 tokens/秒的极限性能计算,可承受约70个用户同时请求,按1:15活跃比估算,可支持约1000人同时在线聊天 [40][89] 大模型推理性能测试 (Llama-3.1-8B) 及对比 - 与同价位的NVIDIA RTX Pro 2000 16GB相比,Arc Pro B60 24GB展现出碾压性优势 [46][95] - 同样是4卡并行运算(Llama-3.1-8B-Instruct FP8),4张Arc Pro B60 24GB比4张RTX Pro 2000 16GB性能强约50% [46][49][95][98] - 在并发数为100的高负载下,凭借96GB大显存,英特尔方案吞吐量达2110 tokens/秒,而同等价位的NVIDIA方案仅为1279 tokens/秒,英特尔领先幅度超过65% [49][98] - 96GB显存意味着可本地运行参数量更大的模型,如千亿参数的GPT-OSS-120B、LLaMA-3-130B,而4张RTX Pro 2000 16GB合计64GB显存相对尴尬,仅能运行700亿参数模型,面对千亿级模型需极致量化压缩且无法支持训练和微调 [46][47][95][96]
联发科投奔英特尔1.4nm!
国芯网· 2026-02-10 20:25
英特尔代工业务进展 - 媒体报道联发科天玑系列芯片将交由英特尔代工,预计将采用英特尔14A工艺 [2] - 苹果已初步敲定使用英特尔18A工艺,并可能将18A-P工艺用于入门级M系列芯片,最快2027年出货 [2][4] - 苹果预计在2028年推出的定制化ASIC将采用英特尔的EMIB封装技术,目前已签署保密协议并获取18A-P工艺的PDK样本用于评估 [4] 英特尔先进制程技术特点 - 英特尔的18A-P工艺是其首个支持Foveros Direct 3D混合键合技术的节点,该技术允许通过硅通孔实现多个芯粒的堆叠 [4] - 英特尔决定在18A和14A节点上全力押注背面供电技术,该决策能显著提升性能,但也会带来严重的自发热效应 [4] 潜在合作的技术挑战 - 将英特尔的14A工艺应用于联发科天玑系列等移动芯片面临挑战,主要原因是背面供电技术带来的自发热效应 [4] - 由于手机内部空间极其有限,自发热效应对于移动端SoC是一项严峻挑战,可能需要额外的散热措施才能确保稳定运行 [4] - 如果双方能够成功克服这一技术瓶颈,不排除联发科和英特尔实现深度合作的可能 [4]
英特尔取得灵活延迟锁相环校准专利
金融界· 2026-02-10 19:04
公司专利动态 - 英特尔公司取得一项名为“灵活DLL校准”的专利,授权公告号为CN115050401B [1] - 该专利的申请日期为2016年11月 [1]
千亿级景林密集调仓换股
上海证券报· 2026-02-10 12:56
景林资产美股持仓概况 - 截至2025年末,景林资产在美股市场持有28家公司股票,总市值超过40亿美元 [1] - 前十大重仓股分别为谷歌A、脸书母公司Meta、拼多多、网易、满帮集团、富途控股、英伟达、阿里巴巴、英特尔和亚朵,中概股占据主导地位 [1][2][10] 核心持仓变动 - 第一大重仓股由脸书母公司Meta变为谷歌A [1][2] - 截至2025年末,持有谷歌A 269万股,较三季度末增持92.6万股,期末持股市值超过8.41亿美元 [2][3] - 增持英特尔69.44万股,增持富途控股13.95万股 [2][6] - 新进买入博通,其为谷歌TPU概念股 [6] - 大手笔减持英伟达154.09万股,减持脸书母公司Meta 22.91万股 [2][7] - 部分减持新思科技、台积电、贝壳、联合健康等个股,并清仓Spotify和优步 [7] 重点持仓公司动态 - **谷歌**:2025年全年营业收入达4028.4亿美元,首次站上四千亿美元关口 [3] - **谷歌**:预计2026年资本支出将达到1750亿美元至1850亿美元,较2025年的910亿美元几乎翻倍 [3] - **博通**:2025年第四财季营业收入为180.15亿美元,同比增长28% [6] - **博通**:第四财季净利润97.14亿美元,同比增长39% [6] - **博通**:第四财季调整后每股净利润1.95美元,同比增长37% [6] 投资逻辑与行业观点 - 公司认为在AI人工智能、新能源、智能驾驶、人型机器人等新经济发展的前沿领域,中美各自都在积极投资,相关公司在时代浪潮中快速成长,营收和市值不断刷新纪录,相关机会有望持续涌现 [1][9] - 核心持仓策略是“两个体系,各有星辰”,在中美两大市场中依据各自的比较优势,精选估值和经营现金流优质的公司,通过跨市场均衡配置构建全球精选投资组合 [9] - 2026年需高度重视重要AI应用入口或平台,如谷歌、苹果、字节跳动、腾讯、OpenAI等世界级入口或平台型公司 [9] - 2026年可能是AI Agent真正普及的元年,软件和软硬件结合的AI Agent设备会不断推出 [9] - 以手机等硬件作为底层操作平台的AI大模型,有挑战原有IOS和安卓系统的可能性,原有的很多护城河可能在此次技术浪潮中被颠覆 [9]
人工智能投资回报:AI 增长加速的回报驱动资本开支调整-Artificial Intelligence ROI on AI Growth Acceleration Returns Drive Capex Revisions
2026-02-10 11:24
关键要点总结 涉及的行业与公司 * 行业:人工智能、云计算、半导体、半导体设备、存储、网络基础设施、软件、公用事业与工程建筑[1] * 公司:主要涉及四大超大规模云服务提供商、核心芯片制造商及AI产业链相关公司[1][2][7] * 超大规模云服务提供商:Meta、Google、Amazon、Microsoft、Oracle、CoreWeave[2][3] * 芯片制造商:Intel、Nvidia[7] * 核心基础设施及周边产业公司:包括AMD、Arm、Astera Labs、Broadcom、Cadence、Intel、Marvell、Micron、Nvidia、Qualcomm、Samsung、SK Hynix、Synopsys、TSMC等半导体/晶圆厂公司,以及Arista、Ciena、Dell、Digital Realty、Equinix、HPE、Super Micro Computer、Seagate、Western Digital等通信服务、网络、IT硬件与存储公司[17] * 软件与计算公司:包括Adobe、Applovin、HubSpot、Intuit、Salesforce、ServiceNow、Shopify、Trade Desk、Workday等应用软件公司,Elastic、MongoDB、Palantir、Snowflake等数据分析公司,以及Cloudflare、Crowdstrike、Datadog、Dynatrace、Fortinet、Okta、Palo Alto Networks、SentinelOne、Zscaler等网络安全/系统软件公司[20] * 公用事业与多行业工程建筑公司:包括Constellation Energy、Eaton、Fuji Electric、GE Vernova、Hitachi、Legrand、MasTec、Mitsubishi Electric、NRG、nVent、Quanta Services、Schneider Electric、Siemens、Vertiv等[17] 核心观点与论据 资本支出大幅上调 * 四大超大规模云服务提供商均发布了高于市场共识的2026年资本支出指引[2] * Meta:指引为1150亿至1350亿美元,比共识增长预期高出21个百分点[2] * Google:指引为1750亿至1850亿美元,接近翻倍,比共识高出65个百分点[2] * Amazon:指引约为2000亿美元,比共识高出39个百分点[2] * Microsoft:预计2026财年资本支出增长率将超过2025财年约58%的增长率[2] * 基于该集团过去几年的资本支出季节性规律,预计大部分增长将发生在第三和第四季度,第一季度数字可能较为平缓,原因是劳动力、电力和设备方面的产能限制[2] 需求强劲,收入与积压订单加速增长 * 云服务提供商的积压订单/剩余履约义务表现持续指向对AI应用和服务的强劲、不断增长的需求[3] * 截至第三季度,Amazon、Google、Microsoft、Oracle和CoreWeave的积压订单总额超过1万亿美元[3] * 云收入增长受到可用产能的限制,管理层评论称需求持续超过供应[9] * Google Cloud:尽管供应环境紧张,但对产品和服务的需求显著,预计将继续推动强劲增长[9] * Microsoft Azure:需求继续超过供应[9] * Amazon AWS:如果能获得所有可用的供应,增长可以更快[9] 投资回报驱动投资决策 * 超大规模云服务提供商近年来持续显示出稳定的现金投资现金回报,这支撑了其继续提高资本支出水平的决策[4] * 鉴于这些参与者在AI生态系统中的核心地位和多种变现杠杆,预计随着增量产能上线,未来年度营收和盈利预测将进一步向上修正[4] 芯片制造商重申需求强度 * Intel CEO指出,内存限制仍然是2028年前AI面临的最大挑战,计算需求现在每3-4个月翻一番,而历史模式是每3-4年翻一番[7] * Nvidia CEO预测,利用AI将使公司能够超越传统IT行业1万亿美元的市场,触及整个100万亿美元全球经济的机遇,意味着潜在市场规模可能扩大100倍[7] * 企业采用AI需要广泛的实验,而不要求前期投资回报率,因为从显式编程到隐式编程的转变从根本上重塑了整个技术栈[7] 投资机会与瓶颈 * 最佳投资机会存在于瓶颈最严重的领域:云服务、内存、存储、半导体设备,以及日益重要的CPU[1] * 预计不断扩大的用例推动AI采用与产能限制/供应链瓶颈减缓其采用之间的动态关系将继续决定股价表现[7] 其他重要内容 财务数据与估值 * 文档包含了大量公司的详细估值和交易指标表格,涵盖市场市值、企业价值、收入倍数、市盈率、企业价值与自由现金流比率等[17][20] * 提供了超大规模云服务提供商云收入增长率的详细预测和比较数据[9] 风险提示与披露 * 文档包含大量法律声明、分析师认证、重要披露和利益冲突声明,指出花旗集团及其关联公司与报告中涉及的许多公司存在广泛的业务关系,包括投资银行服务、做市、持有证券头寸等[23][24][25][26][27][28][29][30][31][32][33][34][35] * 报告发布日期为2026年,引用的数据截至2026年2月5日收盘[19][20]
未知机构:论国产代工的三层逻辑受下游汽车工控等市场拉库原材料-20260210
未知机构· 2026-02-10 10:05
涉及的行业与公司 * **行业**:半导体晶圆代工行业[1][3] * **提及的公司**:世界先进[1][3]、华虹半导体[2][4]、中芯国际[2][4]、台积电[1][3][5]、英特尔[5]、三星[5]、晶合集成[5]、燕东微[5]、华润微[5]、芯联集成[5] * **提及的设备公司**:精测电子[5]、北方华创[5]、中微公司[5]、拓荆科技[5] 核心观点与论据 * **行业迎来全面涨价**:受下游汽车、工控等市场拉货、原材料价格上涨及台积电逐步退出成熟制程代工等因素驱动,晶圆代工行业正在全面涨价[1][3] * **具体案例**:世界先进宣布自4月起开启第二波涨价,调幅达10-15%[1][3] * **其他案例**:华虹半导体、中芯国际此前亦传出涨价消息[2][4] * **涨价对利润影响显著**:对于一个当前利润率仅为个位数的行业,涨价10%意味着净利润可能翻倍[2][5] * **国产先进制程发展机遇**:中国先进制程(16nm及以下)产能当前不到5万片/月,远低于台积电、英特尔和三星在该节点超过120万片/月的总产能[5] * **发展预期**:“十五五”规划有望扭转这一局势,非最先进制程的节点都可能成为中国的主战场[5] * **成熟制程需求庞大**:DRAM和3D NAND存储器的制造趋势是将逻辑晶圆外包(CBA工艺),这两类存储器的远期规划产能超过120万片/月[5] * **需求缺口**:而当前全球20/28nm逻辑产能仅约80万片/月,逻辑晶圆的外包必将带来对20/28nm节点的庞大需求[5] * **投资观点**:看好中国半导体代工行业的价值重估[5] 其他重要内容 * **国产代工企业列举**:包括中芯国际、华虹半导体、晶合集成、燕东微、华润微、芯联集成等[5] * **半导体设备企业列举**:包括精测电子、北方华创、中微公司、拓荆科技等[5]
CPU再度崛起,需求飙升
半导体行业观察· 2026-02-10 09:14
文章核心观点 - 自2023年以来,数据中心的发展重心从CPU转向了GPU和网络,导致英特尔等传统CPU供应商错失增长机会 [2] - 然而,过去六个月情况发生巨大变化,CPU需求因强化学习和Vibe编码等因素而飙升,其在数据中心的作用迎来转折点 [2][5] - 2026年将是数据中心CPU市场激动人心的一年,英特尔、AMD、ARM阵营等多厂商将推出新一代产品,竞争格局将发生显著变化 [7] 数据中心CPU的作用和演变 - 现代数据中心CPU的雏形可追溯至20世纪90年代,英特尔奔腾Pro和至强系列通过多芯片模块(MCM)设计提升了性能 [9] - 互联网泡沫时代,数据中心CPU市场发展为价值数十亿美元的产业,设计重点转向多核集成和同步多线程(SMT)技术 [10][11] - 2000年代末云计算的兴起是重大转折点,CPU硬件虚拟化成为关键,但Spectre和Meltdown漏洞导致禁用SMT后性能损失高达30% [12][13] - 新冠疫情至ChatGPT发布前,英特尔向云端和企业数据中心交付了超过1亿颗至强可扩展CPU [14] - AI时代,CPU在数据中心角色被颠覆,分为管理GPU的“头部节点”和追求每瓦吞吐量的“云原生Socket整合”两大类 [15] - Socket整合比例可达10:1甚至更高,疫情期间购买的数百万台英特尔Cascade Lake服务器正被功耗低至其五分之一的新CPU取代 [17] - 如今,为支持AI训练和推理,CPU使用率再次加速增长,例如微软为OpenAI打造的“Fairwater”数据中心配备48MW的CPU和存储大楼为295MW的GPU集群提供支持 [19] - 强化学习训练循环需要大量CPU并行执行代码编译、验证和物理模拟等操作,检索增强生成(RAG)和智能体模型也增加了对通用CPU的需求 [21][22] - 展望2026年,数据中心对CPU和DRAM需求将更高,AMD预计服务器CPU市场将实现“强劲的两位数”增长 [22] 多核CPU互连技术发展史 - 早期双核设计(如英特尔奔腾D)核心间通信通过前端总线(FSB)在北桥芯片进行,而AMD Athlon 64 X2在同一芯片上集成双核和内存控制器,通过片上网络(NoC)通信 [24] - 随着核心数增加,早期采用全连接交叉开关,但链路数量随核心数大幅增加,实际极限约为4个核心,更高核心数通过多芯片模块实现 [28][29] - 英特尔在2010年Nehalem-EX处理器中引入环形总线架构,将核心、内存控制器等节点排列成环路,以控制布线复杂度 [33] - 为扩展核心数,英特尔后续采用了“虚拟环”、双独立环形总线(如18核Haswell)等设计,但导致了非均匀内存访问(NUMA)问题 [41][44] - 2017年,英特尔在Skylake-X至强可扩展处理器中采用网状互连架构,核心以网格形式排列,成为未来十年核心扩展的基础 [49] - 网状架构下,内存访问和核心间延迟存在显著差异,可通过子NUMA集群(SNC)模式优化,但每个处理器被视为多个插槽 [49] - 采用EMIB先进封装技术的Sapphire Rapids实现了跨芯片的网状架构,将核心数增至60个,但平均核心间延迟从Skylake的47ns增至59ns [59] - 随后的Emerald Rapids将芯片减至2片,核心数增至66个,L3缓存容量几乎翻三倍至320MB [60] - 在Xeon 6平台,英特尔采用异构解耦设计,将I/O与计算核心分离,计算芯片可混合搭配P核和E核配置 [64] - Sierra Forest处理器采用E核心,以8x6网格排列,最多激活144个核心,但市场接受度有限 [66] - Clearwater Forest采用Foveros Direct混合键合,将核心堆叠在基础芯片上,使核心数达288个,但性能仅比Sierra Forest快17%,且面临延迟和成本挑战 [67][69] 主要厂商2026年CPU架构分析 英特尔 - Diamond Rapids设计转向类似AMD的架构,四个核心构建模块(CBB)芯片围绕中央I/O芯片,最多启用192个核心 [88] - 每个CBB内部,32个双核模块通过混合键合连接到基片,两个核心共享一个公共L2缓存 [88] - 该设计放弃了EMIB高级封装,使用基板走线连接,预计跨CBB延迟会显著增加 [89][90] - 最大问题在于缺少同步多线程(SMT),导致192核192线程的Diamond Rapids相比128核256线程的Granite Rapids性能仅提升约40% [92] - 英特尔取消了主流的8通道Diamond Rapids-SP平台,其销量最大的核心市场在2028年前将没有新一代产品 [93] AMD - Venice架构最终采用先进封装技术,使用高速短距离链路将CCD芯片连接到分成两个芯片的中央I/O集线器 [95] - I/O芯片总共有16个内存通道,支持MRDIMM-12800,可提供1.64TB/s带宽 [95] - CCD内部采用网状网络,Zen6c处理器以4x8网格排列,八个N2 CCD芯片使核心数量达到256个 [96] - 针对AI头部节点的“-F”系列将采用12核Zen6 CCD,最多在8个CCD中实现96个核心 [97] - AMD声称顶级256核版本的每瓦性能比192核Turin版本高出1.7倍以上,并引入了新的AI数据类型指令 [99] - AMD将推出全新的8通道Venice SP8平台,提供高达128个高密度Zen 6c核心,旨在企业级市场获得份额 [100] NVIDIA - Grace CPU设计专注于核心节点和扩展GPU内存,通过900GB/s的NVLink-C2C链路让GPU访问CPU内存,最高配备480GB LPDDR5X内存 [103] - 采用ARM Neoverse V2设计,部署在6x7网状网络上,最多启用72个核心 [103] - 其分支预测引擎存在瓶颈,处理未优化HPC代码时速度较慢,优化后可带来50%的速度提升 [104] - Vera CPU将于2026年推出,C2C带宽翻倍至1.8TB/s,内存容量达1.5TB,带宽1.2TB/s,采用7x13网格,最多激活88个核心 [106] - Vera采用全新的定制ARM核心“Olympus”,支持SMT,实现88核176线程,浮点单元端口增至6个,整体性能提升2倍 [114] AWS (亚马逊) - Graviton5于2025年底预览,配备192个Neoverse V3核心,采用台积电3nm工艺,晶体管数量达1720亿 [116][120] - L3缓存从Graviton4的36MB提升至192MB,内存带宽(12通道DDR5-8800)提升57% [120] - PCIe通道升级至Gen6但数量从96条减至64条,是成本优化举措 [120] - 采用改进的芯片组架构,两个核心共享一个网格节点,排列成8x12网格,核心网格分布在多个计算芯片上 [121] - AWS在内部使用数千颗Graviton CPU运行EDA工具来设计未来芯片,并宣布Trainium3加速器将使用Graviton CPU作为头节点 [123] 微软 - Cobalt 200于2025年底发布,核心数从128个增至132个,采用Neoverse V3设计,性能比Cobalt 100提升50% [127][128] - 核心配备3MB L2缓存,通过标准ARM网状网络连接到两颗3nm计算芯片,每芯片采用8x8网状结构,共192MB共享L3缓存 [128] - 与Graviton5不同,Cobalt 200仅用于Azure通用计算服务,不作为AI头节点 [128] 谷歌 - Axion C4A实例最多搭载72个Neoverse V2核心,采用9x9网格布局,预留9个核心提高良率 [132] - 为成本效益的横向扩展,Axion N4A实例采用64个Neoverse N3内核,采用台积电3nm工艺定制设计 [133] - 谷歌计划将内部服务迁移到ARM架构,并未来设计Axion CPU用作TPU集群的头部节点 [133] Ampere Computing - AmpereOne CPU核心数提升至192个,采用5nm工艺和芯片组设计,将I/O分离到独立芯片 [140] - 采用定制ARM内核注重核心密度,配备2MB L2缓存,整数性能比Altra Max提升一倍 [140] - 2025年被软银以65亿美元收购,原路线图不再适用,收购原因包括软银希望提升其Stargate项目的CPU设计水平,以及甲骨文希望剥离该业务 [141] - 由于上市时机和性能问题,市场需求不足,Oracle的Ampere CPU采购额从2023财年的4800万美元骤降至2025财年的370万美元 [141][142] ARM - ARM计划在2026年推出完整的数据中心CPU设计方案Phoenix,Meta将成为其首个客户,这意味着ARM将直接与获得其Neoverse CSS授权的客户竞争 [143] - Phoenix采用128个Neoverse V3内核,通过ARM的CMN网状网络分布在两颗3nm芯片上,配备12通道DDR5-8400内存和96条PCIe Gen 6通道 [144] 华为 - 计划在2026年推出鲲鹏950处理器,核心数量翻倍至192个,采用自主研发的LinxiCore核心并保留SMT支持 [150] - 承诺在OLTP数据库性能上比鲲鹏920B提升2.9倍,将部署在泰山950 SuperPoD机架中,每个机架可容纳16台双路服务器,配备高达48TB DDR5内存 [150] - 路线图延续至2028年的鲲鹏960系列,将有高性能(96核)和高密度(256核以上)两个版本 [151]
英特尔悄然终止了一项芯片计划
半导体行业观察· 2026-02-10 09:14
英特尔“按需服务”计划概述 - 英特尔于2021年首次推出软件定义芯片计划,最初名为SDSi,后更名为“Intel On Demand”[4] - 该计划旨在为第四代至强可扩展处理器用户提供激活芯片内加速器和硬件增强功能的选项[4] - 计划提供两种付费模式:一次性付费永久解锁功能,或按实际使用量付费[4][5] 计划提供的具体功能 - 计划支持的加速器功能包括:动态负载均衡器、数据流加速器、内存分析加速器、快速辅助技术、软件保护扩展[4] - 对于第五代至强芯片,还支持CPU上的虚拟RAID功能[4] - 该模式允许客户无需预先购买更高级别处理器型号,即可按需激活加速器功能[5] 计划终止的迹象与现状 - 近年来,英特尔基本停止了公开讨论其“Intel On Demand”计划,开发活动明显放缓[2] - 包含支持该计划所需软件组件的Intel SDSi GitHub代码库已于2023年11月被存档,标志着积极开发结束[2] - 英特尔已从其网站上删除了大部分On Demand相关文档,仅能访问到一些旧的PDF文件[2] - 软件支持、文档和公开讨论的消失强烈表明,英特尔已彻底放弃该计划,它不会成为下一代至强平台的一部分[2] 市场反应与计划失败原因 - 该计划遭到业界强烈批评,主要担忧在于加速器模块物理存在于处理器中,但需付费激活,被质疑为让用户为某些功能支付两次费用[5] - 鉴于这些担忧,按需加速功能并未真正普及,SDSi支持代码被存档也证实了这一点[5]
Intel Stock Is Priced for Ruin, But the AI Offensive Is Here
Yahoo Finance· 2026-02-10 00:40
公司战略转型与新产品 - 英特尔重新进入独立GPU市场,但并非针对游戏领域,而是专门瞄准AI推理市场[2] - 公司推出了基于Xe3P架构、专为推理任务优化的新GPU“Project Crescent Island”[1] - 该产品的关键差异化在于其外形设计,采用风冷而非昂贵复杂的液冷系统,降低了标准数据中心的采用门槛和成本[1] - 公司正在首席执行官Lip-Bu Tan领导下,快速整合一个覆盖计算能力和内存存储的统一路线图[3] - 公司已启动一个统一的路线图,旨在通过新的独立显卡处理器和冷却技术进军利润丰厚的人工智能推理市场[6] 技术能力与人才布局 - 公司聘请了Eric Demers担任首席GPU架构师,他曾任职于高通和AMD,此举向市场表明英特尔再次吸引了能够执行复杂设计的顶级工程人才[7] - 公司正着手解决AI行业最大的瓶颈之一:内存,其已与软银合作共同开发Z-Angle内存,旨在到2029年创建新的行业标准[7] - 与软银的合作伙伴关系旨在更高效地堆叠内存,这将使英特尔代工不仅成为工厂,更成为推动行业创新的中心[7] 运营挑战与市场现状 - 运营方面出现警告信号,已确认的供应短缺报告严重影响了关键的中国市场[5] - 2026年2月6日的报道证实,英特尔已通知中国客户,其至强服务器处理器的交付将延迟长达六个月[8] - 延迟的根本原因是产能问题而非需求问题,公司在2025年售罄了所有库存芯片[9] - 公司已进入2026年,处于现挣现吃的状态,半导体制造周期导致当前在中国出现六个月的延迟[10] - 管理层正在优先生产高利润的数据中心产品,以应对暂时的供应瓶颈,并为今年晚些时候更好的表现重建库存水平[6] 财务与估值状况 - 战略增长与供应限制之间的摩擦已将英特尔的估值推至历史低位,股价目前交易于约2倍的市净率[11] - 相比之下,高增长的半导体竞争对手通常交易于7倍至10倍的市净率[11] - 公司拥有强大的资产负债表,在2025年底持有374亿美元现金及短期投资[16] - 2025年末,英伟达向英特尔投资了50亿美元,这被视为行业领导者的认可[16] - 美国政府持有公司约10%的股权,这实际上将英特尔指定为具有战略重要性的国家冠军企业[16] 投资观点与未来展望 - 公司股价稳定在40美元高位区间,当前的交付延迟 headlines 可能只是暂时的阻力[4] - 对于眼光超越未来两个季度的投资者而言,公司从防御姿态转向进攻性人工智能战略,在当前股价与未来价值之间造成了独特的脱节[4] - 中国市场的供应短缺是短期的天气事件,而GPU战略转型和与软银的合作则代表了公司永久性的气候转变,使其能够抓住下一波AI支出浪潮[13] - 随着今年晚些时候制造良率提高和库存缓冲重建,市场可能会被迫基于其战略未来而非当前的物流状况重新评估该股票[14]