AI推理
搜索文档
AI推理时代启幕,爱芯元智登陆港股重塑边缘算力格局
搜狐财经· 2026-02-10 16:29
公司上市概况 - 爱芯元智于2月10日在香港联交所主板上市,股票代码[0600.HK],上市首日股价最高触及29.18港元,最高市值一度达到约172亿港元 [1] - 公司此次上市共发售1.05亿股,发行价为每股28.20港元,募资总额为29.61亿港元 [1] - 公司成立仅六年,此次上市标志着其站上了国际资本市场舞台 [1] 行业趋势与机遇 - 全球AI产业正发生深刻结构性转变,产业焦点正从模型训练转向规模更大、持续性更强的推理应用部署,2026年被认为是“AI推理应用爆发元年” [4] - 随着AI智能体、多模态应用和物理AI普及,推理请求量与并发数将大幅增加,对算力的需求呈指数级跃迁,一个智能体的整体算力消耗可达同参数规模大语言模型的10倍以上 [4] - 根据德勤报告,2026年推理算力占AI总计算量的比重将达66%,首次超过训练算力 [4] - 推理规模化落地的核心障碍在于成本,目前推理成本在AI应用总成本中占比高达70% [5] - 出于对实时性、数据隐私和带宽成本的考量,算力下沉至“边缘侧”成为必然趋势,这要求芯片在严苛的功耗、成本和可靠性约束下提供稳定高效的AI推理能力 [5] 公司核心竞争力 - 公司的核心竞争力构筑于垂直整合的“感知+计算”技术平台,该平台以两大全自研IP为支柱:爱芯智眸AI-ISP和高能效的爱芯通元混合精度NPU [6] - 爱芯智眸AI-ISP是全球首款规模化商用的产品,从源头优化图像质量,保障感知可靠性 [6] - 爱芯通元混合精度NPU的架构针对AI推理负载优化,原生支持Transformer等主流模型 [6] - 两大IP通过统一架构深度协同,并结合完整工具链,实现了从高质量感知到高效计算的闭环 [6] 产品矩阵与市场地位 - 公司的产品矩阵精准覆盖三大高增长赛道:视觉终端计算、智能汽车和边缘AI推理 [7] - 在视觉终端计算领域,公司以24.1%的份额位居全球中高端市场第一,截至2025年9月30日,相关SoC累计出货量已突破1.57亿颗 [7] - 在智能汽车领域,公司是中国第二大国产智能驾驶SoC供应商,截至2025年底,其车规芯片累计出货近100万颗 [7] - 在边缘AI推理领域,公司以12.2%的市场份额位居国内第三,旗舰产品AX8850系列自2023年推出至2024年底,累计出货量超10万颗,同比增长近400% [7] 财务表现与研发投入 - 公司营收呈现强劲增长,2022年至2024年复合增长率高达206.8% [10] - 公司将持续的研发投入作为构建长期竞争力的核心战略,2022至2024年三年间研发投入累计超过15亿元 [10] 募资用途与未来战略 - 本次香港上市募集资金净额中,约60%将用于进一步加强核心技术的研发与新一代产品的推出 [12] - 约15%的资金被规划用于未来四年的前沿研发项目,表明公司战略重点是持续扩大技术领先优势 [12] - 约10%的募资款被指定用于潜在的股权投资、收购或战略合作,以获取关键技术、市场渠道或补充产品线 [12] - 公司未来路径清晰,即利用资本市场融资,持续高强度投入“感知+计算”平台以巩固技术护城河,并寻求在边缘AI市场爆发周期内跨越盈亏平衡点 [12] 产业意义 - 爱芯元智的成功上市宣告了以高能效、高智价比为核心特征的专用AI推理芯片时代已经来临,边缘侧是这场变革的主战场之一 [14] - 公司的发展将成为观察中国硬科技企业如何在细分赛道实现全球突破的关键样本,映射着中国AI产业从应用创新向底层核心能力深化的重要一跃 [14]
环比最高涨90%,内存最新涨幅再创记录
选股宝· 2026-02-10 07:18
核心观点 - 2026年第一季度内存价格预计将环比上涨80%-90%,创历史暴涨纪录,主要由通用服务器DRAM价格大幅攀升驱动,NAND闪存价格也同步上涨80%-90%,市场呈现全品类加速上涨态势 [1] - 本轮价格暴涨的核心逻辑是AI推理驱动存储需求成倍增长,叠加供给端有效产能释放滞后,AI服务器推动存储架构向"HBM+DRAM+NAND"三级演进 [1] - 通用服务器DRAM涨价的核心催化是GPU迭代带动存储容量与产能需求激增,而供给端新增产能集中在2027年及以后释放,2026年行业供需结构性错配将持续 [1] 价格与市场趋势 - 2026年第一季度内存价格预计环比上涨80%-90% [1] - 同期NAND闪存价格同步上涨80%-90% [1] - 服务器级64GB RDIMM合约价从去年第四季度的450美元飙升至900美元以上,二季度有望突破1000美元关口 [1] - 部分HBM3e产品价格走高,市场呈现全品类加速上涨态势 [1] 需求驱动因素 - AI推理驱动存储需求成倍增长 [1] - AI服务器推动存储架构向"HBM+DRAM+NAND"三级演进 [1] - 数据中心成为最大单一市场,2026年服务器DRAM占比将突破50% [1] - 中长期需求复合年增长率维持20%高位 [1] - GPU迭代带动存储容量与产能需求激增,B200、B300等新一代GPU对应的DRAM等效产能消耗同比增长20%-171% [1] 供给与产能状况 - 供给端有效产能释放滞后 [1] - 供给端新增产能集中在2027年及以后释放 [1] - 2026年行业供需结构性错配将持续,AI驱动的紧缺态势难缓解 [1] 产业链概况 - 存储产业链上游涵盖设备与材料环节 [2] - 中游包括存储芯片设计、制造与封测 [2] - 下游聚焦服务器、数据中心等应用领域 [2] - 各环节均受益于量价齐升趋势 [2] 相关公司业务动态 - 大为股份全资子公司大为创芯主要产品有NAND、DRAM存储两大系列 [3] - 大为创芯在稳定核心客户基础上,成功导入超越科技、四川九洲、广东朝歌等重量级新客户 [3] - 大为创芯实现在通信和消费电子领域的市场突破 [3] - 大为股份目前正在推进探矿权转采矿权工作进程 [3] - 东芯股份研发的DRAM产品主要包括DDR3(L)以及LPDDR1/2/4X [4]
AMD财报解读:下跌就是机会
美股研究社· 2026-02-06 18:55
文章核心观点 - 超威半导体2025财年业绩表现强劲,营收增长乐观且利润率大幅改善,公司规划了清晰的下一代GPU产品路线图,随着AI推理算力需求增长,公司有望进入新的增长轨道,基于稳健的业绩展望及股价回调,分析师将其评级上调至“强力买入” [1] AMD业务运营情况 - **2025财年第四季度业绩亮眼**:该季度净营收同比大增37.58%,主要得益于MI350系列GPU与霄龙(EPYC)CPU的销售,其中霄龙实例部署量增长突出,云服务提供商部署量增幅超50%,企业端部署量翻番以上 [4] - **下一代AI加速器产品矩阵**:公司规划了面向不同场景的下一代Instinct系列GPU,包括面向AI超算集群的MI455X与Helios、用于HPC与主权AI的MI430X、以及面向企业AI训练与推理的MI440X [5] - **合作伙伴与基础设施方案**:AMD将与慧与合作推出机架级架构方案,采用博通Tomahawk 6网络芯片,单台服务器机架可连接72颗MI455X GPU,该企业级就绪方案有望驱动大幅增长 [6] - **未来产品路线图**:MI400系列GPU预计于2026年下半年上市,下一代MI500系列GPU预计2027年发布,其AI算力相较MI300X系列将实现1000倍提升,采用2纳米工艺并搭载HBM4E内存 [6] - **中国市场销售与不确定性**:2026年第一季度,预计MI308系列GPU对华销售收入将达1亿美元,公司正积极申请MI325系列对华出口许可,但需遵循美国本土供货优先的规定,对华销售拓展存在不确定性 [6] - **与Riot Platforms的合作**:AMD与Riot Platforms达成合作,锁定25兆瓦数据中心算力,合同期内可扩容至200兆瓦,分析师推测公司可能在该数据中心部署机架级解决方案用于私有云开发或内部研发 [7] - **与OpenAI合作的潜在机遇**:有报道称OpenAI对英伟达最新AI芯片性能不满并寻求替代方案,尽管OpenAI CEO后续表态缓和,但英伟达拟向OpenAI的投资额从最初100亿美元大幅缩减至200亿美元,这为AMD提供了潜在增长契机 [7] - **行业竞争动态**:英特尔宣布重返GPU赛道并新设首席架构师,其与英伟达在CPU上的合作可能影响AMD在企业和云AI业务的增长逻辑,同时,OpenAI也与初创公司Cerebras达成合作引入750兆瓦低延迟AI算力,2026年AI加速芯片竞争将愈发激烈 [8] - **客户端与游戏业务**:微软筹备2027年推出下一代Xbox主机,AMD半定制芯片正处于产能爬坡初期,但管理层指引2026年该业务收入将出现双位数下滑 [8] AMD财务状况 - **2025年第四季度及全年财务表现**:2025年Q4总营收102.7亿美元,调整后毛利率57%,调整后营业利润率28%,2025财年总营收346.39亿美元,调整后毛利率52%,调整后营业利润率22% [10] - **2026年财务展望**:分析师预计2026年Q1净营收99.42亿美元,调整后每股收益1.36美元,预计2026年全年营收426.47亿美元,调整后每股收益6.06美元 [10] - **运营效率改善**:2025年Q4运营效率大幅改善,数据中心、客户端与计算业务板块利润率全面提升,仅嵌入式业务利润率下滑164个基点 [10] - **毛利率展望**:受益于MI350系列产品放量,2026年Q1调整后毛利率有望进一步改善,但在2026年下半年MI400系列新品爬坡阶段,毛利率可能阶段性承压 [10] - **强劲的资产负债表**:截至2025年Q4,公司现金及现金等价物为105.52亿美元,债务32.22亿美元,净现金头寸73.3亿美元,为公司提供了充足的财务灵活性 [11] - **库存情况**:2025年Q3、Q4库存小幅增加,主要系MI350系列产能爬坡,以及MI308系列存货跌价准备转回所致 [11] 估值与股东价值 - **当前估值水平**:AMD当前股价对应9.56倍市销率,相较其1年交易区间,估值溢价处于相对高位 [16] - **股价波动与配置价值**:2025年Q4财报发布后,AMD股价次日暴跌17%,但分析师认为下跌主要源于外部因素而非公司基本面恶化,当前公司已具备更具吸引力的配置价值 [16][18] - **长期上行空间**:分析师认为,尽管短期存在估值溢价,但随着公司把握数据中心增长红利,尤其是AI推理需求崛起,AMD仍具备上行空间 [16]
招商证券:预计2026全年存储供给偏紧状态持续 产业链公司整体展望乐观
智通财经网· 2026-02-06 15:18
核心观点 - 2026年存储行业将迎来业绩释放大年,价格持续上涨且供需紧缺趋势预计延续至2027年,建议关注存储、设备及产业链相关公司 [1] 需求端 - AI推理驱动存储架构向“HBM+DRAM+NAND”三级金字塔架构演进,大容量NAND在数据中心的重要性凸显 [2] - 多模态视频生成带来百倍内存需求,英伟达Rubin平台引入每GPU 16TB独立存储机柜,单机存储搭载量呈指数级跃升 [2] - 数据中心将取代移动端成为NAND最大单一市场,预计2026年服务器DRAM占比将突破50% [2] - 2023-2030年,数据中心DRAM与NAND的位元需求年复合增长率预计分别达28.3%与32.6% [2] 供给端 - 2026年三大原厂资本开支显著提速,但投资重心集中于HBM及先进制程,新建产能释放需至2027年以后,导致短期有效供给弹性严重受限 [3] - 三星、海力士与美光2026年资本开支预计分别为200亿美元(同比+11%)、205亿美元(同比+17%)及135亿美元(同比+23%) [3] - 2026年DRAM与NAND位元出货量增速预计均维持在20%左右,AI服务器需求推动服务器端在DRAM与NAND位元出货占比中均超过45% [3] 库存端 - 原厂库存水位持续回落,服务器DRAM与NAND紧缺趋势预计将贯穿2026全年 [4] - 中国内地模组厂2025年第三季度库存累计同比高增34%,创历史新高,以应对2026年供需缺口 [4] 价格端 - 2026年第一季度DRAM与NAND合约价环比涨幅预计将分别高达90-95%与55-60% [5] - 虽然DDR4现货价格首次出现小幅回调,但原厂供应停滞支撑整体价格维持高位 [5] - 随着产能瓶颈向PC与移动端传导,全品类存储价格有望面临普涨 [5] 销售与业绩端 - 在价格与需求推动下,2026年DRAM与Flash产值预计达5516亿美元,同比增长134%,2027年产值预计达8427亿美元,同比增长53% [6] - 2025年第四季度,原厂端(三星/海力士/美光/南亚科)营收与利润均创历史新高 [7] - 台股与中国内地利基及模组厂商凭借战略库存优势,在涨价潮中实现盈利能力大幅修复 [7] - 随着原厂产能向高端倾斜导致通用产品持续紧缺,2026年全行业量价齐升趋势进一步走强,中下游厂商业绩向上斜率明确 [7]
优刻得全浸没液冷机柜上架乌兰察布,GPU算力密度提升50%
21世纪经济报道· 2026-02-06 10:55
公司产品与技术进展 - 优刻得液冷机柜在乌兰察布智算中心正式上架,进入规模化商用阶段 [1] - 该方案通过精密结构设计,将整机高度从传统6U压缩至4U,支持8张高性能GPU卡,算力密度提升50% [1] - 采用全浸没式液冷技术,可使GPU工作温度降低15°C,整体功耗下降15%,运行噪音低于35dB [1] 产品应用与市场定位 - 该液冷机柜方案适用于AI训练、AI推理、超算等持续高负载场景 [1]
1596亿,AI芯片超级独角兽诞生
36氪· 2026-02-05 13:15
融资与估值 - 美国AI芯片公司Cerebras Systems完成10亿美元F轮融资 投后估值达到230亿美元 [1] - 本轮融资由Tiger Global领投 Benchmark、Fidelity、AMD等多家知名投资机构跟投 [1] - 相比2025年9月G轮融资后的81亿美元估值 最新估值增长近184% [3] 技术与产品 - 公司以晶圆级引擎3(WSE-3)芯片闻名 该芯片是全球最大、速度最快的AI芯片 体积是当前最大GPU的56倍 [1] - WSE-3芯片单位计算功耗远低于同类产品 推理和训练速度比竞品快20倍以上 [1] - 其芯片架构将运算都保存在芯片内部 消除了GPU在芯片与内存间传输数据导致的内存带宽瓶颈 专为处理AI推理的顺序执行、内存密集型工作负载优化 [3] - 公司硬件运行AI模型的速度据称比英伟达的系统快数倍 [4] 客户与商业合作 - 公司与OpenAI达成一项商业协议 将为OpenAI客户提供由Cerebras托管的计算服务 [4] - 协议涉及部署750兆瓦规模的Cerebras晶圆级系统 基础设施从2026年开始分阶段建设 预计持续到2028年 将成为全球规模最大的高速AI推理部署项目 [4] - 知情人士透露 该协议价值超过100亿美元 [4] - 公司自2017年以来一直与OpenAI探索合作 其上的大语言模型能比基于GPU的系统快15倍地响应 [5] - 公司向Meta、IBM、Mistral AI等客户提供远程计算服务 [4] 行业竞争与趋势 - OpenAI正在寻找英伟达AI推理芯片的替代方案 考虑对象包括Cerebras、AMD和Groq [4] - 英伟达曾与Cerebras等公司接洽探讨潜在收购 但Cerebras拒绝了收购 [4] - 英伟达此后与Groq签署授权协议并吸纳其大量芯片人才 提振了业界对AI芯片企业的热情 [4] - 过去6个月 谷歌、Anthropic、英伟达、OpenAI等4家AI领域重要公司均未选择英伟达硬件进行推理加速投资 转而采用或投资其他方案 [6] - 这些收购和投资标志着硬件向更新、最先进的AI优化硬件设计过渡的开始 [6] 公司背景与投资者 - 公司成立于2015年 [1] - 此轮融资是公司自2025年10月撤回美国IPO申请以来的首轮融资 凸显企业因私有市场资本充足而保持私有状态更长的趋势 [3] - 公司历史投资方包括高通、台积电等芯片巨头 以及Sam Altman、Ilya Sutskever等多位知名科技界个人投资者 [3]
中国推理芯片突围与成本革命:破“内存墙”、兼容CUDA
21世纪经济报道· 2026-02-04 17:09
行业趋势与共识 - 全球AI算力重心正从训练加速转向推理,未来五到十年推理芯片将主导AI演进方向 [1] - 行业核心需求从依赖GPU、CUDA生态构建的“绝对算力”,转向对高性价比推理芯片的迫切需求 [2] - 推理芯片的增长已超越训练芯片,Groq估值在2025年9月至2026年1月四个月内从70亿美元飙升至200亿美元,增长近3倍 [3] - 谷歌在2025年4月发布第七代TPU “Ironwood”,明确将其定位为面向推理时代的基石 [1] - 英伟达以200亿美元的代价,实质上整合了Groq最核心的资产,包括其创始团队、核心技术人员,并获得其IP的永久授权 [2] 公司战略与目标 - 云天励飞在2025年果断将芯片战略全面聚焦于云端大算力、大模型专用的推理芯片 [3] - 公司致力于通过底层架构创新,力争实现百万Tokens推理成本降低100倍以上的目标 [1] - 公司目标是每年将百万Token的推理成本降低100倍,到2030年实现“百亿Token仅需一分钱人民币”的成本水平 [3] - 未来五年,公司将全力打磨并推广DeepVerse 100、200、300系列芯片,覆盖互联网、通信运营商及各行业头部客户 [6] 技术架构与创新 - 公司正在打造专为大模型推理优化的新型处理器架构GPNPU,其核心公式为“GPNPU = GPGPU + NPU + 3D堆叠存储” [5] - GPNPU架构致力于解决可迁移、可部署、可持续降本三大工程难题 [5] - 在通用生态层面,GPNPU能够实现一行代码完成CUDA程序兼容,以降低迁移成本 [5] - 针对“内存墙”瓶颈,公司正深度研发3D堆叠存储及更前沿的互连技术,以提升带宽与能效 [5] - 在架构工程上,公司采用“算力积木”架构,通过Chiplet扩展与互连思路,实现算力按需扩展 [6] 市场机遇与竞争格局 - 在推理芯片领域,格局尚未成型,谷歌TPU v7、Groq等新兴架构刚刚崭露头角,这为中国企业提供了历史性窗口 [4] - 中国在AI应用场景丰富度与落地速度上全球领先,但在模型层与芯片层仍相对落后,意味着巨大的追赶与超越空间 [3] - 公司认为中国应在训练芯片领域持续追赶,在推理芯片领域依托丰富的应用场景、强大的基建能力及开源模型生态实现弯道超车 [5] 公司核心竞争力与保障 - 公司将核心竞争力总结为技术、产能、生态、市场、资本五大关键要素的协同共振 [6] - 公司是目前国内屈指可数手握充足国产产能保障的企业之一,为芯片大规模量产与交付提供了确定性 [6]
英伟达GPU,被嫌弃了
新浪财经· 2026-02-04 10:27
文章核心观点 - OpenAI对英伟达部分最新AI芯片在推理性能上不满意,自去年以来积极寻求替代方案,这为两家在AI热潮中关系最紧密的公司之间的合作与投资谈判带来了复杂性 [1] - 英伟达在AI训练芯片领域占据主导,但AI推理正成为竞争新战场,OpenAI等公司的替代方案寻求标志着英伟达的统治地位面临考验 [1] - 尽管双方高管公开否认关系紧张,但谈判拖延、OpenAI与竞争对手达成协议、以及英伟达收购潜在竞争对手技术等行动,揭示了底层竞争与合作的动态博弈 [2][3][6] OpenAI的战略与行动 - OpenAI对英伟达硬件在ChatGPT处理特定类型问题(如软件开发和AI与其他软件通信)时的回答速度不满意 [2] - 公司需要新的硬件来满足其未来约10%的推理计算需求 [2] - 自去年以来,OpenAI一直在寻找GPU的替代方案,重点关注将大量SRAM内存嵌入同一芯片硅片上的公司,以提升处理用户请求的速度 [4] - 在内部,Codex(用于创建计算机代码的产品)的性能问题尤为突出,部分员工将其归咎于英伟达基于GPU的硬件 [5] - 公司已与AMD以及其他旨在与英伟达竞争的GPU公司达成合作协议 [2] - 公司曾与Cerebras和Groq等初创公司探讨合作,以提供用于更快推理的芯片 [3] - 公司已与Cerebras达成商业协议,以满足编码工作对速度的重视需求 [5] 英伟达的应对与市场动态 - 英伟达计划向OpenAI投资高达1000亿美元,以换取股份并为OpenAI提供购买先进芯片的资金 [1] - 英伟达首席执行官黄仁勋驳斥了关系紧张的报道,称其“毫无根据” [2] - 公司声明强调客户因其能大规模提供最佳性能和总体拥有成本而继续选择英伟达进行推理 [2] - 在OpenAI表达对技术的保留意见后,英伟达曾与Cerebras和Groq等公司接洽探讨潜在收购,Cerebras拒绝了收购提议 [6] - 英伟达与Groq达成了一项价值200亿美元的非独家全现金授权协议,获得了Groq的技术,并挖走了其芯片设计师 [3][6] - 公司表示Groq的知识产权与其产品路线图高度互补 [3] AI芯片行业技术趋势与竞争格局 - AI发展重点正从训练大型模型转向利用训练好的模型进行推理,这可能是AI发展的一个全新、更宏大的阶段 [4] - 推理比训练需要更多内存,因为芯片需要花费更多时间从内存中获取数据 [4] - 英伟达和AMD的GPU技术依赖于外部内存,这会增加处理时间,降低与聊天机器人交互的速度 [4] - 将大量昂贵SRAM集成到每个芯片上,可以为处理数百万用户请求提供速度优势 [4] - 竞争对手如Anthropic的Claude和Google的Gemini,更多地依赖Google内部制造的专为推理设计的张量处理单元(TPU),相比通用GPU可提供性能优势 [5] - Groq曾吸引投资者关注,计划以约140亿美元的估值进行融资 [6]
OpenAI被曝“嫌弃”英伟达(NVDA.US)AI芯片 奥尔特曼亲自回应:疯狂说法毫无依据
智通财经网· 2026-02-03 20:24
核心观点 - OpenAI对英伟达部分AI推理芯片的表现不满,并自去年起积极寻求替代方案,这被视为对英伟达市场主导地位的一次考验 [1] - 尽管双方高层均公开强调稳固的合作关系,但OpenAI的产品路线图调整、对特定性能的需求以及潜在的千亿美元投资计划停滞,表明双方关系存在复杂动态 [1][2][3] 行业竞争格局 - AI推理芯片已成为行业竞争的全新主战场,而英伟达在大模型训练芯片领域仍占据绝对主导地位 [1] - OpenAI等企业正在推理芯片市场寻找替代方案,以应对AI推理环节对内存和响应速度的更高要求 [1][5] - 存算一体芯片(集成大容量SRAM)因能显著提升AI系统处理海量用户请求的速度,受到OpenAI等公司的重点关注 [5] OpenAI的战略与需求 - OpenAI对AI推理环节专用芯片的重视程度持续提升,源于其产品路线图调整,改变了公司对计算资源的需求类型 [1][2] - 公司寻求在特定场景(如软件开发、AI系统互联互通)下,获得比英伟达硬件更快的响应速度,以满足客户(如使用Codex编码模型的客户)对速度的极高要求 [3][5] - OpenAI计划通过新型硬件满足其未来约10%的推理计算需求 [3] - 公司的核心策略是:将英伟达作为训练和推理算力体系的核心,同时通过与Cerebras、AMD、博通等企业合作拓展生态,以实现更快技术迭代和更广泛部署 [3] OpenAI的替代方案探索 - OpenAI已与AMD达成合作,采购其对标英伟达的GPU产品 [2] - 公司已与Cerebras、Groq等研发高性能推理芯片的初创企业展开洽谈,并已与Cerebras达成商业合作协议 [4][6] - 与Groq的洽谈因英伟达与Groq达成一项价值200亿美元的非独家全现金技术授权协议而终止 [4][6] - 公司重点关注研发存算一体芯片的企业,这类芯片通过集成高成本SRAM来提升处理速度 [5] 英伟达的应对与市场地位 - 英伟达强调其推理芯片能在规模化部署中提供最佳的性能表现和总拥有成本优势,客户始终选择其产品 [1] - 为应对挑战,英伟达曾接触Cerebras、Groq等主打高容量SRAM芯片的企业,探讨潜在的收购可能性,但被Cerebras拒绝 [6] - 英伟达与Groq达成技术授权协议后,挖走了Groq的核心芯片设计团队,导致Groq业务重心转向云原生软件销售 [6] 双方的投资与合作关系 - 2025年9月,英伟达曾宣布计划向OpenAI分批注资至多1000亿美元,合作建设至少10吉瓦的AI数据中心,但该计划因内部质疑已陷入停滞 [2] - 英伟达CEO黄仁勋称千亿美元注资提议“从未成为一项正式承诺”,公司会“逐个评估”OpenAI的每一轮融资,出资额不会达到1000亿美元,但仍可能成为公司史上最大规模投资 [2] - 双方高层(OpenAI CEO奥尔特曼、基础设施负责人Sachin Katti)均公开表示与英伟达是深度、根基性的合作伙伴,整个计算集群均运行在英伟达GPU之上 [1][3]
OpenAI不满英伟达芯片?两高管隔空反驳
36氪· 2026-02-03 15:40
文章核心观点 - 市场传言OpenAI对英伟达最新AI芯片在推理任务上的性能不满并寻求替代方案 凸显了AI推理正成为芯片竞争的新战场 尽管两家公司CEO均公开反驳了关系紧张的传言 [1] AI推理成为竞争新焦点 - AI推理是指AI模型响应用户查询的过程 如今AI进步越来越侧重于将训练好的模型用于推理和判断 这可能是一个全新且更大的发展阶段 [2] - 推理所需的内存比训练更多 芯片需要花费相对更多时间从内存中获取数据 而非执行数学运算 [2] - 英伟达和AMD的GPU技术依赖外部内存 这会增加处理时间并减慢用户与聊天机器人互动的速度 [2] - 竞争对手如Anthropic的Claude和谷歌的Gemini更多依赖谷歌内部制造的TPU芯片 这些芯片专为推理设计 相比英伟达的通用AI芯片更具性能优势 [2] OpenAI对英伟达芯片的具体不满 - 英伟达芯片的短板在OpenAI用于生成代码的“Codex”产品中表现明显 OpenAI员工将Codex的一些不足归咎于基于英伟达GPU的硬件 [3] - OpenAI首席执行官萨姆·阿尔特曼表示 使用其编码模型的客户“会非常看重编码工作的速度” [3] - OpenAI对英伟达硬件在为ChatGPT用户解决特定类型问题(如软件开发和AI与其他软件交互)时提供答案的速度表现不佳感到不满 [4] - OpenAI需要新的硬件来满足其未来约10%的推理计算需求 [4] OpenAI的替代方案与行业动态 - 为满足对速度的需求 OpenAI采取的应对措施之一是推进其最近与Cerebras的合作 [3] - 在投资谈判拖延期间 OpenAI与AMD等其他公司达成协议 以生产与英伟达竞争的GPU [4] - OpenAI曾与包括Cerebras和Groq在内的初创公司讨论合作 以提供用于更快推理的芯片 [5] - 英伟达后来与Groq达成了一项价值200亿美元的授权协议 这导致OpenAI与Groq的谈判破裂 [5] - 芯片行业高管表示 英伟达收购Groq的决定似乎是为了加强其技术组合 以便在快速变化的AI和芯片行业中更具竞争力 [5] 双方公司的公开立场与合作关系 - 英伟达CEO黄仁勋驳斥了与OpenAI关系紧张的报道 称其“纯属无稽之谈” 并表示英伟达计划对OpenAI进行大规模投资 [6] - 英伟达声明称 客户继续选择英伟达进行推理操作 因为其在大规模应用中提供了最佳的性能和总体拥有成本 [6] - OpenAI发言人声明 公司依靠英伟达驱动其绝大多数的推理设备 并且英伟达在每美元的成本效益方面为推理操作提供了最佳表现 [6] - OpenAI CEO萨姆·阿尔特曼表示 公司喜欢与英伟达合作 并且他们生产世界上最好的AI芯片 希望在很长一段时间里成为其超级大客户 [6] 双方的投资谈判与潜在变数 - 英伟达和OpenAI正处于投资谈判阶段 去年9月英伟达曾表示计划向OpenAI投资多达1000亿美元 以换取股份并提供购买先进芯片的资金 [4] - 该交易原预计数周内完成 但谈判拖延了数月之久 [4] - 业内人士透露 OpenAI不断变化的产品路线图改变了其所需的计算资源类型 并使它与英伟达的谈判陷入僵局 [4]