Workflow
Maia芯片
icon
搜索文档
Counterpoint:博通(AVGO.US)将领跑AI ASIC设计市场,预计2027年市占率达60%
智通财经网· 2026-01-28 15:10
行业趋势与市场预测 - 人工智能服务器运算ASIC的出货量预计将在2027年增长两倍 [1] - 到2028年,AI服务器运算ASIC的出货量将超过1500万颗,超过数据中心GPU的出货量 [2] - 排名前十的AI超大规模数据中心运营商在2024年至2028年期间累计部署的AI服务器运算ASIC芯片将超过4000万颗 [2] - 市场正进入内部定制XPU时代,AI加速器针对特定训练或推理工作负载量身定制,不再仅仅依赖通用GPU [2] 主要参与者与市场份额动态 - 博通预计在2027年继续保持其在AI服务器运算ASIC设计合作伙伴领域的领先地位,市场份额将达到60% [1][3] - 到2027年,Alchip预计占据超大规模数据中心ASIC设计服务合作伙伴市场份额的18% [3] - 谷歌在2024年主导AI服务器运算ASIC出货量,市场份额为64%,但预计到2027年将下降至52% [3] - 亚马逊在2024年市场份额为36%,预计到2027年将下降至29% [3] - 迈威尔科技在ASIC设计服务市场的份额预计将从12%下降至8% [3] - 台积电在AI服务器运算ASIC出货量排名前十的公司中占据了近99%的晶圆制造份额 [2] 增长驱动因素 - 谷歌、亚马逊、苹果、微软、字节跳动和OpenAI加速部署用于训练和推理工作负载的芯片是增长主要驱动力 [1] - 具体需求包括对谷歌TPU基础设施的需求(支持Gemini项目)、亚马逊Trainium集群的持续扩展,以及Meta的MTIA和微软的Maia芯片的产能提升 [1] - 超大规模数据中心运营商基于自身技术栈构建了规模庞大的机架级AI基础设施,如谷歌的TPU Pod和AWS的Trainium UltraCluster,使其能够像超级计算机一样运行 [2] 竞争格局与战略动向 - 市场格局正迅速多元化,随着Meta、微软和其他公司进入该领域,谷歌和亚马逊的主导地位将减弱 [3] - 超大规模数据中心正逐渐摆脱对英伟达的过度依赖,转而寻求自研定制芯片以满足部分计算需求 [3] - 迈威尔科技的端到端定制芯片产品组合因定制硅创新技术(如定制的HBM/SRAM存储器和PIVR解决方案)及对Celestial AI的收购而更加稳固 [4] - 对Celestial AI的收购不仅每年能为迈威尔科技带来数十亿美元的收入增长,还有可能在未来几年内推动其在光规模化连接领域占据领先地位 [4]
AI芯片格局
傅里叶的猫· 2026-01-24 23:52
一、TPU的崛起与挑战 - Google TPU凭借对LLM的原生优化优势,正成为OpenAI、苹果等科技巨头的重要选择,逐渐打破英伟达GPU的垄断格局[3] - 从GPU生态迁移至TPU面临显著的技术适配挑战,包括数值表示和精度体系差异,模型转换过程复杂,根据参数量差异,复杂模型的转换周期可能长达一周[4] - 全球AI算力需求爆发式增长,TPU出现约50%的供给缺口,导致算力排队和项目延期,并将生产压力传导至核心代工方台积电[5] - TPU基于Google自研的JAX开源框架,与主流的CUDA生态不兼容,熟悉JAX的开发者占比极低,抬高了使用门槛[5][6] 二、TPU与AWS Trainium的对比 - Google TPU将矩阵和张量运算嵌入芯片硬件层面,在LLM规模化运行中具备显著效率优势,是OpenAI选择其作为推理核心的关键原因[7] - AWS Trainium未将矩阵运算模块集成于芯片本身,需依赖外部库和内存调用,导致单芯片效率受限,在大规模集群中累计效率损耗显著[7] - 在网络架构上,谷歌通过GKE在垂直扩展能力上突出;AWS凭借Elastic Fabric Adapter在水平扩展上有优势;英伟达在InfiniBand等技术上实现了横竖扩展的较好平衡[8] - AI芯片竞争已延伸至软件生态、网络架构等全栈协同,Google TPU的“芯片+框架+网络”闭环生态构成了核心壁垒[8] 三、Oracle的逆袭策略与风险 - Oracle凭借绑定美国政府政策和联合产业链伙伴囤积高端芯片,实现了“弯道超车”[9] - 根据美国临时规定,截至10月底,部分硬件厂商需优先供应政府机构,Oracle借此成为政府芯片采购核心伙伴,并联合CoreWeave、Nebius等近乎垄断了H200、B200等高端芯片的市场供给[10] - Oracle与OpenAI签订了未来4-5年价值3000亿美元的计算资源合作协议,通过算力转售赚取20%-25%的抽成[10] - Oracle缺乏自研LLM和成熟的数据中心运营经验,其AI业务与核心数据库业务脱节,商业逻辑高度依赖与Palantir的“数据+算力”互补合作[11] - 未来面临谷歌、微软等巨头的算力竞争加剧,以及若芯片产能缓解、政策红利消退,其资源垄断优势将快速弱化的挑战[12] 四、OpenAI的资金与商业困境 - OpenAI陷入“高投入、低产出”的资金困境,年营收约120亿美元,乐观估算年现金流仅60亿美元,但其总投入规模达3000亿美元级别,现金流无法覆盖需求[14] - 全球多地(欧洲、日本、澳大利亚、印度等)存在算力供给缺口,制约其全球化扩张[14] - LLM推理业务是其核心收入,但该业务毛利率乐观估计仅30%左右,净利率约25%,当前20美元/月的个人订阅价难以可持续盈利,需提价至40-50美元/月[15] - 相比谷歌拥有30亿日活用户的产品生态,OpenAI在企业级应用和云服务上布局薄弱,缺乏稳定落地场景,议价能力较弱[15] - OpenAI计划与博通合作研发专属TPU/NPU芯片,目标在12个月内启动部署,达成10GW级AI加速器容量,涉及百亿级美元订单,但该计划被行业认为不切实际,缺乏经验、资金和供应链资源[16] 五、大模型的未来发展方向 - 当前自回归式大模型出现性能增益边际递减问题,参数量扩大带来的性能提升收窄,而算力成本指数级增长[17] - “用AI生成的数据训练AI”的闭环模式可能导致数据质量劣化[17] - 电力供应不足已成为制约算力集群扩张的现实物理瓶颈,对英伟达的过度依赖导致全供应链承压[17] - 未来发展方向包括:1) 混合专家模型(MoE),通过任务分工降低算力成本并提升效率;2) 扩散模型,一次性生成整体语境以提升推理效率;3) 多模态与实体数据融合,拓展应用场景[18][19] - AGI短期内难以实现,大模型将回归工具属性,行业竞争焦点从“做出更强的模型”转向“更好地落地模型价值”[19]
OpenAI牵手亚马逊,微软却在买Anthropic模型.......2025年九大AI巨头,乱成一锅粥
华尔街见闻· 2025-12-29 21:38
2025年AI产业整合与竞争格局 - 2025年被称为AI巨头产业整合年,九大科技公司全面扩充AI“全栈”能力,几乎所有参与者都开始涉足人形机器人技术,但这场独立性竞赛反而让它们变得更加相互依赖 [1] - 产业洗牌重塑了AI市场的竞争边界,各公司试图通过掌控更多产业链环节来降低成本、减少对关键供应商的依赖,但新的结盟也让它们陷入更复杂的利益纠葛之中 [1] 谷歌:确立技术供应霸权 - 谷歌的TPU芯片业务实现突破,获得Anthropic价值200亿美元的订单,并正在与Meta洽谈芯片供应协议,这是谷歌首次向其他云服务商出售TPU [3] - 谷歌在2025年发布的Gemini 3大语言模型基于TPU训练,达到业界最先进水平,并与苹果达成协议,为Siri查询提供支持,替代了OpenAI此前的角色 [3] - 谷歌成为至少五家竞争对手的技术供应商,既向开发者租赁TPU和云服务器,也在2025年大规模向OpenAI提供英伟达服务器 [1][3] OpenAI:拓展合作与布局硬件 - OpenAI将云服务合作从微软扩展至亚马逊,达成价值380亿美元的服务器合作协议,并宣布了与微软Azure和甲骨文云的更大规模协议 [1][6] - 公司斥资65亿美元股权收购了由前苹果首席设计师Jony Ive领导的设计团队,开发可穿戴AI设备,产品可能要到2027年才能面世 [6] - OpenAI开始开发或控制用于技术研发的服务器集群,试图在基础设施层面获得更多自主权,以争夺消费和企业AI服务市场 [6] Meta:硬件领先与模型短板 - Meta在AI硬件设备领域取得显著进展,其Meta眼镜让该公司在AI驱动设备方面远超苹果等竞争对手 [7] - 但Meta在核心大语言模型技术上遭遇挫折,Llama 4未能实现重大性能提升,无法与现有领先者竞争 [7] - 为弥补短板,Meta在2025年大举收购人才,并正与谷歌洽谈使用TPU的协议,试图通过外部芯片资源提升AI训练能力 [7] xAI与Anthropic:快速追赶者 - xAI在大语言模型质量和基于英伟达的训练集群方面都有提升,其Grok为X应用的关键功能提供支持 [8] - 特斯拉在人形机器人领域似乎处于主要AI公司的领先位置,尽管其Optimus机器人仍面临“手部问题”等挑战 [8] - Anthropic获得了谷歌TPU价值200亿美元的订单,显示出其在模型领域的竞争力 [1][3] 人形机器人成为新竞争战场 - 2025年可称为机器人年,Anthropic、Meta和xAI等几乎所有主要AI公司都开始研发人形机器人技术 [11] - 谷歌、亚马逊和OpenAI都采取措施开发人形机器人软件或硬件,尽管都处于初级阶段 [11] - 亚马逊在可穿戴AI设备方面也有重大动作,以增强现实眼镜的形式推进 [11] 微软与英伟达的战略调整 - 微软在服务器芯片领域的唯一显著进展来自其持续开发的Maia芯片,但仍落后于大多数竞争对手,其策略更多体现在拓展与Anthropic的合作上 [12] - 英伟达通过最近的重组退出了与亚马逊AWS、谷歌云和微软Azure的正面竞争,但并未完全离开市场 [12] - 英伟达的GPU在AI训练中仍占据核心地位,谷歌、微软和亚马逊都在向其他公司提供基于英伟达芯片的服务器租赁服务 [12] 产业合作与相互依赖 - OpenAI将云服务合作从微软扩展至亚马逊,而微软则转向租赁服务器给Anthropic,并在产品中采购Anthropic模型 [1] - 谷歌的TPU已获得Anthropic订单,并正在与Meta洽谈,同时向OpenAI大规模提供英伟达服务器 [1] - 各公司试图减少对英伟达等关键供应商的依赖,但新结盟却让它们陷入更复杂的相互依赖之中 [1]
群狼围上来了,黄仁勋最大的竞争对手来了
36氪· 2025-12-12 10:16
美国政府批准英伟达对华销售H200芯片 - 美国政府正式批准英伟达向中国及其他“经批准的客户”出售高端H200 GPU芯片,但需缴纳25%的销售提成,此比例同样适用于AMD、英特尔等其他美国芯片巨头 [1] - 英伟达最新的Blackwell和未来的Rubin系列GPU仍然被禁止出口 [1] - 受此利好消息推动,英伟达股价盘后应声上涨 [1] 英伟达中国市场现状与影响 - 过去两年,受美国芯片禁运令限制,英伟达在AI GPU市场的中国份额从原先的95%急剧下滑 [1] - 在英伟达最核心的数据中心业务中,中国市场的营收占比从原先的四分之一急剧下滑 [1] - 英伟达CEO黄仁勋曾公开表示公司在中国市场“完全出局,市场份额已经归零” [2] - 即便缴纳25%提成,重新进入中国市场对英伟达意义重大,因为中国AI GPU市场规模今年估计高达200亿-300亿美元 [2] 主要云服务商加速自研AI芯片 - 英伟达最大的AI芯片客户——谷歌、亚马逊、微软三大超大规模云服务商正在加速普及自研芯片,以减少对英伟达的依赖 [2] - 英伟达数据中心业务营收高达1300亿美元(最近财年),但客户集中度过高,前两大客户营收占比39%,前三大客户营收占比高达53% [2] - 前三大客户(微软、谷歌、亚马逊)加速转用自研芯片,并拉拢英伟达的第四大客户(Meta),这直接减少英伟达订单并可能带来公开市场威胁 [3] 亚马逊AWS的自研芯片进展 - 亚马逊AWS发布新一代自研AI芯片Trainium 3,主打低成本与推理优势,被媒体誉为“对英伟达的直接宣战” [5] - Trainium 3训练速度比前代快4倍,成本减半,与英伟达相当的GPU系统相比可节省50%训练费用 [5] - 现场演示显示,Trainium 3在Llama 3.1训练中,仅需24小时完成相当于H100集群一周的任务 [5] - 对于采用其Neuron软件栈和Trainium实例的客户,基于Trainium的实例可将大型模型的训练和推理成本比同类GPU集群降低高达约50% [6] - AWS在云计算市场份额超过三成,排名第一,微软与谷歌市场份额分别为20%与16% [6] - OpenAI与AWS签署七年价值380亿美元的AI基础设施服务协议,Anthropic等AI初创公司已转向Trainium,节省了超过三成的预算 [6] - 亚马逊的目标是在明年达到50%的自研芯片占比,推动AWS在AI云市场份额从31%升至35% [17] 谷歌的自研芯片进展 - 谷歌发布第七代自研AI芯片TPU v7 Ironwood,单芯片FP8计算能力达4.6 PFLOPS,比第五代TPU提升10倍,是第六代TPU的4倍 [7][9] - Ironwood专为“高吞吐、低延迟”推理优化,相比英伟达Blackwell,在能效上领先20%,功耗仅300W/芯片 [9] - 谷歌声称使用TPU可将训练成本降低40% [10] - 2025年,谷歌的AI芯片市场份额预计已达到8%,尤其在占AI算力80%的推理领域 [9] - 谷歌TPU的外部销售占比已达到20%,并吸引了Meta等第三方客户,Meta计划在2027年部署谷歌TPU [10][17] - Anthropic与谷歌签署价值数百亿美元的协议,计划使用多达100万片TPU,其中包括40万片Ironwood [18] 微软的自研芯片进展与挑战 - 微软自研芯片首代Maia 100于2024年推出,今年开始大规模部署于Azure数据中心,预计比英伟达H100芯片成本低40% [11] - 但原计划今年发布的Maia 200(代号Braga)的大规模量产已推迟至2026年,主要由于设计变更、仿真不稳定等技术内部因素以及台积电产能瓶颈 [13] - 如果Maia二代不能及时规模部署,微软明年可能还要投入100亿美元购买英伟达芯片 [14] - 微软计划转向英特尔的18A节点,以期在明年实现量产 [14] 英伟达的技术优势与市场护城河 - 英伟达在AI芯片市场占据主导地位,其GPU产品线几乎垄断了八成以上的市场份额,公司市值一度突破5万亿美元 [2] - 英伟达Blackwell架构B200 GPU单芯片FP8计算能力达20 PFLOPS,比前代H100提升4倍,在推理任务中的能效比谷歌TPU高出30% [15] - 英伟达的核心护城河在于其CUDA平台,支持4000多个AI框架和库,拥有庞大的开发者生态 [15] - 黄仁勋宣称英伟达的GPU“领先竞争对手整整一代” [15] 未来市场竞争格局展望 - 2026年市场将上演“性能 vs 成本”的巅峰对决,英伟达强在性能与技术,而巨头自研芯片主打成本优势 [15] - 亚马逊计划在Trainium4上集成NVLink兼容技术,实现与英伟达GPU无缝混合部署,预计训练费用再降40% [16] - 2027年商用的谷歌TPU v8成本优势或达50%以上 [16] - AI巨头正通过“渐进式”策略蚕食英伟达的CUDA优势,例如谷歌的JAX和PyTorch/XLA集成已覆盖70% AI工作负载 [16] - AMD CEO苏姿丰认为,未来五年内,给ASIC类加速器(即巨头自研芯片)留出20%–25%的市场份额是合理的,GPU仍将占据大部分市场 [20] - 苏姿丰还计划AMD在未来3-5年,抢到两位数的市场份额 [20] - 英伟达在中国市场还要面临华为、寒武纪等本土竞争对手 [20]
英伟达市值缩水1.4万亿,黄仁勋套现10亿美元,释放的信号不简单
搜狐财经· 2025-11-06 01:37
核心观点 - 英伟达股价出现暴跌,市值单日蒸发超过1.4万亿元人民币,相当于一个半茅台的市值,同时公司CEO黄仁勋在股价跳水前减持股票套现10亿美元,引发市场对AI热潮可持续性的广泛讨论 [1] - 股价暴跌的直接导火索是财报中数据中心业务收入比华尔街最乐观预期少2亿美元,尽管该差额仅占470亿美元单季收入的0.4%,但导致市值蒸发1800亿美元,反映市场预期已极度高涨,任何业绩不及预期都可能引发大幅回调 [5] - 公司面临竞争加剧、客户自研芯片以及算力需求可能触及天花板的挑战,其高达70倍的市盈率显著高于苹果(30倍)和微软(40倍),存在估值回归压力,此次调整被视为挤泡沫而非行业崩盘,AI技术长期前景依然被看好 [6][8][9][11][12] 黄仁勋减持分析 - 黄仁勋通过美国证监会允许的"10b5-1交易计划"减持套现10亿美元,该计划提前设定减持时间和价格,属于合规操作,但从个人财务角度看,在股价历史高位(市值一度突破3万亿美元)减持实现收益具有合理性 [3] - 作为英伟达掌舵人和AI产业精神领袖,其减持行为被市场敏感解读,历史类似案例(如2000年互联网泡沫、2015年A股创业板泡沫)显示高管密集减持往往成为泡沫破裂前奏,引发市场对股价是否过高的疑虑 [3] 财报与市场预期 - 公司最新一季营收同比增长126%,净利润翻了三倍,但数据中心业务收入较华尔街最乐观预期低2亿美元(仅占470亿美元收入的0.4%),这一微小差距导致市值蒸发1800亿美元(约1.3万亿元人民币) [5] - 市场对英伟达估值已极度乐观(部分机构预测市值可达5万亿美元),基于"AI算力需求无限增长"的信仰,但业绩轻微不及预期暴露了股价脱离基本面的风险,凸显增长并非永动机 [5][6] 竞争与行业挑战 - 英伟达在AI算力硬件领域具有垄断地位,全球超过80%的AI大模型训练依赖其GPU芯片,但护城河正面临侵蚀:大客户如谷歌、亚马逊、微软、Meta纷纷自研芯片(如TPU、Trainium、Maia),以减少依赖甚至成为竞争对手 [8] - AMD的MI300芯片以性价比抢占市场,性能接近英伟达H100但价格更低,英特尔AI芯片获得订单,特斯拉也传闻自研AI芯片,行业竞争加剧 [8] - 算力需求可能触及天花板,训练顶级大模型耗电量相当于10万人城市一年用电量,数据中心建设需500兆瓦电力(约半个三峡电站装机容量),全球电网承载压力或导致企业放缓GPU采购速度 [9] AI行业前景 - 英伟达股价暴跌更可能是一次估值回归而非AI行业崩盘,AI技术确实在改变医疗、制造、自动驾驶等领域,但资本市场炒作已透支未来3-5年预期,当前进入挤泡沫阶段 [11] - 类比2010年移动互联网泡沫,大量炒作公司倒闭后,真正有技术实力的企业(如苹果、谷歌)成为时代巨头,AI行业可能经历类似过程,泡沫调整后技术将更扎实落地 [11][12] - 黄仁勋减持行为可能反映其对市场的敬畏而非看空AI,其长期危机感(称"33年来每分钟都在压力中")或是公司持续成长的原因,行业热潮处于中场休息而非终场散席阶段 [11][12][13]
Marvell最艰难的阶段或已过去
美股研究社· 2025-10-06 15:10
AI定制加速芯片市场竞争格局 - AI专用加速芯片(ASIC)市场竞争呈现双雄争霸格局,博通是行业绝对领导者,掌握最大市场份额[1] - 美满科技在去年取得不错表现,但竞争加剧直接打乱了其拿下20%市场份额的目标[1] - 整个AI加速芯片市场保持50%-60%的年复合增长率,博通CEO表示其AI业务至少能保持60%增长[2] - 英伟达预计AI基础设施整体市场规模达3至4万亿美元,对应50%-60%年化增速[2] 美满科技当前业务状况 - 公司AI芯片业务高度依赖两家超级客户亚马逊AWS和微软Azure[2] - 今年AI收入增长预计不到50%,2026财年AI相关收入预计在30至35亿美元之间[3] - AWS将部分Trainium芯片项目转交给台湾Alchip等竞争对手,拖累了公司增速[3] - 公司面临网络业务疲软问题,多家新兴厂商正在蚕食其在数据中心互联领域的市场份额[5] - 公司在今年6月业绩会上将AI市场增长预期上调至53%[5] 微软Maia项目带来的机遇 - 微软正在加速推进自研AI加速芯片计划,即将推出名为"Maia"的AI加速芯片[7] - 微软计划将Azure平台上更多AI工作负载迁移至Maia,预计2026年前实现量产[7] - 根据业内惯例,如果微软要在2026年投产,美满科技很可能已在协助进行芯片设计[7] - 假设公司从微软Maia项目获得5至10亿美元额外收入,2026财年营收可能接近105亿美元[8] - 在7-8倍FY26销售倍数的估值区间内,公司股价已具备较强吸引力[8] 公司积极信号与财务展望 - 公司连续推出两项大规模回购计划(50亿美元常规回购+10亿美元加速回购)[7] - 回购计划伴随着高管内部大量增持,表明公司对未来业绩极度自信[7] - 分析师预计公司AI收入约30亿美元,推动2025财年数据中心业务收入达60亿美元[7] - 2025财年整体营收预计约81.5亿美元,同比增长41%[7] 面临的竞争风险 - 公司最大风险依旧是竞争加剧,AWS的Trainium项目虽趋于稳定但仍存在分流可能[8] - 当前公司似乎是微软Maia项目独家芯片设计合作方,但若产能、良率出问题可能失去份额[8]
全球AI云战场开打:微软云、AWS 向左,谷歌、阿里云向右
雷峰网· 2025-09-20 19:01
AI云行业竞争格局 - AI云成为云计算赛道新一轮入场券 决定厂商能否摆脱价格战泥潭和重建护城河 [2] - 全球范围内仅存四朵超级AI云:美国AWS、微软、谷歌以及中国阿里云 [2][11] AI云核心评判标准 - 模型调用量体现市场接受度但不足以定义超级AI云 需通过四大硬核能力评估 [6] - 千亿级年度基础设施投入是基础门槛 谷歌850亿美元/微软800亿美元/AWS超1000亿美元资本开支计划 [6] - 百万级计算集群与云计算调度能力决定产业级大模型承载水平 [8] - 跨场景跨行业的顶级大模型能力需兼顾精准性与创造性 [9] - AI芯片自主布局对算力扩展和成本控制具有战略意义 尤其针对中国厂商 [10] 厂商能力对比分析 - 百度全栈能力突出但财力受限 2024年81亿资本开支仅为阿里767亿的10% 2025年300-500亿仍落后 [10] - 火山引擎资本充足 2024年800亿/2025年1500-1600亿开支 但算力调度技术积累存在短板 [10] - 全球仅四家具备全能力:微软/亚马逊/谷歌/阿里 [11] 两种发展模式对比 云+生态模式(AWS/微软) - 提供基础设施+开放外部模型合作 降低研发投入风险并增强平台吸引力 [15] - AWS通过SageMaker/Bedrock接入OpenAI/Anthropic/阿里Qwen3/DeepSeek等多模型 [14] - 微软依赖OpenAI合作 Azure年收入超750亿美元且增长34% 但面临合作方分流风险 [17] - OpenAI迁移部分训练至Google Cloud/Oracle 分成比例从20%降至8% [17] - 微软引入Meta/Mistral等多模型以减少技术依赖 [18] 全栈自研模式(谷歌/阿里) - 芯片-算力-模型全链路自研 实现技术协同与战略自主 [19] - 盈利空间更高无需分账 谷歌云AI收入达数十亿美元且订单积压1060亿美元 [20] - 谷歌TPU芯片与PaLM模型深度适配 阿里自研芯片与通义千问高度优化 [19][24] - 阿里云凭借双十一极端场景淬炼的算力调度体系 中国AI市场占比35.8%位居第一 [23] - 阿里三年投入3800亿建设基础设施 2025年Q2资本开支同比激增220% [24] - 通义千问开源模型衍生数量突破17万 形成全球最大AI模型社区 [24] 中国厂商特殊挑战 - 高端GPU供应受限倒逼自主芯片研发 阿里自研芯片已落地 [10][24] - 中国互联网场景复杂度全球独有 为算力调度体系提供极端测试环境 [23]
黄仁勋重申,大多数ASIC都得死
半导体行业观察· 2025-06-12 08:42
英伟达对ASIC竞争的看法 - 公司CEO黄仁勋认为英伟达的增长速度将持续超过ASIC,因为约90%的ASIC项目会失败,而英伟达凭借快速技术迭代和成本优化能保持领先 [2] - ASIC需同时与英伟达产品及其他ASIC竞争,但公司通过架构优化和规模化部署建立了难以复制的技术壁垒 [2][3] - 尽管微软Maia、亚马逊Graviton等科技巨头开发ASIC,公司认为性能不足的定制芯片无法撼动其市场地位 [3][4] NVLink Fusion技术战略 - 公司开放NVLink生态系统,推出NVLink Fusion技术,允许第三方CPU/加速器通过NVLink C2C与英伟达GPU互连,构建半定制机架 [5][7] - 技术包含两部分:1) 支持非英伟达CPU连接GPU(基于2022年NVLink C2C方案) 2) 新增NVLink 5 Chiplet使第三方加速器接入NVLink网络 [9][11][12] - 当前限制为系统必须包含至少一块英伟达芯片,且不允许同时使用第三方CPU和GPU,主要出于商业考量而非技术障碍 [14] 技术细节与合作伙伴 - NVLink最初用于GPU间高速互连,现已扩展至机架级(如72 GPU的NVL72系统),成为公司核心技术之一 [6][7] - 首批合作伙伴包括Alchip、AsteraLabs等加速器开发商,以及富士通Monaka ARM芯片、高通数据中心CPU等CPU厂商 [15] - Cadence和Synopsys提供IP设计支持,降低第三方硬件集成门槛 [16] 市场影响与行业动态 - 此举回应了客户对灵活架构的需求,尤其在Grace Blackwell方案未覆盖的AI加速器领域,可能改变行业生态格局 [14][15] - 公司通过技术开放巩固生态主导权,同时保护GPU核心利润,第三方替代方案仍受制于英伟达硬件依赖 [13][14]
黄仁勋重申,大多数ASIC都得死
半导体行业观察· 2025-06-12 08:41
英伟达对ASIC竞争的看法 - 黄仁勋认为英伟达的增长速度将持续超过ASIC,因为约90%的ASIC专案会失败,即使成功也可能难以为继 [1] - 英伟达通过快速技术进展、架构优化和成本降低保持竞争优势,ASIC必须与英伟达竞争且相互竞争 [1] - 开发ASIC不难但部署困难,需要大量资金和专业知识,目前只有英伟达具备大规模AI硬件部署能力 [3] - 英伟达认为ASIC无法取代其现有芯片,如果能提供更好技术则开发ASIC无意义 [3] NVLink Fusion技术细节 - NVLink Fusion允许第三方CPU和加速器通过NVLink C2C连接到英伟达GPU,实现半定制机架设计 [5][7] - 该技术捆绑两种技术:半定制CPU连接和NVLink 5 Chiplet集成 [9][13] - NVLink 5 Chiplet使第三方加速器能接入NVLink网络,但英伟达未授权NVLink 5技术本身 [14] - 系统供应商可选择集成半定制CPU或GPU,但不能同时使用两者 [15] NVLink技术发展历程 - NVLink最初于2016年推出,作为PCIe替代方案用于GPU间高速互连 [6] - 通过提升带宽、扩展覆盖范围和增强电气连接能力,支持72个GPU的NVL72机架 [6] - 此前仅支持纯英伟达系统如Grace Hopper和Grace Blackwell配置 [7] 行业合作伙伴动态 - Alchip、AsteraLabs、Marvell和联发科正在研发集成NVLink Fusion的加速器 [16] - 富士通和高通开发支持NVLink Fusion的新型CPU,可与英伟达GPU配对 [16] - Cadence和Synopsys作为技术合作伙伴提供IP块和设计服务 [17]