AI芯片
搜索文档
群狼围上来了,黄仁勋最大的竞争对手来了
36氪· 2025-12-12 10:16
美国政府批准英伟达对华销售H200芯片 - 美国政府正式批准英伟达向中国及其他“经批准的客户”出售高端H200 GPU芯片,但需缴纳25%的销售提成,此比例同样适用于AMD、英特尔等其他美国芯片巨头 [1] - 英伟达最新的Blackwell和未来的Rubin系列GPU仍然被禁止出口 [1] - 受此利好消息推动,英伟达股价盘后应声上涨 [1] 英伟达中国市场现状与影响 - 过去两年,受美国芯片禁运令限制,英伟达在AI GPU市场的中国份额从原先的95%急剧下滑 [1] - 在英伟达最核心的数据中心业务中,中国市场的营收占比从原先的四分之一急剧下滑 [1] - 英伟达CEO黄仁勋曾公开表示公司在中国市场“完全出局,市场份额已经归零” [2] - 即便缴纳25%提成,重新进入中国市场对英伟达意义重大,因为中国AI GPU市场规模今年估计高达200亿-300亿美元 [2] 主要云服务商加速自研AI芯片 - 英伟达最大的AI芯片客户——谷歌、亚马逊、微软三大超大规模云服务商正在加速普及自研芯片,以减少对英伟达的依赖 [2] - 英伟达数据中心业务营收高达1300亿美元(最近财年),但客户集中度过高,前两大客户营收占比39%,前三大客户营收占比高达53% [2] - 前三大客户(微软、谷歌、亚马逊)加速转用自研芯片,并拉拢英伟达的第四大客户(Meta),这直接减少英伟达订单并可能带来公开市场威胁 [3] 亚马逊AWS的自研芯片进展 - 亚马逊AWS发布新一代自研AI芯片Trainium 3,主打低成本与推理优势,被媒体誉为“对英伟达的直接宣战” [5] - Trainium 3训练速度比前代快4倍,成本减半,与英伟达相当的GPU系统相比可节省50%训练费用 [5] - 现场演示显示,Trainium 3在Llama 3.1训练中,仅需24小时完成相当于H100集群一周的任务 [5] - 对于采用其Neuron软件栈和Trainium实例的客户,基于Trainium的实例可将大型模型的训练和推理成本比同类GPU集群降低高达约50% [6] - AWS在云计算市场份额超过三成,排名第一,微软与谷歌市场份额分别为20%与16% [6] - OpenAI与AWS签署七年价值380亿美元的AI基础设施服务协议,Anthropic等AI初创公司已转向Trainium,节省了超过三成的预算 [6] - 亚马逊的目标是在明年达到50%的自研芯片占比,推动AWS在AI云市场份额从31%升至35% [17] 谷歌的自研芯片进展 - 谷歌发布第七代自研AI芯片TPU v7 Ironwood,单芯片FP8计算能力达4.6 PFLOPS,比第五代TPU提升10倍,是第六代TPU的4倍 [7][9] - Ironwood专为“高吞吐、低延迟”推理优化,相比英伟达Blackwell,在能效上领先20%,功耗仅300W/芯片 [9] - 谷歌声称使用TPU可将训练成本降低40% [10] - 2025年,谷歌的AI芯片市场份额预计已达到8%,尤其在占AI算力80%的推理领域 [9] - 谷歌TPU的外部销售占比已达到20%,并吸引了Meta等第三方客户,Meta计划在2027年部署谷歌TPU [10][17] - Anthropic与谷歌签署价值数百亿美元的协议,计划使用多达100万片TPU,其中包括40万片Ironwood [18] 微软的自研芯片进展与挑战 - 微软自研芯片首代Maia 100于2024年推出,今年开始大规模部署于Azure数据中心,预计比英伟达H100芯片成本低40% [11] - 但原计划今年发布的Maia 200(代号Braga)的大规模量产已推迟至2026年,主要由于设计变更、仿真不稳定等技术内部因素以及台积电产能瓶颈 [13] - 如果Maia二代不能及时规模部署,微软明年可能还要投入100亿美元购买英伟达芯片 [14] - 微软计划转向英特尔的18A节点,以期在明年实现量产 [14] 英伟达的技术优势与市场护城河 - 英伟达在AI芯片市场占据主导地位,其GPU产品线几乎垄断了八成以上的市场份额,公司市值一度突破5万亿美元 [2] - 英伟达Blackwell架构B200 GPU单芯片FP8计算能力达20 PFLOPS,比前代H100提升4倍,在推理任务中的能效比谷歌TPU高出30% [15] - 英伟达的核心护城河在于其CUDA平台,支持4000多个AI框架和库,拥有庞大的开发者生态 [15] - 黄仁勋宣称英伟达的GPU“领先竞争对手整整一代” [15] 未来市场竞争格局展望 - 2026年市场将上演“性能 vs 成本”的巅峰对决,英伟达强在性能与技术,而巨头自研芯片主打成本优势 [15] - 亚马逊计划在Trainium4上集成NVLink兼容技术,实现与英伟达GPU无缝混合部署,预计训练费用再降40% [16] - 2027年商用的谷歌TPU v8成本优势或达50%以上 [16] - AI巨头正通过“渐进式”策略蚕食英伟达的CUDA优势,例如谷歌的JAX和PyTorch/XLA集成已覆盖70% AI工作负载 [16] - AMD CEO苏姿丰认为,未来五年内,给ASIC类加速器(即巨头自研芯片)留出20%–25%的市场份额是合理的,GPU仍将占据大部分市场 [20] - 苏姿丰还计划AMD在未来3-5年,抢到两位数的市场份额 [20] - 英伟达在中国市场还要面临华为、寒武纪等本土竞争对手 [20]
股价却一度大跌10%!Rivian放大招挑战英伟达:AI芯片+L4路线公布
美股IPO· 2025-12-12 10:04
公司技术战略发布 - 公司周四发布自研AI芯片RAP1、下一代车载电脑Autonomy Compute Module 3及新AI模型,计划在2026年推出的R2车型上替代英伟达方案 [1][3] - 两颗RAP1芯片驱动的新系统每秒可处理50亿个像素,性能是当前英伟达系统的四倍,芯片内存带宽达每秒205GB [3] - 公司押注激光雷达与L4自动驾驶路线,认为激光雷达成本已大幅下降,是车辆成本中非常小的一部分,并强调其对于监测环境、补充其他传感器的重要价值 [1][8][10] 软件订阅服务与商业化 - 公司计划在2026年初为第二代车型客户推出名为“Autonomy+”的订阅服务,功能将持续扩展 [4] - Autonomy+定价为一次性2,500美元,或每月49.99美元起,显著低于竞争对手特斯拉FSD服务的一次性8,000美元或每月99美元 [4][16] - 公司期望通过软件业务打开更高利润空间,终极目标是实现L4自动驾驶,并可能进入共享出行/机器人出租车领域 [1][11][12] 自动驾驶功能路线图 - 从2027年开始,公司将逐步推出软件版本,使车辆能够在驾驶员无需手扶方向盘或注视道路的情况下实现点到点行驶,初期仅限于高速公路 [11] - 未来几周将向现有车主推送扩展后的“Universal Hands Free”版本,使免手辅助驾驶道路范围从目前的13.5万英里大幅提升至350万英里 [14] - 下一代点到点导航版本预计明年推出,车辆能导航、转弯和变道,但仍需驾驶员注视道路 [15] 市场反应与公司背景 - 技术发布后,投资者反应冷淡,公司股价一度下跌10%,今年股价虽上涨约25%,但较2021年IPO后高点仍下跌超过80% [1][3][6] - 公司2021年上市是美国史上规模最大的IPO之一,但目前运营遇困,其唯一工厂今年预计产量不到5万辆,远低于产能上限,且持续烧钱和裁员 [13] - 大众汽车承诺向双方合资项目投入近60亿美元,以利用公司在软件和电子方面的专长,公司也持续从特斯拉、苹果和硅谷招募人才 [13] 行业竞争格局 - 大多数车企依赖英伟达、Mobileye或高通等专业芯片商,因自研AI芯片技术难度高、成本昂贵 [8] - 特斯拉是例外,其自研车载芯片并坚持“纯视觉”路线,认为激光雷达等传感器成本太高 [8] - 英伟达汽车芯片业务目前占总销售额约1%,公司正在努力提升这一占比 [8]
英伟达对华芯片出口限制缓和,亚马逊Trainium3正式推出 | 投研报告
中国能源网· 2025-12-12 10:03
英伟达对华芯片出口管制动态 - 英伟达首席执行官黄仁勋于美国时间12月3日与特朗普及多位国会关键议员会面,游说美国政府放松向部分海外市场销售先进AI芯片的限制 [1] - 英伟达的游说取得关键成果,原计划要求芯片制造商优先满足美国客户需求的《GAIN AI法案》预计将不会被纳入美国年度国防法案 [1] - 英伟达目前已就向中国出售更高端的H200芯片与白宫进行了初步谈判,若获批准,可能对其在华业务前景产生重要影响 [1] - 考虑到中国此前以A系列和H系列为主且代码多基于Hopper架构,若美国允许H200出口,其真正进入中国市场的概率可能会变大 [1] 亚马逊AWS自研AI芯片进展 - 亚马逊云科技(AWS)于当地时间12月2日在2025 re:Invent全球大会上宣布推出第三代定制AI芯片Trainium3 [2] - Trainium3是公司首款采用3纳米工艺节点制造的芯片,其性能较上一代提升4倍 [2] - 与同等GPU系统相比,Trainium3可将AI模型训练和运行成本降低40% [2] - 每颗Trainium3芯片配备144GB HBM3E高带宽内存,提供4.9TB/s的内存带宽,并可实现略高于2.5PFLOPS的密集FP8运算性能 [2] - AWS确认正在开发下一代Trainium4芯片,预计在FP4精度运算下将运算性能提升6倍,内存带宽提升4倍,内存容量增加2倍 [2] - Trainium4芯片将支持英伟达的NVLink Fusion高速互连技术,能够在英伟达的MGX机架中与GPU无缝协同工作 [2] 相关产业链关注建议 - 研究报告建议关注天孚通信、中际旭创、立讯精密、东山精密、胜宏科技、生益科技、源杰科技、东田微、东材科技等公司 [2]
群狼围上来了!黄仁勋最大的竞争对手来了
新浪科技· 2025-12-12 08:24
美国政府批准英伟达对华销售H200芯片 - 美国政府正式批准英伟达向中国及其他“经批准的客户”出售高端H200 GPU芯片,但需缴纳25%的销售提成,此比例同样适用于AMD、英特尔等其他美国芯片巨头 [1] - 英伟达最新的Blackwell和未来的Rubin系列GPU仍然被禁止出口 [1] - 受此利好消息推动,英伟达股价盘后应声上涨 [1] 英伟达在中国市场的现状与影响 - 过去两年,受美国芯片禁运令限制,英伟达逐步失去了迅猛增长的中国市场,丢掉了在AI GPU市场原先高达95%的份额 [1] - 在英伟达最核心的数据中心业务中,中国市场的营收占比从原先的四分之一急剧下滑 [1] - 黄仁勋曾公开表示公司在中国市场“完全出局,市场份额已经归零” [2] - 即便缴纳25%提成,重新进入中国市场对英伟达意义重大,因为中国AI GPU市场规模今年估计高达200亿-300亿美元 [2] 主要云服务巨头的自研芯片战略 - 英伟达最大的AI芯片客户——谷歌、亚马逊、微软(超大规模云服务商)正在加速普及自研芯片,以减少对英伟达的依赖 [2] - 英伟达数据中心业务营收高达1300亿美元(最近财年),但客户集中度过高,前两大客户营收占比39%,前三大客户占比高达53% [2] - 前三大客户(微软、谷歌、亚马逊)加速转用自研芯片,并拉拢英伟达的第四大客户(据媒体猜测为Meta),这直接威胁英伟达的订单和市场竞争地位 [3] 亚马逊AWS的自研芯片进展 - 亚马逊AWS发布新一代自研AI芯片Trainium 3,被媒体誉为“对英伟达的直接宣战” [5][6] - Trainium 3训练速度比前代快4倍,成本减半,与英伟达相当的GPU系统相比可节省50%训练费用 [6] - 现场演示显示,Trainium 3在Llama 3.1训练中,仅需24小时完成相当于H100集群一周的任务 [6] - AWS将Trainium 3定位为英伟达GPU的低成本替代品,采用其Neuron软件栈和Trainium实例的客户,可将大型模型的训练和推理成本降低高达约50% [6] - AWS计划用自研芯片、模型和部署方案掌控从训练到推理的整条AI赛道 [7] - AWS在云计算市场份额超过三成(31%),领先于微软(20%)和谷歌(16%) [7] - OpenAI与AWS签署了七年价值380亿美元的AI基础设施服务协议,Anthropic等初创公司已转向Trainium,节省了超过三成的预算 [7] 谷歌的自研芯片进展 - 谷歌发布第七代自研TPU芯片v7 Ironwood,单芯片FP8计算能力达4.6 PFLOPS,比第五代TPU提升10倍,是第六代的4倍 [8][10] - 相比英伟达Blackwell,Ironwood在能效上领先20%,功耗仅300W/芯片 [11] - 谷歌TPU已覆盖从边缘设备到超大规模Pod的全栈,不仅是硬件,更是云生态的“杀手锏” [11] - 2025年,谷歌的AI芯片市场份额预计已达到8%,尤其在占AI算力80%的推理领域 [12] - 谷歌声称使用TPU可将训练成本降低40%,并已吸引Meta等第三方客户 [12] - Meta计划在2027年部署谷歌TPU,而Meta是英伟达AI芯片的第四大客户 [12] - 谷歌TPU的外部销售占比已达到20% [22] - Anthropic与谷歌签署价值数百亿美元的协议,计划使用多达100万片TPU,其中包括40万片Ironwood [23] 微软的自研芯片进展与挑战 - 微软自研芯片首代Maia 100于2024年推出,已部署于Azure数据中心,预计比英伟达H100芯片成本低40% [13] - 但原计划今年发布的Maia 200(代号Braga)的大规模量产已推迟至2026年,主要由于设计变更、仿真不稳定等技术因素以及台积电产能瓶颈 [13][15] - 微软未来将“主要使用自家芯片”,以减少对英伟达的严重依赖 [15] - 由于在台积电产能竞争中处于非优先级,微软转向英特尔18A节点计划在明年实现量产 [16] - 如果Maia二代不能及时规模部署,微软明年可能还要投入100亿美元购买英伟达芯片 [16] 英伟达的竞争优势与市场地位 - 英伟达是生成式AI时代的领军公司,在AI芯片这个万亿级赛道中,其GPU产品线几乎垄断了八成以上的市场份额 [2] - 公司是全球最具价值的上市公司,市值一度突破5万亿美元 [2] - 英伟达Blackwell架构B200 GPU单芯片FP8计算能力达20 PFLOPS,比前代H100提升4倍 [18] - 在推理任务中,Blackwell的能效比谷歌TPU高出30% [18] - 英伟达的核心护城河在于其CUDA平台,支持4000多个AI框架和库,拥有庞大的开发者生态 [18] 未来市场竞争格局展望 - 2025年三大巨头发布最新自研芯片,预示着2026年将是“性能 vs 成本”的巅峰对决 [18] - 性能技术是英伟达的核心优势,而巨头自研芯片主要强调成本优势 [18] - 亚马逊Trainium3宣称可将训练成本降至前代的50%,谷歌Ironwood TPU在推理任务中能效比英伟达H100高出20-30% [19] - AI巨头正通过“渐进式”策略蚕食英伟达的CUDA优势,例如谷歌的JAX和PyTorch/XLA集成已覆盖70% AI工作负载 [20] - 亚马逊AWS计划在Trainium4上集成NVLink兼容技术,实现与英伟达GPU无缝混合部署,预计训练费用再降40% [20] - 2027年商用的谷歌TPU v8成本优势或达50%以上 [20] - 亚马逊AWS的目标是在明年达到50%的自研芯片占比,推动其在AI云市场份额从31%升至35% [22] - AMD CEO苏姿丰认为,在未来五年内,ASIC类加速器(如三大巨头的自研芯片)可能占据20%-25%的市场份额,GPU仍将占据市场大部分份额 [26] - 苏姿丰还计划AMD在未来3-5年,抢到两位数的市场份额 [26] - 英伟达在中国市场同样面临华为、寒武纪等本土竞争对手 [26]
群狼围上来了!黄仁勋最大的竞争对手来了|硅谷观察
新浪财经· 2025-12-12 07:28
美国政府放宽对华芯片出口限制 - 美国政府正式批准英伟达向中国及其他“经批准的客户”出售高端H200 GPU芯片,但需缴纳25%的销售提成,此比例同样适用于AMD、英特尔等其他美国芯片巨头 [2][23] - 英伟达最新的Blackwell和未来的Rubin系列GPU仍然被禁止出口 [2][23] - 此举是英伟达首席执行官黄仁勋长达数月游说的结果,消息推动公司股价盘后上涨 [2][23] 英伟达的市场地位与潜在风险 - 英伟达是生成式AI时代的领军公司,在AI芯片万亿级赛道中,凭借性能优势和CUDA平台占据主导,其GPU产品线垄断了80%以上的市场份额,公司市值一度突破5万亿美元 [3][25] - 公司数据中心业务最近财年营收高达1300亿美元,但客户集中度过高,前两大客户营收占比39%,前三大客户营收占比高达53% [3][25] - 其前五大客户被认为是微软、谷歌、亚马逊、Meta和甲骨文,而前三大客户正在加速转用自研芯片,并拉拢第四大客户Meta,这直接威胁英伟达的订单和市场竞争地位 [4][25] 亚马逊AWS的自研芯片进展 - 亚马逊AWS发布第三代自研AI芯片Trainium 3,主打低成本与推理优势,训练速度比前代快4倍,成本减半 [6][27] - 与英伟达相当的GPU系统相比,Trainium 3可节省50%训练费用,在Llama 3.1训练中,仅需24小时完成相当于H100集群一周的任务 [6][27] - AWS计划通过自研芯片、模型及服务掌控整条AI赛道,其目标是明年达到50%的自研占比,推动AWS在AI云市场份额从31%升至35% [7][17][40] - AWS在云计算市场保持领先,份额超过三成,OpenAI已与其签署七年价值380亿美元的AI基础设施服务协议 [7][28] 谷歌TPU的竞争威胁 - 谷歌发布第七代TPU v7 Ironwood,单芯片FP8计算能力达4.6 PFLOPS,比第五代提升10倍,是第六代的4倍 [8][10][31] - 相比英伟达Blackwell,Ironwood在能效上领先20%,功耗仅300W/芯片,专为高吞吐、低延迟推理优化 [10][31] - 谷歌TPU市场份额在2025年预计已达到8%,尤其在占AI算力80%的推理领域,其使用可将训练成本降低40% [10][32] - Meta计划在2027年部署谷歌TPU,这将对作为英伟达第四大客户的Meta形成双重打击 [11][32] - 谷歌已开始向外部客户销售TPU,外部销售占比达20%,并与Anthropic签署价值数百亿美元协议,计划使用多达100万片TPU [18][40][41] 微软自研芯片的挑战与延误 - 微软自研芯片Maia 100已于2024年推出并开始部署,预计比英伟达H100成本低40% [11][12][33] - 但原计划今年发布的Maia 200(代号Braga)大规模量产已推迟至2026年,主要因设计变更、仿真不稳定等技术问题及台积电产能瓶颈 [11][14][36] - 由于在台积电抢不到产能优先级,微软转向英特尔18A节点计划明年量产,若Maia二代不能及时部署,公司明年可能需额外投入100亿美元购买英伟达芯片 [15][37] 性能与成本的行业对决 - 英伟达在性能上保持领先,其Blackwell架构B200 GPU单芯片FP8计算能力达20 PFLOPS,比前代H100提升4倍,在推理任务中能效比谷歌TPU高出30% [16][38] - 英伟达的核心护城河还包括CUDA平台,其支持超过4000个AI框架和库,拥有庞大的开发者生态 [16][39] - 云巨头的自研芯片主要卖点是成本优势:亚马逊Trainium 3可将训练成本降低50%;谷歌Ironwood TPU在推理任务中能效比英伟达H100高出20-30% [17][39] - 巨头正通过软件生态(如谷歌JAX、AWS Neuron SDK、微软DirectML)渐进式蚕食英伟达优势,并计划未来进一步降低成本(如Trainium4再降40%,TPU v8成本优势或达50%以上) [17][39][40] 未来市场竞争格局展望 - AMD CEO苏姿丰预计,未来五年内,三大巨头的自研ASIC类加速器可能占据20%-25%的市场份额 [20][21][43] - 苏姿丰还计划AMD在未来3-5年内抢占两位数的市场份额 [21][43] - 尽管加速部署自研芯片,但云巨头未来几年仍将继续采购英伟达产品以维持供应关系 [18][41] - 英伟达在中国市场还将面临华为、寒武纪等本土竞争对手的挑战 [21][43]
理解算力,才能理解数字社会
人民日报· 2025-12-12 05:56
文章核心观点 - 算力正从技术术语演变为推动社会结构性变革的核心力量 其影响力堪比工业时代的蒸汽机和现代社会的电网 正在改变社会节奏、产业逻辑和公共决策 [1] - 理解算力社会的目的并非钻研技术本身 而是为了帮助更广泛的群体理解自身在由算力编织的新社会中的位置与方向 [2] 算力的社会角色与影响 - 算力正持续推动结构性变化 政策文件频繁提及 媒体热议“东数西算”“超算中心”“AI芯片”等概念 企业决策日益依赖模型分析与数据模拟 [1] - 讨论焦点应从“技术如何实现”转向“社会如何转型” 应关注趋势形成过程和结构变化中的关系重组 而非单一产品的更新周期或局部技术的短期爆发 [1] 算力生态的系统性特征 - 算力生态并非自然生长或平衡的系统 其运行依赖能源支撑、制度参与、商业投资、人才培养、数据供给等多种要素的持续投入 [1] - 使用“生态”一词旨在强调该结构的联动性、演化性与系统关联 [1] 社会对算力的关键考量 - 面对算力带来的变化 社会需保持清醒 算力是否公平可得、是否高效可用、是否安全可信 将直接影响社会的运行底线 [1] 书籍定位与目标读者 - 书籍旨在为广泛读者提供进入“计算社会”的入口 而非面向程序员的工具手册或管理者的操作指南 [2] - 读者可从自身视角解读 并用个人经验验证书中的逻辑结构 [2]
国产最强AI芯片可能已上市,美国慌了,批准英伟达H200卖给中国
新浪财经· 2025-12-12 05:16
日前美国突然批准英伟达的高端AI芯片H200对华出售,与之前仅允许阉割版的H20对华出售形成鲜明对 比,导致美国如此做的原因很可能是中国的先进AI芯片可能已悄然量产并交付给企业使用,这可能才 是促使美国迅速改变政策的原因。 AI芯片说难,确实可能很难,但是又未必真的那么难。对比英伟达上一代AI芯片A100,中国就有芯片 企业宣称自己的AI芯片已可以媲美A100了,几年时间过去国产AI芯片追上H200的可能性还是有的。 其实不仅中国芯片企业在积极研发AI芯片,美国诸多芯片企业也在研发AI芯片,同为GPU芯片企业的 AMD开发的AI芯片在性能方面未必就输给英伟达,芯片巨头Intel也积极研发AI芯片,只是他们都受制 于英伟达的生态。 生态的英伟达的重要护城河,所谓生态即使这么多年全球AI行业都基于英伟达的CUDA平台开发,由此 英伟达的CUDA平台就成了生态,采用英伟达的AI芯片就可以与诸多AI软件实现完美兼容,这是 AMD、Intel的AI芯片始终难以挑战英伟达的原因。 既然谷歌都可以用自己的TPU芯片提供足够媲美英伟达高端AI芯片的算力,那么中国诸多的GPU芯片企 业和AI芯片企业当然也可以研发出媲美英伟达高 ...
摩尔线程:一场火爆的、“脱离地心引力的”估值实验
财富FORTUNE· 2025-12-11 21:05
"国产GPU第一股"摩尔线程登陆科创板后的第五日,其股价突破900元,成为仅次于贵州茅台与寒武纪 的A股单价第三高公司,收盘总市值突破4400亿元,较其上市首日增长56%,与寒武纪最新市值也仅相 差1400亿元。 图片来源:视觉中国 根据摩尔线程在IPO中的首轮问询回复,在国内AI芯片市场中,2024 年,英伟达(全功能GPU)、华为 海思(ASIC)以及AMD(GPGPU)在国内AI芯片市场中的市场份额分别为54.4%,21.4%,15.3%,摩 尔线程在国内GPU市场中的份额占比低于1%。 12月5日为摩尔线程上市首日,其股价已暴涨逾4倍,市值冲至2823亿元,打新者中一签盈利最高接近28 万元。而与尚未盈利的硬科技新贵市值如火箭般蹿升形成尖锐对比的是,同期A股市场整体情绪持续低 迷以及价值投资者面对不断缩水的账户陷入失语状态。摩尔线程的这场资本盛宴,不仅是一次个股的狂 欢,更成为观测当下市场逻辑剧变的典型样本,也对A股的价值投资者提出新的课题。 摩尔线程估值之"奇",在于即便按2025年前三季度7.85亿元营收估算,其当前动态市销率也接近300 倍。这一估值水平将国内同行远远甩在身后:业务更为成熟、已实 ...
EDA龙头,营收狂飙38%
半导体芯闻· 2025-12-11 18:11
公司最新财报表现 - 2025财年第四季度(截至2025年10月31日)营收达22.6亿美元,同比增长37.8%,略高于市场预期的22.5亿美元 [2] - 经调整后每股盈余为2.90美元,低于2024年同期的3.40美元,但优于华尔街预期的2.78美元 [2] - 公司预计2026财年第一季度营收在23.6亿美元至24.2亿美元之间,中位数高于华尔街预期的23.8亿美元 [3] - 公司预计2026财年第一季度经调整每股盈余在3.52美元至3.58美元之间,高于华尔街平均预期的3.36美元 [3] 核心业务部门表现 - “设计自动化”部门是公司营运金鸡母,该部门负责半导体设计软件、验证平台和IC制造软件销售业务 [2] - 该部门第四季度营收同比增长65%,从2024年同期的11.2亿美元攀升至18.5亿美元 [2] - 该部门营收占总营收比例高达八成,显示AI芯片设计热潮持续推升EDA工具需求 [2] 行业需求与增长动力 - AI与高效能运算需求强劲,带动客制化ASIC芯片订单涌现,是公司业绩超预期的主要动力 [2] - 为降低AI服务营运成本,各大科技巨头加速投入自研AI芯片,并依赖EDA软件缩短复杂的IC设计流程,使公司订单动能强劲 [3] 重要战略合作 - AI芯片霸主NVIDIA宣布以20亿美元入股公司,双方将携手推动加速运算与AI工程创新,引发产业高度关注 [3] 市场反应 - 财报公布后,公司股价在12月10日盘后交易中上涨2.58%至488.12美元,当日正常盘股价已上扬2.14%收于475.83美元 [3]
40亿,中科创星先导创业投资基金完成终关
FOFWEEKLY· 2025-12-11 18:00
基金募集与规模 - 中科创星先导创业投资基金于12月11日完成终关募集,基金总规模达到40.8亿元人民币 [1] - 终关新增的有限合伙人包括太保资本长航母基金、海淀区中关村科学城科技成长基金、蚂蚁集团、广州产投、珠海科技产业集团、南京市创投集团、复旦科创母基金、国联民生等多元化机构 [1] 有限合伙人结构 - 基金的有限合伙人组合推动了结构向“国家级母基金+险资+产业资本+高校资本+区域资本”的多元协同格局升级 [1] 投资活动与策略 - 基金自首关以来,在不到半年的时间内已投资46个项目 [1] - 投资领域涵盖AI芯片、TPU、具身智能、AI4Science、AI硬件、量子、可控核聚变、小型裂变堆,以及基因编辑、免疫细胞治疗、病毒感染预防、生物基色素、农业微生物等 [1] - 基金“投早投小”特色鲜明,前两轮投资项目达42笔,占比超过90%,精准覆盖技术萌芽阶段 [1] 项目来源与成果转化 - 源头创新转化成效显著,有32笔项目直接来源于科研院所与高校的成果转化,有效激活了智力资源 [1]