Workflow
NPU
icon
搜索文档
AI熔化白银?
虎嗅APP· 2026-01-26 08:15
文章核心观点 - 文章核心观点是探讨并质疑“AI发展是推动白银价格飙升主要原因”的流行叙事,认为该逻辑链条存在多处漏洞,AI对白银的实际需求影响有限,并非银价上涨的主要驱动力,并指出此类“AI吞噬自然资源”的叙事常被用于金融炒作或政治话语中 [5][9][12][17][20] AI消耗白银的流行叙事 - 流行观点认为AI及算力基础设施建设是白银需求增长的核心支柱之一,与太阳能光伏、电动汽车并列,打破了白银的供需平衡 [5][6] - AI消耗白银主要在两个环节:一是半导体芯片封装中需使用高性能白银;二是AI服务器与数据中心在网络、散热模块中广泛使用白银,因其导电、导热及耐腐蚀性优异 [7] - 具体数据:英伟达H100服务器含有1.2公斤白银,远超传统服务器约0.5公斤的用量 [7] - 全球数据中心建设自2000年以来提速11倍,未来AI相关数据中心(如美国“星际之门”、中国“新基建”)将持续投入,推断AI用银量将放大,而白银开采量稳定,从而拉大供需缺口 [8] 对“AI推高银价”叙事的质疑 - **需求占比有限**:根据世界白银协会数据,2025年AI相关白银需求增长30%,全年用量超1000吨,但这仅占全球白银总需求的3%—6%,份额有限,难以证明AI是主要推手 [10] - **可替代性强**:在AI服务器、中低端芯片等场景中,成本更低的铜正在替代白银;此外,数据中心短距传输中,光模块技术成熟正替代银缆,白银仅在高端封装、特种散热等有限场景具有长期不可替代性 [10][11] - **逻辑前提脆弱**:该叙事需建立在AI算力设施持续扩张、白银不可替代、且与光伏/新能源车共同发力等多个推断上,但这些前提均存在被推翻的可能(如算力需求可能趋稳、替代方案多) [11][12] “AI吞噬自然资源”的叙事模式 - “AI吞噬自然资源”是一个陈旧故事的多个分支,包括:AI争电(如预测2035年数据中心耗电占全美8.6%)、AI耗水(如ChatGPT耗水数万吨,预测2027年全球AI用水或超英国年用水量一半)、AI吞噬贵金属(如银、铜、钛)、AI制造电子垃圾 [15] - 文章指出此类叙事常忽略复杂性,例如AI等数字化系统用电量仅占全球约2%,却贡献了全球GDP的45%—58%,且AI在诸多领域(如智能工厂、交通)能节省大量资源,其自身能耗也通过技术优化不断降低 [16] - 这类叙事常被用于两个目的:一是炒高贵金属、能源等金融产品的价格,为其赋予“AI时代”的新价值故事;二是在政治话语中,为技术贴上“资源消耗”的标签,可能成为一种双标工具 [17] 对白银价格上涨动因的看法 - 文章认为,白银涨价的主要推动力来自地缘政治与全球普遍进入低利率时代,AI发展仅是众多因素中的一个,难以称为主要原因 [20] - 白银和AI在此局面上都更像是“配菜”,核心叙事可能存在过度简化和想当然的合理化倾向 [20]
【点金互动易】大飞机+特斯拉+飞行汽车,配套商飞C919、C909,空客A220等机型,特斯拉为其客户,这家公司为小鹏汇天提供零部件产品
财联社· 2026-01-20 09:10
文章核心观点 - 文章介绍了两家分别在大飞机产业链和人工智能计算领域具备核心技术与重要客户的公司 [1] 大飞机与新能源汽车产业链公司 - 公司业务横跨大飞机、特斯拉及飞行汽车领域 [1] - 公司为国产大飞机C919和C909以及空客A220等机型提供配套 [1] - 特斯拉是公司的客户之一 [1] - 公司为小鹏汇天提供零部件产品 [1] 人工智能与航天计算公司 - 公司业务涉及NPU(神经网络处理器)和太空计算 [1] - 公司为深空探测实验室的自主可控星载计算提供技术支撑 [1] - 公司承担了国家科技部重大专项并已通过验收 [1] - 公司以NPU为核心,计划推出GPNPU架构 [1]
英特尔副总裁宋继强:智能体AI带来算力挑战,异构计算将成为构建AI基础设施的重要方向
新浪财经· 2026-01-15 18:41
行业趋势:AI能力演进与算力需求转移 - AI能力发展正从基础能力大模型向智能体AI演进,更注重提供具体功能以构建工作流 [3][7] - 具身智能作为物理AI的重要形态,将数字世界的智能能力嵌入实体设备与真实世界交互,这类应用多以推理为主 [3][7] - 行业分析机构预示,AI算力需求的重心正从训练向推理转移,这将消耗相应比例的算力 [3][7] 技术架构:异构计算成为核心需求 - 多智能体构建完善工作流并实现多流并行运作,对异构基础设施提出需求 [3][7] - AI Agent的功能支持包含多种模型、调度器及预处理模块,这些模块需不同硬件提供最优能效比与成本经济性支撑 [3][7] - 尽管所有任务均可在CPU上运行,但难以兼顾及时性与功能有效性,因此需高端GPU、中端GPU等多种硬件组合搭配,针对不同规模模型与任务场景实现精准适配 [3][7] 系统构建:异构支持能力的三个层面 - 上层需构建开放的AI软件栈,屏蔽系统级变化以保障应用投资有效性 [3][7] - 中间系统基础设施需适配中小企业需求,提供友好的服务器设置配置及以太网互联方案 [3][7] - 底层需整合持续演进的多元硬件,包括不同架构的CPU、GPU、NPU、AI加速器及类脑计算设备,通过分层基础设施构建灵活异构系统 [3][7] 应用领域:具身智能机器人的实现与挑战 - 针对具身智能机器人领域,智能任务实现方式从传统分层定制模型到全端到端VLA模型,行业尚未确定最优方案,正处于多元尝试阶段 [4][8] - 传统工业自动控制方案侧重可靠性、实时性与计算精度,而基于大语言模型的方案偏向神经网络解决路径,需差异化计算架构支撑 [4][8] - 可通过CPU实现高速响应、NPU低功耗输出、GPU完成视觉与语言模型识别,依托CPU+GPU+NPU的异构芯片调度不同工作负载 [4][8] 未来展望:具身智能机器人的规模化发展 - 具身智能机器人时代必将到来,也将带来算力和能耗挑战,异构计算正逐渐成为AI基础设施的核心架构 [4][8] - 未来当机器人规模达到百万级,将突破工业场景限制,广泛承载商业化、个人化应用,亟需多智能体系统支撑 [4][8] - 多智能体系统运行于物理AI设备的技术堆栈仍面临诸多挑战,而异构计算是解决系统可信赖问题的关键路径 [4][9]
英特尔副总裁宋继强:AI计算重心正在向推理转移
新浪财经· 2026-01-15 18:41
行业趋势:AI能力与算力需求演进 - AI能力发展正从基础能力大模型向智能体AI演进,更注重提供具体功能以构建工作流 [3][7] - 具身智能作为物理AI的重要形态,将数字世界的智能能力嵌入实体设备与真实世界交互,这类应用多以推理为主 [3][7] - 行业分析机构预示,AI算力需求的重心正从训练向推理转移,这将消耗相应比例的算力 [3][7] 技术架构:异构计算成为核心需求 - 多智能体构建完善工作流并实现多流并行运作,对异构基础设施提出需求 [3][7] - AI Agent的功能支持包含多种模型、调度器及预处理模块,这些模块需不同硬件提供最优能效比与成本经济性支撑 [3][7] - 尽管所有任务均可在CPU上运行,但难以兼顾及时性与功能有效性,因此需高端GPU、中端GPU等多种硬件组合搭配,针对不同规模模型与任务场景实现精准适配 [3][7] 系统构建:灵活异构支持的三层能力 - 上层需构建开放的AI软件栈,屏蔽系统级变化以保障应用投资有效性 [3][7] - 中间系统基础设施需适配中小企业需求,提供友好的服务器设置配置及以太网互联方案 [3][7] - 底层需整合持续演进的多元硬件,包括不同架构的CPU、GPU、NPU、AI加速器及类脑计算设备,通过分层基础设施构建灵活异构系统 [3][7] 应用领域:具身智能机器人的实现与挑战 - 针对具身智能机器人领域,智能任务实现方式从传统分层定制模型到全端到端VLA模型,行业尚未确定最优方案,正处于多元尝试阶段 [4][8] - 传统工业自动控制方案侧重可靠性、实时性与计算精度,而基于大语言模型的方案偏向神经网络解决路径,需差异化计算架构支撑 [4][8] - 可通过CPU实现高速响应、NPU低功耗输出、GPU完成视觉与语言模型识别,依托CPU+GPU+NPU的异构芯片调度不同工作负载 [4][8] 未来展望:具身智能机器人的规模化发展 - 具身智能机器人时代必将到来,也将带来算力和能耗挑战,异构计算正逐渐成为AI基础设施的核心架构 [4][8] - 未来当机器人规模达到百万级,将突破工业场景限制,广泛承载商业化、个人化应用,亟需多智能体系统支撑 [4][8] - 多智能体系统运行于物理AI设备的技术堆栈仍面临诸多挑战,而异构计算是解决系统可信赖问题的关键路径 [4][9]
如何看光模块未来几年增长空间
2026-01-09 00:02
行业与公司 * 光模块行业[1] * 涉及公司包括海外科技巨头(谷歌、英伟达、Meta、AWS、博通)及上游供应商(美国Coherent、日本Gamepoint)[1][3][5][10][11][14] 核心观点与论据 行业增长驱动力与趋势 * 行业主要驱动力是传统数据中心升级(贡献约20%至30%的800G光模块增量)和AI大模型训练与推理(贡献约70%的800G光模块增量)[4] * 随着算力提升,机柜之间(SKU层)及高密度机柜内部的互联需求增加,导致高速光模块需求量呈指数级增长[1][4] * 2026年行业需求呈现爆发式增长,800G光模块在2025年至2026年的增量至少翻倍,1.6T光模块将在2026年迎来出货高峰[2] * 2027年增速预计远超市场预期,800G和1.6T产品将持续高增长,从2025年至2028年行业将保持持续高增长态势[2] 技术路径发展 * **硅光技术**:2025年在单模光模块中占比约20%至30%,预计2026年翻倍至40%至50%,主要因800G硅光产品成熟及100G EML芯片紧缺,其功耗比常规EML基产品低30%至40%[1][8] * **LPO/LRO/TRO**:LPO功耗极低(单个模块约5瓦以下),适用于特定小应用推理场景[9];LRO和TRO为定制化模块,可配套使用以降低整体链路功耗,未来将批量应用于特定连接场景[1][9] * **CPO/NPU**:英伟达和博通积极推动CPO方案,但共封装结构导致维修复杂且成本高昂,限制大规模应用[1][10];NPU通过集成光模块缩短电信号传输距离,头部厂商已开始研发[1][10] * **OCS技术**:谷歌率先应用,Meta、AWS跟进,预计在数据中心内广泛应用是明确趋势,其普及速度可能快于CPO[3][11] 供应链关键问题 * **光芯片紧缺**:100G EML芯片持续紧缺,美国和日本厂商主导高端芯片供应,预计紧缺情况持续至2027-2028年,1.6T光模块光芯片尤为紧缺[3][12][13] * **旋光片紧缺**:美国Coherent和日本Gamepoint占据全球80%至90%以上产能,近期供给紧张,但产能提升速度较光芯片快[14][15] * **其他物料**:1.6T项目使用的新型PCB材料(如SLP PCB)存在供不应求现象,需要提前一两个月备货[17];光连接器件(AFEU、MPO等)目前供应相对稳定,可通过分散采购保障[16] 其他重要信息 * 海外大厂(谷歌、英伟达)采用Skyop设计,将增加光连接需求,谷歌预计2026年第三或第四季度展示机柜内(Skill Up层)光互联方案[1][5] * 光模块厂商扩产进度较慢,国内光芯片公司目前无法完全满足需求[3][13] * 美资公司可能会提前了解到2028年的增速情况并提前释放需求以推动供应商扩产[2]
算力专题:全球算力十大趋势2026
搜狐财经· 2026-01-05 22:15
文章核心观点 全球算力已成为驱动数字经济与智能变革的核心引擎,其规模正呈指数级增长,并上升为全球科技竞争的战略制高点[1][12] AI大模型正演进为智能世界的“底层操作系统”,加速渗透千行百业,从技术验证迈向商业闭环,带动算力需求爆发式增长[1][37] 算力产业正经历从技术、架构到生态的全方位变革,为各行业智能化转型提供强大支撑[1] 趋势一:全球算力规模高速增长,算力竞赛白热化,算力成为全球科技竞争的战略制高点 - 算力是数字经济的底座和新质生产力的核心引擎,对经济增长起主导作用 哈佛大学研究显示,美国2025年上半年算力投资在GDP增长中的贡献达约92%[24] - 各国将算力发展提升至国家战略高度 中国“十五五”规划将算力明确为新质生产力核心要素[26] 美国发布《AI行动计划》,计划投入数千亿美元推进半导体制造本土化[26] 欧盟通过《人工智能大陆行动计划》,规划建设13个AI工厂与5个超级工厂[27] - 未来五年智算算力规模将增长千倍 根据华为、阿里等预测,2025年到2030年AI算力将增长千倍左右[28] - 全球头部互联网厂商主导算力建设 美国科技四巨头(微软、谷歌、亚马逊、Meta)2025年AI相关资本支出预计高达3640亿美元[30] 中国阿里宣布未来三年投入超3800亿元用于云计算及AI硬件基础设施,其中80%投向AI服务器[30] 超大规模云服务商和互联网厂商算力投资占据全球算力投资的60%[30] - AI算力正从辅助资源演变为企业核心战略资产 到2029年全球AI支出将达1.3万亿美元,占IT总支出比重突破26%[31] 企业AI算力投资占比正从当前的5.9%向15.9%跃升[31] 趋势二:AI加速进入千行百业,大模型将成为未来智能世界的操作系统,创造价值将是第一要素 - 2025年是大模型应用落地元年,技术正从“技术验证”迈向“商业闭环”[37] 大模型意图理解能力突破,部署成本大幅下降,加速在千行百业落地[37] - AI应用规模爆发,激发庞大算力需求 据Sensor Tower报告,2025年上半年AI应用下载量超17亿次,较2024年下半年环比增长67%[38] AI应用总使用时长突破156亿小时,总会话次数达4260亿次[38] - 大模型效率提升与成本下降形成正向循环 推理能力每7个月翻一倍,推理成本呈指数级下降,刺激需求激增[38][40] - 智能体承担复杂任务,倒逼大模型成为底层引擎 智能体模式相比传统大语言模型的算力需求高出几个数量级[41] 金融、工业等场景的Token处理量达数十亿至数亿级[41] - Token需求指数级增长,需要更经济的算力供给体系 2025年4月数据显示,谷歌AI搜索模式日均Token消耗量达27万亿[44] 硬件层面形成CPU、GPU、NPU/ASIC的多元算力协同供给模式[44] 趋势三:跨越虚实边界,数字智能向具身智能演进,世界模型成为关键支撑 - 数字智能正向具身智能演进,世界模型作为核心支撑打破虚实边界,推动智能体在物理世界实现深度交互[1] 趋势四:超节点成为算力新底座,智算中心进入超节点时代 - 超节点成为智算中心新底座,通过高速互联突破“内存墙”瓶颈,支撑超大规模模型高效运行[1][17] 趋势五:从以CPU为中心的计算架构,迈向多样化平等计算架构 - 传统以CPU为中心的模式逐渐被CPU、GPU、NPU等多样化平等架构取代[1] 计算架构正从以CPU为中心走向多样化平等架构,GPU及各类xPU协同发力[17] 趋势六:以网强算,建设毫秒级算力网,强化算力基础设施高质量发展 - 算力与网络深度融合,毫秒级算力网建设梯次推进,实现“算力随需即取”[1] 通过毫秒级算力网打通跨地域、跨集群的资源流动壁垒[17] 趋势七:超算与智算走向融合,构筑科学计算新范式 - 超算与智算走向深度融合,构筑科学计算新范式[1] 趋势八:智算时代需要更加开源开放的生态体系,加速产业创新 - 开源开放成为算力生态核心,头部厂商通过全栈开源降低创新门槛,推动产业协同发展[1] 开源框架是算力生态的核心基石,为产业创新注入普惠性活力[16] 趋势九:算力中心向智算中心迈进,高密化、液冷化和集群化成为发展方向,能源成为关键要素 - 智算中心向高密化、液冷化、集群化演进,绿电直供模式破解能耗难题[1] 智算中心的高密化、液冷化与集群化升级,实现算力的绿色高效承载[17] 趋势十:量子计算走向工程化阶段,未来1-2年将是量子计算从技术突破走向商业化应用的关键窗口期 - 量子计算进入工程化关键期,未来1-2年将迎来从技术突破到商业化应用的重要窗口期,多技术路线并行发展[1]
中国大芯片赛道,又跑出一个赢家
半导体行业观察· 2026-01-04 09:48
文章核心观点 - 在人工智能时代,数据中心基础设施中的网络(DPU)与算力(GPU)、存力同等重要,正成为关键竞争领域 [1] - 英伟达凭借其GPU和收购Mellanox获得的网络技术成为AI浪潮的主要赢家,其2025年第三季度网络收入同比增长162%至82亿美元 [1] - 中国DPU公司云豹智能凭借顶尖技术成功突围,已量产国内首颗400Gbps DPU芯片,性能达全球顶尖水平,成为国内唯一能替代英伟达网卡的企业,并有望成为“中国DPU第一股” [10][15] AI时代DPU的角色演变 - DPU最初因云计算和AI模型复杂度提升而兴起,用于分担CPU的网络、卸载、安全、存储等任务 [2] - 随着ChatGPT引爆AI军备竞赛,DPU被赋予更多含义,在AI基础设施中角色愈发关键 [2] - 在摩尔定律放缓、Scaling Law盛行的背景下,DPU对于将分布式硬件系统整合为高效整体至关重要 [3] - DPU通过卸载GPU计算负担、优化数据预处理、加速通信和存储任务,成为大模型训练和推理的重要助力 [5] - 本土大模型公司DeepSeek在其论文中强调,集成通信协处理器的DPU有望成为下一代AI硬件的重要构想,并利用NIC RDMA执行通信以提高计算效率 [4][5] 行业竞争格局与本土化必要性 - 英伟达主导国内DPU/网卡市场,其在国内中高端网卡市场份额超过80%,国内互联网厂商及运营商多采用其产品 [5] - 在通用计算CPU服务器市场,国内大部分DPU网卡使用美国厂商的FPGA芯片 [5] - 在全球竞争态势下,打造本土DPU产业显得尤为重要 [5] 云豹智能公司概况与竞争优势 - 公司创始人兼CEO萧启阳博士拥有斯坦福博士学位、MIT教授经历,曾创立芯片公司并被博通以37亿美元收购,在DPU相关领域造诣深厚 [7] - 公司获得腾讯、中芯聚源、深创投、IDG资本等产业资本和头部投资机构的支持 [7] - 在腾讯和中国移动等客户场景支持下打磨产品,成立两年多便一次性流片成功复杂架构的大芯片,无需修改即可量产 [8] - 公司在可编程高性能网络处理、可编程低时延RDMA技术、DDP数据直通技术和安全计算体系等多个关键领域掌握并引领核心技术 [8] 云豹智能产品成就与市场地位 - 已成功量产国内首颗400Gbps吞吐量的DPU芯片,达到全球顶尖水平 [8] - 该芯片拥有每秒处理几百万个数据包的存储能力,RDMA时延低至5微秒 [8] - 与其他传统DPU方案相比,性能效率可提升4倍,同时具备低功耗、低成本特性 [8] - 公司成为国内唯一能替代英伟达网卡的企业 [10] - 公司芯片产品获工信部推荐,入选国家博物馆“中国制造‘十四五’成就展”,是唯一获此殊荣的DPU厂商 [11] - 公司计划明年推出一款800Gbps的网卡产品,对标英伟达的CX8网卡 [13] 国内大芯片产业背景 - 除DPU外,GPU、NPU和CPU等大芯片也是国内芯片产业过去几年的工作重点 [15] - 以海光、龙芯为代表的CPU公司,以及以寒武纪、摩尔线程、沐曦、天数智芯和壁仞为代表的GPU或AI算力芯片公司已纷纷IPO,证明国内在这些领域取得突破性进展 [15]
MCU巨头,全部明牌
半导体行业观察· 2026-01-01 09:26
文章核心观点 - 微控制器行业正经历一场由边缘人工智能驱动的架构革命,其核心目标并非追求极致算力,而是在坚守实时性、低功耗和系统确定性的传统优势基础上,原生支持人工智能工作负载 [1][2] - 这场变革的两大技术支柱是集成专用神经网络处理单元和采用新型存储器,前者实现人工智能推理与实时控制的“算力隔离”,后者则解决了传统闪存在先进制程、寿命和性能上的瓶颈,共同推动微控制器向微型、确定性、低功耗的系统级计算平台演化 [3][17][33] 微控制器集成NPU的核心逻辑与特点 - **根本目的**:集成NPU并非为了算力竞赛,而是作为嵌入式系统的“减震器”,通过“算力隔离”将人工智能推理任务从主控制路径中剥离,确保实时控制任务不受干扰,解决既要智能又不能牺牲实时性的关键矛盾 [3][4] - **性能特点**:嵌入式NPU算力表现“克制”,范围从几十GOPS到数百GOPS,远低于移动端和云端,旨在满足边缘轻量级模型需求,并在确定性、低功耗与小面积之间找到最佳平衡 [4][5] - **功耗与模型**:专用NPU通过固定架构使功耗可预测,适配边缘设备的严苛功耗预算;当前在微控制器上运行的神经网络多为参数量几万到几百万的深度优化轻量模型,几百GOPS算力已足够 [4][5] 主要微控制器厂商的NPU战略与产品 - **德州仪器**:战略聚焦工业与汽车安全场景,推动实时控制与人工智能深度融合,其TMS320F28P55x系列是业界首款集成NPU的实时控制微控制器,NPU针对卷积神经网络优化,可将人工智能推理延迟降低5-10倍,并将故障检测准确率提升至99%以上 [7][8] - **英飞凌**:战略侧重降低开发门槛,采用“Arm架构+生态协作”的轻量化路线,其PSOC Edge E8x系列采用Arm Cortex-M内核与Ethos-U55微NPU组合,其中高端型号的机器学习性能较传统Cortex-M系统提升480倍,并在毫瓦级功耗下实现人工智能加速 [9][10] - **恩智浦**:战略特色是“硬件可扩展+软件全栈”,通过自研可扩展的eIQ Neutron NPU内核支持多种神经网络模型,并搭配统一的eIQ人工智能软件工具包,打造灵活的边缘人工智能解决方案 [11][12] - **意法半导体**:战略主攻高性能边缘视觉场景,其STM32N6系列集成自研的Neural-ART Accelerator NPU,人工智能算力达600 GOPS,并配备完整的计算机视觉处理链路以支持高分辨率图像处理等复杂任务 [12][13] - **瑞萨电子**:战略核心是“异构架构+安全第一”,聚焦高可靠边缘AIoT场景,其RA8P1微控制器采用双核架构并搭配Arm Ethos-U55 NPU,人工智能算力达256 GOPS,同时集成硬件信任根和先进加密引擎强化安全 [15][16] 新型存储器兴起的驱动因素 - **传统闪存的困境**:人工智能模型需要持续在线更新,但闪存擦写寿命仅几千到数万次,难以支持频繁的OTA更新;其读取延迟和预热时间影响“上电即跑”的实时性需求,例如更新20MB代码,闪存需约1分钟,而新型存储可缩短至3秒 [17][18] - **制程升级的瓶颈**:嵌入式闪存工艺难以扩展到40nm以下,成为微控制器向28nm、22nm等先进制程演进以获得更高性能、更低功耗以支撑NPU的拖累,倒逼存储升级 [18] - **可靠性要求**:车规级芯片要求工作温度范围达-40°C到150°C且数据保持10年以上,传统闪存在高温下性能衰减,难以满足新一代汽车电子和严苛工业应用的标准 [19] 新型存储器的四大技术路线与厂商布局 - **MRAM**:具有非易失性、高速、高耐久特性,读写次数理论无限,适配车规与工业高可靠场景,恩智浦已于2023年推出基于台积电16nm FinFET eMRAM工艺的S32K5系列汽车微控制器;瑞萨已在2024年整合22nm eMRAM技术,并于2025年发布搭载该技术的RA8P1微控制器 [22][23][24] - **RRAM**:读写速度快、寿命长,支持按位写入且延迟可降低1000倍,特别适配存算一体架构,英飞凌是核心推动者,在其下一代AURIX微控制器及PSoC Edge系列中集成台积电28nm/22nm RRAM技术;德州仪器也已通过授权引入ReRAM技术 [25][26][27] - **PCM**:可实现更高存储密度和更大片上容量,意法半导体与三星合作,基于18nm FD-SOI + ePCM技术的下一代STM32微控制器预计2024年下半年出样,2025年下半年量产 [28][29] - **FRAM**:融合了RAM的高速写入与Flash的非易失性,写入速度接近SRAM,耐写次数可达数万亿次,适配高频写入场景,德州仪器是早期探索者,其MSP430FR系列微控制器已形成“超低功耗+高可靠FRAM存储”平台 [30][31] 行业变革的深远影响 - **存储格局多元化**:传统闪存的统治地位松动,MRAM、RRAM、PCM、FRAM将在特定场景展现优势,未来五年嵌入式存储市场将呈现多元化竞争格局 [33] - **竞争核心转向系统级优化**:集成NPU和新型存储的微控制器,其价值在于数据无需芯片间搬运、功耗可全局管理的系统级优化与深度集成能力,这将成为下一阶段竞争的核心 [33] - **为后来者提供机会窗口**:人工智能化转型带来的架构重构以及新型存储技术尚未完全定型,为国产微控制器和存储厂商提供了结构性机会和弯道超车的可能 [33] - **应用场景持续拓展**:带NPU的微控制器将广泛应用于工业物联网预测性维护、智能家居本地人工智能推理、医疗可穿戴设备毫瓦级心电分析以及自动驾驶辅助系统等领域 [34]
中美AI竞赛:界限日益模糊,下一战关键何在?
财富FORTUNE· 2025-12-31 21:06
文章核心观点 - 当前AI领域存在显著的资本泡沫,部分模型公司在零收入阶段估值已达数亿美元,市场预期将经历价格重置 [2][13] - 尽管存在泡沫,但本轮AI创新由真实的产业需求驱动,且初创企业正加速转向B端,技术“上升”与产业“下沉”的趋势明确,整体发展前景审慎乐观 [3][7] - 中美在AI发展上路径不同但界限正变得模糊,中国在应用层和基础设施有独特优势,美国在技术层和芯片领域领先,硅谷独特的创新生态是其核心优势 [8][10] - AI领域的投资与应用机会目前主要集中在B端,因为B端有未被垄断的产业数据、明确的降本增效需求以及大企业合作并购的活跃生态 [17][18] - AI技术正在多个垂直领域(如医疗、太空科技)快速落地并创造价值,智能体(Agent)被认为是下一个爆发点,但通用人工智能(AGI)仍很遥远 [21][23][32] AI行业现状与泡沫分析 - 多家权威机构评选的年度词汇均与AI相关,如“slop”、“DeepSeek”,而硅谷投资人的年度词汇可能是“泡沫” [2] - AI投资泡沫贯穿全年,体现在美股市场对概念的追捧、科技巨头间的“循环交易”以及巨额融资洽谈,如亚马逊与OpenAI正在洽谈高达100亿美元的投资 [2] - 部分模型公司在产品与收入均为零时,估值已高达数亿美元,市场迟早会迎来价格重置,甲骨文与CoreWeave已出现市值大幅回调 [2][13] - 本轮泡沫与2000年互联网泡沫不同,当时公司缺乏实际收入且偏重C端,而本轮AI创新有真实产业需求支撑,且初创企业加速转向B端 [3][15] - 市场已显现早期调整信号,许多公司在A轮、B轮融资时,投资方会严格考察收入数据质量,未能通过验证的公司将面临融资困难与估值调整 [16] AI技术发展趋势:“上升”与“下沉” - **技术“上升”**:在AI基础设施层,芯片格局正从GPU主导走向多元化,新模型架构在CPU上效率更高,谷歌TPU、高通与英特尔的NPU发展迅猛 [4] - **技术“上升”**:云基础设施的四大难题(算力成本高、能耗大、边缘设备应用难、数据隐私)正逐步解决,例如OpenAI的token价格已从每千个30美元大幅降至9美分 [4] - **技术“上升”**:通信过程中的能耗是计算本身能耗的百倍以上,成为优化重点,新模型与芯片架构不断优化计算效率 [4] - **技术“上升”**:边缘AI快速推进,谷歌等公司正开发参数低于10亿、性能可比肩GPT-4的端侧小模型,未来可在手机本地运行 [4] - **技术“上升”**:数据隐私方面,联邦学习等技术已在金融、医疗等高监管行业部署,配套监管科技同步发展 [4][5] - **应用“下沉”**:在美国,非科技领域如医疗、金融保险、太空科技的AI应用进入快速迭代阶段,初创企业层出不穷,大公司全力冲刺 [6] - **应用“下沉”**:美国大公司与初创企业的合作与并购活跃,Fusion Fund今年有五家公司被大企业收购,其中三家成立不到两年,价格均超过两三亿美元 [6] - **应用“下沉”**:Meta宣布收购通用自主AI智能体公司Manus,交易高达数十亿美元,成为其成立以来规模第三大的收购案,标志着AI正从“工具”加速进化为“行动者” [6] 中美AI发展对比与生态 - 美国在芯片、模型、基础设施层面领先,但电网老化严重,难以满足AI能耗需求,微软、谷歌等巨头不得不转向自建能源系统 [8] - 中国在新能源基础设施、完备的机器人供应链以及全民化的技术应用氛围上已构筑起独特优势 [8] - 在美国,中老年人积极拥抱新技术的现象较少,而中国用户无论处于任何年龄层,都在快速学习使用新技术 [8] - 关于开源模型,中国的DeepSeek、阿里巴巴等公司持续贡献开源模型,而美国科技公司如OpenAI、谷歌、Meta因处于大规模商业化阶段,开源意愿很有限 [8] - 硅谷独特的创新生态在于大公司与初创企业形成新型共生关系:前者为后者提供试错场景和并购出口,后者为前者注入创新活力 [8] - 美国企业CTO的主要职能是投资未来技术,其预算用于采购、合作和并购创新项目,并对合作失败有容错空间 [9][19] - 活跃的并购市场是硅谷的优势,10多人的团队在收入仅数千万美元时获得数亿美元收购的情况屡见不鲜 [19] 投资策略与市场观察 - 作为早期投资人,对估值保持敏感,如果项目估值过高则选择不投,相信企业要遵循自然发展规律,在不同阶段匹配相应估值 [16] - 投资专注于To B项目,涵盖企业级AI、工业自动化与医疗AI等,会深入分析订单质量(如合约年限、预算来源) [17] - 通过构建的CXO社群网络(涵盖45家全球千强企业的CTO)为被投企业带来超过1.5亿美元的订单与战略合作 [19] - 在谈判估值时,不仅能提供订单,还能帮助创始人获取政府补贴等不占股的非稀释性资源,从而以更合理的估值完成投资 [20] - 评估AI公司能否“跑出来”大约需要两年时间,优质公司增长极快 [26] - 投资决策要素排序:最看重市场规模和增量市场时机;其次看团队,尤其是“创始人-产品-市场”契合度;技术需满足“更好、更快、更省”,成本是关键竞争要素 [28] 垂直领域应用与未来展望 - **太空科技**:AI与机器人技术正渗透太空经济,SpaceX已将单次发射成本从数十亿美元降至不到一亿美元,未来很快将降至千万美元级,推动卫星数据应用普及 [20] - **太空科技**:投资了从事卫星交通管理与数据交易的公司,其收入已达数千万美元;还投资了开发全自动化机器人系统在月球提取水并制造太空燃料的公司 [21] - **医疗健康**:今年是医疗大年,AI加速脑部疾病(如帕金森、阿尔茨海默症)领域的创新,涉及诊断与治疗,投资了糖尿病垂直小模型和细胞疗法基础模型公司 [21] - **AI智能体**:代码智能体(Coding Agent)已近乎杀手级应用,目前多数科技公司80%的代码由AI生成,智能体的未来明确,但当前技术仍在发展,预计再有一年时间将趋于成熟 [23] - **AI智能体**:投资了多家智能体基础设施公司,专注于操作系统、成本优化与幻觉消除,一旦基础稳固,应用层将快速涌现 [23] - **未来突破**:期待智能体爆发及各产业(如医疗、金融、保险等占美国GDP超50%的服务业)广泛整合AI,这将是发展的“华彩乐章” [32] - **AGI认知**:距离通用人工智能(AGI)尚远,无需执着追求,各行业可发展垂直应用,在特定场景超越90%的人类就是很大突破 [32] 具体投资案例与绩效 - 自2015年重点布局AI企业,如Otter AI、You.com等,均已成长为独角兽,今年有5家被投AI公司被收购,明年还有3家即将IPO [12] - 投资的一家B2B AI公司,年收入从去年上半年的50万美元增长至现在的1.5亿美元;另一家公司年收入从零增至2000万美元,团队不足10人 [12] - 过去两三年投资的企业中,70%以上年收入增长超过20倍 [12] - 最满意的投资项目是一家赋予AI长期记忆的模型公司,其视频模型可分析视频内容并给出精准总结,主要应用于To B场景如机器人工业安全 [24] - 决策周期最长的项目是一个利用小胶质细胞治疗帕金森症的医疗项目,运用了AI实现个性化治疗,投后获得美国国立卫生研究院(NIH)的政府补贴资金 [24] - 2015年投资了脑机接口公司Paradromics(侵入式),已进入临床实验阶段,可能很快成为独角兽 [29]
东吴证券:AI算力产业链2026年迎多重机遇 国产化与技术创新成核心动力
智通财经网· 2025-12-31 11:41
文章核心观点 2026年AI算力产业链预计将迎来业绩放量,云端与端侧算力、存储、晶圆代工、PCB、光铜互联及服务器电源等多个环节将共同驱动技术升级与价值提升 [1] 云端算力 - 2026年国产算力芯片龙头有望进入业绩兑现期,国产GPU将受益于先进制程扩产带来的产能释放 [2] - 国产算力进入超节点时代,考验GPU厂商单卡实力及Switch芯片的国产化水平,国内外政府可能对此环节有所管控 [2] - AI ASIC服务商在供应链中扮演关键角色,因国产算力芯片参与者为争夺市场份额而抢夺产能资源 [2] 端侧算力 - 端侧AI接力云AI,端云混合架构夯实场景基础,海外大模型有望率先驱动AIoT落地,利好眼镜、汽车、机器人三大先导场景 [3] - 展望2026年下半年,结合消费周期及AI创新等因素,看好可穿戴AIoT等新品发布带来的产业链机遇 [3] - 2026年有望成为NPU(神经网络处理单元)落地元年 [3] 3D DRAM存储 - 2026年AI硬件落地带来存力需求快速提升,高带宽/低成本的3D DRAM有望在多领域放量,成为端侧AI存储放量元年 [4] - 机器人、AIoT、汽车等领域对本地大模型的部署离不开3D DRAM存储的支持,是其从“能用”到“好用”的关键硬件革新 [4] - 多款NPU的流片发布为3D DRAM提供丰富适配场景,手机及云端推理等场景亦将逐步导入,成为2026年下半年及2027年关键场景 [4] 端侧AI模型与生态 - 2026年,云端模型将通过数据质量与后训练优化提升复杂规划能力;端侧通过蒸馏承接云端模型能力,并以结构优化提升执行成功率与时延表现 [5] - Agent路线呈现API和GUI并存 [5] - 生态格局上,终端厂商掌握OS并接管系统级入口;超级APP构建应用内Agent闭环;第三方模型厂则依赖分成机制推进合作 [5] AI终端 - 2026年开启AI终端创新元年,Meta、苹果、谷歌、OpenAI均有新终端新品推出 [6] - AI终端形态以眼镜为代表,同时有AI pin、摄像头耳机等新形态,下一代爆款终端或在大厂创新周期中应运而生 [6] - 新终端的产生离不开关键零组件的升级,建议关注SoC、电池、散热、通信、光学等方向 [6] 长鑫存储产业链 - 长鑫存储重点在研的CBA技术有望释放后续持续扩产动能,通过另辟蹊径的方式缩小与三星和海力士的代际差,保证扩产量级 [7] - 其产业链公司将充分受益,设备环节在受益于充裕扩产之余,部分优质公司还将享受渗透率快速提升 [7] - 部分代工和封测公司将承接长鑫的代工需求 [7] 晶圆代工 - 目前国内先进制程尤其是7nm及以下供给严重不足,在潜在外部压力和国产先进逻辑芯片需求旺盛的背景下,2026年开始出于保供意图的先进扩产将十分丰厚 [8][9] - 中芯国际和华力集团有望持续扩产先进制程,更多主体如永芯、ICRD等将扩产14nm制程 [9] PCB(印刷电路板) - AI服务器对高速信号完整性与低介电性能的要求持续提升,推动PCB材料进入全面升级周期 [10] - M9 CCL凭借超低Df/Dk性能与优异可靠性,正成为AI服务器与高速通信系统的关键基材,有望推动PCB及上游高端材料价值量迅速增长 [10] 光铜互联 - 2026年商用GPU持续增长,CSP ASIC进入大规模部署关键一年,数据中心Scale up催生超节点爆发,铜缆凭借短距低耗成为柜内互连最优解 [11] - Scale out带动集群持续扩容,光模块与GPU配比飙升,1.6T放量让光芯片缺口凸显 [11] - 光与铜双线共振,互联需求迎来量价齐升 [11] 服务器电源(HVDC) - AI数据中心功率密度飙升驱动HVDC(高压直流)供电架构成为核心主线 [12] - 一次电源奠定800V高压直流传输基础,二次电源承担关键电压转换,三次电源精准适配芯片供电需求,全链路升级打开增量空间 [12] - 服务器电源技术升级带来PCB量价齐升,推动电源PCB向厚铜、嵌入式模块、先进散热等高端技术升级,单板价值量显著提高 [12]