Workflow
超威半导体(AMD)
icon
搜索文档
腾讯研究院AI速递 20260107
腾讯研究院· 2026-01-07 00:05
生成式AI硬件与平台重大进展 - 英伟达正式发布Vera Rubin超算架构,推理性能比Blackwell提升5倍、训练性能提升3.5倍、成本降低10倍,已大规模投产并将于2026下半年面世 [1] - Rubin平台由6个关键组件构成,包括Rubin GPU(50 PFLOPS算力)、Vera CPU(88核Olympus)、BlueField-4 DPU、NVLink 6等 [1] - AMD发布Helios全液冷机架平台,配备MI455X GPU(3200亿晶体管、432GB HBM4内存),性能比MI355X提升10倍,2027年推出2nm制程MI500 [2] - Helios机架拥有2.9 exaflops算力、31TB HBM4显存、43TB/s带宽,EPYC Venice CPU性能提升70%以上、线程密度提高30%以上 [2] 端侧与PC AI芯片竞争加剧 - 英特尔发布全球首款基于Intel 18A制程(1.8nm级)的第三代酷睿Ultra处理器,端侧AI算力达180TOPS,多线程性能提升60%、游戏性能提升77% [3] - 采用Foveros-S封装技术整合多种制程模块,配备Arc B390集成GPU支持AI多帧生成(每渲染1帧生成3帧),续航最长可达27小时 [3] - 首批搭载Ryzen AI 400系列处理器的AI PC将于2026年Q1出货,全年推出超120款产品,迷你PC AMD Ryzen AI Halo预计Q2上市 [2] AI模型与算法创新 - MiroMind发布MiroThinker 1.5旗舰版模型,仅30B和235B参数却在BrowseComp测试中刷新ChatGPT-Agent纪录,单条调用成本仅0.07美元 [5][6] - 核心创新在于将Interactive Scaling内化为训练机制,构建“推理-验证-修正”循环路径,通过主动求证、多轮校验和反幻觉过滤实现证据驱动推理 [6] - 采用时序敏感训练沙盒严格约束信息可见性,让模型杜绝复述结果、学会真实预测,突破传统Scaling Law的“做题家模式”转向“科学家模式” [6] 具身智能与机器人产业化提速 - 波士顿动力在CES 2026发布新一代全电动人形机器人Atlas产品版,身高1.9米、重90kg、56个自由度,最大工作半径2.3米、可搬运50kg负载 [8] - 与Google DeepMind建立长期AI合作,将Gemini Robotics(VLA)引入Atlas平台,2026年交付名额已锁定,首批进入现代汽车RMAC和DeepMind [8] - 现代集团宣布2028年在美国建设年产3万台机器人新工厂,未来几年向机器人与AI领域投入超260亿美元 [8] - 智元具身研究中心提出SOP框架,业界首次在物理世界后训练中深度整合在线、分布式和多任务机制 [9] - 实验显示四机并行学习3小时成功率达92.5%,训练速度达单机2.4倍,3小时在轨经验带来约30%性能提升,超越80小时到160小时预训练数据的边际收益 [9] AI应用与行业影响 - 英伟达同步发布端到端自动驾驶AI AlphaMayo和物理AI全家桶开源,包括Cosmos、Isaac GR00T等模型,可实现全程0接管自主驾驶 [1] - 香港科技大学教授团队让搭载GPT-5.2的乐奇AI眼镜参加《计算机网络原理》期末考试,30分钟获92.5分超越95%学生,多项选择题和单页短答题满分 [7] - Anthropic社区与代码负责人发布31天连载博客,核心技巧包括/init自动生成入职文档、Plan Mode先规划再动手、Subagents并行处理、Hooks生命周期插手、LSP语义级代码理解等31条实战经验 [10][11] 行业人才与组织动态 - OpenAI研发副总裁Jerry Tworek正式宣布离职,这位七年老兵是o1/o3推理模型之父和Codex编程模型核心研究员,离职理由是“想做在OpenAI做不了的研究” [4] - 这是OpenAI继Dario Amodei、Ilya Sutskever、John Schulman、Jan Leike等核心人才流失后的又一重磅离职 [4]
AI 算力破局关键!52 页先进封装报告逐页拆解(含隐藏机遇)
材料汇· 2026-01-07 00:00
文章核心观点 先进封装技术正成为后摩尔时代半导体行业发展的关键驱动力,它通过芯粒(Chiplet)异构集成、2.5D/3D堆叠等技术,有效应对了先进制程成本暴涨、单芯片物理尺寸限制以及“内存墙”、“功耗墙”等挑战,为AI算力、边缘计算等高端应用提供了性能、功耗与成本的最优解,并正在重塑行业竞争格局 [8][9][27][33] 先进制程成本挑战与行业格局变化 - 先进制程成本指数级上升,设计成本从65nm的2800万美元飙升至2nm的7.25亿美元,5nm工厂投资是20nm的5倍,中小企业已无力承担 [8][9] - 高昂成本导致行业集中度向头部晶圆厂倾斜,而先进封装通过“混合制程”让中小企业无需依赖先进制程即可参与高端芯片设计,成为重构行业格局的关键变量 [9] 芯粒(Chiplet)异构集成的优势 - 核心是“按需分配工艺”,例如CPU用3nm,I/O、模拟电路用成熟制程,最大化性价比 [11] - 相比单片集成(SoC),优势在于:IP复用可缩短研发周期30%以上;小芯片良率更高,拆分后整体良率叠加降低生产成本;独立验证机制减少试错成本,缩短上市时间 [11] - 当系统模块达到8个时,SoC成本呈指数级暴涨,而采用芯粒+3D堆叠(S3D)的方案能在近似性能下实现成本优势 [17] 先进封装在不同应用场景的架构选择 - 性能/瓦/美元成为核心评估指标,行业从“单纯追性能”转向“综合性价比” [19] - 中小系统(如手机芯片)适合“大芯片+3D堆叠”(L3D),追求极致性能;大规模系统(如AI服务器)适合“芯粒+3D堆叠”(S3D),平衡性能与成本 [16][23] - 架构选择根据应用场景动态调整,为不同技术路线的企业提供了差异化竞争空间 [24][25] 先进封装是AI芯片发展的关键路径 - AI加速器性能增速从2017-2022年的47%飙升至ChatGPT后的84%,单芯片已无法承载大模型运行 [27] - 先进封装通过“芯粒+中介层”突破光刻机reticle(830mm²)的尺寸限制,例如台积电CoWoS方案将芯粒拆分后再通过中介层拼接成更大封装面积 [27][31][32] - 2.5D封装集成HBM成为业界标配,数TB/s的内存带宽破解“内存墙”难题,AI算力需求倒逼封装技术升级,三者形成共生增长关系 [29] - 中介层技术的迭代速度将直接决定AI算力的扩张上限,掌握高可扩展性中介层技术的企业将占据主导地位 [34] 互连技术的演进与核心价值转移 - 引线键合已成为性能瓶颈,先进封装通过凸块、焊球、晶圆级封装等方案提升I/O密度,互连密度从1960年代的2/mm²将提升至未来的131072/mm² [38] - 技术参数快速迭代:微凸块间距从30μm缩小至8μm(2025年),RDL线宽/线距从2mL/S降至0.4mL/S,层数从4层增至10层(2026年),每缩小1μm凸块间距,互连密度可提升约20%,延迟降低15% [42] - 先进封装的价值量从后端“辅助工艺”向核心“性能赋能环节”转移,互连相关的中介层、键合、RDL等环节利润率将持续高于传统封装 [39] 光电共封装(CPO)与边缘AI的驱动 - CPO技术将光器件与芯片封装集成,2025年2.5D CPO商用后带宽达3.2T,功耗降至传统方案的0.6x,2030年3D CPO带宽将达12.8T [45] - 短期内形成“电互连为主、光互连为辅”的混合架构,光互连占比将持续提升 [46][47] - 边缘AI(如自动驾驶)需求“高带宽+小型化+低功耗”,SiP封装成为关键解决方案,其增速已超过数据中心,成为先进封装的第二增长曲线 [49][50] - 汽车电子向“中央计算”转型,芯片集成度提升,倒逼封装技术向更高互连密度、更强异构集成能力升级,具备车规认证的封装企业将获得竞争优势 [53] 2.5D封装技术路线与市场格局 - 2.5D封装基于中介层分为硅中介层、有机中介层和硅桥三类,技术路线从“百花齐放”进入“主流集中”阶段 [71][73] - 硅中介层性能优但成本高、可扩展性差;模塑中介层兼具性能与成本,可实现>3.3×reticle扩展,是未来Chiplet异构集成的首选;RDL中介层适用于成本敏感场景 [80][90] - 行业从“标准化产品”向“定制化服务”转型,OSAT企业的盈利能力将与“方案设计能力”强相关 [84] - 国际龙头(台积电、英特尔、三星)在技术成熟度和市场份额上占优,国内企业(长电科技、盛合晶微等)通过对标国际技术和绑定国内核心客户快速突破,国产替代趋势明显 [76][77][78][107] 3D封装与混合键合技术 - 3D封装核心优势是更高互连密度、更低功耗、更小尺寸,通过混合键合技术将互连间距从20μm降至<10μm,是未来大方向 [117][123] - 混合键合通过原子级电介质与金属直接连接,消除焊料层,但大规模量产受制于表面洁净度、对准精度、高温退火、吞吐量与良率等多重挑战 [126][127] - 键合架构中,晶圆对晶圆(W2W)吞吐量高,适用于存储堆叠;裸片对晶圆(D2W)灵活性高,适用于异构集成;集体键合是未来趋势 [136][142][144] - 3D封装应用从存储(3D NAND、HBM)向逻辑芯片扩展,存储领域的技术积累将为逻辑芯片领域的突破奠定基础 [146][150] 市场前景与产业链投资机会 - 先进封装市场增速显著高于整体封测,2024年中国先进封装市场规模967亿元,预计2029年达1888亿元,年复合增长率14.3% [171] - 2.5D/3D工艺价值量高,例如模塑中介层-CoWoS-L 2024年单价达245.88美元,HBM单位价值量0.21美元/mm² [164] - 投资机会集中在设备、材料、OSAT三类企业:设备厂商受益技术升级;材料厂商支撑工艺迭代;OSAT企业直接受益于AI需求和国产替代 [174] - 产业链协同效应至关重要,绑定核心客户、具备全链条整合能力的企业将占据优势 [128][176]
CES 2026 AI竞争“硬碰硬”
北京商报· 2026-01-06 23:52
文章核心观点 - CES 2026是全球科技发展的风向标,汇集最新创新技术并预测未来趋势 [1] - AI是本届CES的绝对主题,竞争从云端走向终端,从理念碰撞转向务实的产品竞争,标志着AI竞争进入新维度 [2][4] - 科技产业正经历一场去伪存真的大考,大量产品落地将验证哪些是解决痛点的真需求,哪些是伪创新,赢家将获得未来长期增长引擎 [4] 行业趋势与竞争格局 - AI应用正从纸上谈兵走向商业实战,芯片的能效比与AI算力直接决定用户体验 [2] - 芯片领域竞争激烈,英伟达、英特尔、AMD、高通的角逐不仅是技术路线的选择,更是对未来计算架构的押注 [2] - 具身智能(特别是人形机器人)成为新看点,复制了生成式AI的爆发路径,但速度更快、产品更实、场景更真,是过去一年中国AI产品最活跃的赛道 [2] - 应用层迎来大爆发,涵盖芯片、人形机器人、AI眼镜、AI家电等领域 [3] - 科技竞争的关键词是硬碰硬拼产品,从芯片到硬件再到垂直场景 [4] 参展公司与产品动态 - 主流焦点公司包括英伟达、AMD、联想、海信、TCL等,中美科技企业借此展开新一轮AI对话 [2] - 中国机器人军团集中亮相,大量人形机器人企业首秀,改变了中国企业的参展格局 [2] - 除联想、海信、TCL、京东方等传统巨头外,具身智能成为证明“中国创新”硬实力的新坐标 [2] - 以“网红”宇树为代表的企业面临更多竞品,中国企业带着真实产品、明确订单需求和清晰落地场景在海外市场展开竞争 [3]
苏姿丰:未来几年,全世界算力需增加100倍!
新华网财经· 2026-01-06 22:57
行业趋势与市场需求 - 自ChatGPT推出以来,使用AI的活跃用户已从100万人增至10亿人,预计2030年将达到50亿人 [4] - 为了让AI无处不在,未来几年内需要将全世界的计算能力增加100倍,算力将进入Yotta Flops(每秒10^24次浮点运算)时代 [3][4] AMD的战略发布与产品路线图 - 公司展示了面向Yotta级AI时代的核心平台Helios,该平台基于OCP开放式机架宽标准,重量近7000磅,机架最多可搭载72块GPU,采用2nm和3nm工艺,并采用全液冷设计 [4] - 公司计划在2027年推出MI500系列芯片,该架构将采用2纳米工艺并搭载HBM4e内存,有望在4年时间内将AI芯片性能提升1000倍 [2][5] - 公司认为AI的普及是一个系统级工程,需要云端、PC端和边缘侧的协同,AI PC是下一代个人计算的基础设施,AI正在成为PC的“默认能力” [5] 全新AI芯片与数据中心产品 - 发布了全新一代AI芯片MI455X GPU,该芯片是公司史上最先进处理器,拥有3200亿个晶体管,相比上一代MI355增加了70%,采用2nm和3nm工艺,配备432GB的HBM4 [5] - 针对企业级市场,推出了新产品MI440X芯片,专为较小的企业数据中心设计,允许客户在本地设施部署硬件并保存数据 [5] - Helios平台由四款核心硬件驱动:Instinct MI455X GPU、EPYC "Veince" CPU、Pensando "Vulcano" 800 AI网卡以及Pensando "Salina" 400 DPU [4] PC与开发者端AI产品 - 正式推出Ryzen AI 400系列处理器,采用Zen 5 CPU架构与RDNA 3.5 GPU,集成最高60 TOPS的NPU算力,并全面支持Windows Copilot+生态,首批Ryzen AI 400 PC将于本月晚些时候发布,全年将推出超过120款设计 [6] - 发布了面向高性能开发者和创作者的Ryzen AI Max平台,其核心在于CPU、GPU与NPU之间高度整合的内存架构,以提升本地AI推理效率 [6] - 发布了AI开发平台Ryzen AI Halo,搭载旗舰Ryzen AI Max和128GB内存,并预装了开源工具和模型,预计今年第二季度上市 [6]
小摩看好2026年半导体前景 英伟达在机器人赛道更胜一筹
新浪财经· 2026-01-06 22:52
行业需求与增长动力 - 英伟达与超威半导体在CES主题演讲中均强调了爆发式的增长需求 [1] - 目前许多客户正面临算力受限的困境,急需更多产能 [1] - 2026年传统个人电脑和服务器的需求看起来相当稳健 [1] 关键市场机遇 - 英伟达与超威半导体均将“物理人工智能”视为一个巨大的、且在很大程度上尚未开发的机遇 [1] - “物理人工智能”指应用于机器人和自动驾驶领域的AI技术 [1] 公司竞争格局 - 与超威半导体相比,英伟达似乎在获取更大市场份额方面更具优势 [1] - 英特尔正利用其规模和生态系统优势,开发并推动从PC算力到广泛AI边缘设备的AI处理能力 [1]
Stock market today: Dow, S&P 500, Nasdaq nudge higher after Dow's rally to record
Yahoo Finance· 2026-01-06 22:35
US stocks tipped slightly higher on Tuesday, with investors continuing to weigh US moves on Venezuela as they brace for a flurry of fresh data this week to shed light on the health of the economy. The S&P 500 (^GSPC) nudged up 0.1%, while the tech-heavy Nasdaq Composite (^IXIC) rose about 0.3%. The Dow Jones Industrial Average (^DJI) was roughly flat on the heels of Monday's record-setting gain for the blue-chip index. Markets are regrouping after energy stocks outperformed in the wake of the US ouster ...
英伟达(NVDA.US)、AMD(AMD.US)新品引爆CES!获华尔街普遍看好:“40年一遇”AI浪潮再升级
智通财经· 2026-01-06 21:35
英伟达在CES 2026发布的核心产品与市场展望 - 英伟达推出专为自动驾驶打造的开放模型家族Alpamayo [1] - 英伟达下一代计算平台Vera Rubin(Grace Blackwell的继任者)已进入全面量产阶段 [1] - 韦德布什证券分析师团队认为,机器人与自动驾驶技术市场为英伟达创造的增量机遇,将推动其市值在短期内突破5万亿美元,并有望触及6万亿美元 [1] AMD在CES 2026发布的核心产品与市场定位 - AMD发布面向小型企业数据中心的全新MI440X芯片 [1] - AMD推出AMD Ryzen AI嵌入式处理器 [1] - 摩根士丹利分析师指出,AMD的MI455是领先产品,并拥有核心客户OpenAI的支持,预计在2026年第三、四季度将迎来强劲放量增长 [3] 华尔街对AI算力需求与行业趋势的分析 - 摩根大通分析师确信2026年AI算力需求仍将强劲增长,传统PC与服务器需求亦将保持稳健 [2] - 英伟达与AMD均强调,推理token的爆炸式增长是算力需求的核心驱动力,众多客户目前算力吃紧 [2] - 韦德布什证券分析师认为,未来三年全球企业将从3至4万亿美元的AI资本支出浪潮中受益 [2] - 摩根大通分析师指出,物理AI是一个巨大且尚待开发的机遇,英伟达相较AMD处于更有利地位 [2] 边缘AI与竞争对手动态 - 英特尔发布算力高达180 TOPS的Core Ultra3系列(Panther Lake),可运行700亿参数模型,推动AI处理能力在PC及边缘设备中落地 [2] - 摩根士丹利分析师指出,CES展会凸显了AMD在CPU领域相对英特尔的领先地位,但该市场正承受内存涨价带来的巨大压力 [3] - 摩根士丹利分析师表示,在谷歌TPU竞争背景下,英伟达对Vera Rubin的信心是积极信号,市场热情有望随着实际数据兑现而重新点燃 [3] 对特斯拉及其他公司的潜在影响 - 韦德布什证券分析师认为,英伟达专为自动驾驶汽车设计的新基础模型对特斯拉构成边际利好,因特斯拉正寻求加速自动驾驶技术落地并从中获利 [1] - 摩根士丹利分析师指出,AMD当前的成功更多受益于整体算力需求的持续旺盛,而非在总体拥有成本层面确立长期优势 [3]
Ventiva Showcases AMD-Powered AI-Ready Laptop Reference Design at CES
Businesswire· 2026-01-06 21:35
LAS VEGAS--(BUSINESS WIRE)--Ventiva®, a leader in thermal solutions, today introduced its new AI- Ready Laptop reference design, powered by the latest AMD Ryzen series mobile processor, at CES 2026. AI workloads are reshaping laptop system architecture, with large language models (LLMs), sustained high-power operation, and increasing on-device inference generating concentrated heat that conventional fan-based cooling struggles to manage. Through this reference design, Ventiva is demonstrating ho. ...
AI进化速递丨AMD推出下一代新品
第一财经· 2026-01-06 21:09
人工智能行业技术进展 - 阿里巴巴升级其AI代码助手Qoder的补全功能,使AI生成的代码采纳率提升了65% [1] - 简智机器人公司正式开源了据称是具身智能行业内规模最大的无本体数据集 [1] 人工智能行业融资动态 - 脑机接口领域的“独角兽”公司强脑科技完成了20亿元人民币的融资 [1] 半导体行业产品发布 - AMD公司推出了下一代AI芯片MI455 GPU [1] - AMD公司计划在未来4年时间内,将其AI性能芯片的性能提升1000倍 [1]
存储猛拉,AI存力超级周期到底有多神?
36氪· 2026-01-06 20:19
文章核心观点 AI需求全面驱动存储行业进入上行周期,从HBM延伸至DRAM、NAND、HDD等传统存储领域,行业格局被重塑[3] 本轮周期的猛烈程度高于以往,以美光为例,其下季度毛利率指引达66-68%,创历史新高[1] AI服务器从训练向推理的重心转移,催生了“低延迟、大容量、高带宽”的差异化存储需求,而存储厂商资本开支向高附加值的HBM与DRAM倾斜,形成结构性供需失衡,推动产品价格大幅上涨[3] AI服务器带来的存储大周期 - AI需求彻底重塑存储行业格局,带动HBM、DRAM、NAND、HDD全品类进入全面上行周期[3] - AI服务器数据流动路线清晰:HDD的冷数据 -> SSD预热 -> DRAM中转 -> HBM配合计算,各部分在训练和推理服务器中均需要[12] - 当前AI服务器领域出现明显变化:重心从训练向推理迁移,推理服务器更注重DDR(并发任务)、SSD(快速响应)和HDD(大容量)[14] 各类存储在AI服务器中的角色 - **HBM**:与GPU芯片3D堆叠,是GPU的“专用显存”,具有高带宽、高功耗特点,决定单GPU可承载的模型规模与响应速度,是AI服务器的“性能天花板”[11] - **DRAM (DDR5)**:是数据交换枢纽,连接HBM与NAND的“桥梁”,速度比HBM慢但容量大很多倍,其容量决定单服务器可同时处理的任务数,是AI服务器的“内存基石”[12] - **NAND (SSD)**:是热数据仓库,高频访问数据的“快速持久层”,连接DRAM与HDD,作为AI数据中心的“性能-容量平衡者”,是训练数据“快速补给站”和推理服务“快速响应核心”[12] - **HDD**:海量冷数据的低成本容器,具有大容量、成本低特点,是AI数据中心的“容量基石”,决定整体数据存储规模[12] 当前AI存储的特点与“内存墙”瓶颈 - AI数据中心核心矛盾是“内存墙”瓶颈:算力增长速度远超数据传输速度,导致GPU等计算单元空置率高达99%[5] - 以H100为例,HBM带宽3.35TB/s,单Token计算时间10微秒,但加载模型权重(如10GB)和KV缓存(如20GB)需要约9毫秒,计算闲置时间占比近99%[16] - 应对“内存墙”的三大方法: 1. **HBM升级**:堆叠层数从12-Hi向16-Hi升级,传输速度有望从B300的8TB/s提升至16-32TB/s,减少数据排队等待时间[18] 2. **SRAM应用**:3D堆叠SRAM将KV缓存、模型轻量权重放在计算单元近端,量产后采用“SRAM+HBM”形式(SRAM负责“快”,HBM负责“多”),有望将延迟从100ns大幅缩短至2ns附近[19] 3. **存算一体**:将部分算力嵌入存储内部,彻底消除数据搬运速度问题,预计2027年及之后逐渐成为解决途径[19] - 英伟达收购Groq属于防御性收购,旨在获得其SRAM技术(LPU架构、TSP微架构等)和人才,以提升AI推理能力并防止技术落入竞争对手之手[21] HBM市场供需与升级 - HBM是AI需求带来的“从无到有”的直接增量需求,其需求量与AI芯片出货直接挂钩[23] - 当前主流AI芯片(英伟达、AMD、谷歌)基本搭载HBM3E,三大原厂已开始对HBM4进行送样,HBM4预计2026年开启量产[6][24] - **供给端**:三大原厂(三星、海力士、美光)资本开支重心投向HBM领域[27] 2025年四季度三家合计HBM月产能约39万片,预计到2026年四季度提升至51万片[29] 考虑产能爬坡和50%综合良率,预计2026年HBM供应量约为41.9亿GB[34][35] - **需求端**:HBM需求量通过“CoWoS -> AI芯片 -> HBM”路径估算,2026年全球CoWoS需求量约128万片,对应HBM需求量约42亿GB[36][39] - **供需格局**:2026年HBM市场呈现“供应紧平衡”状态,供应量(41.9亿GB)与需求量(42亿GB)基本匹配[6][39] - **竞争格局**:海力士占据当前HBM市场近一半份额,三星和美光份额接近[32] 随着三星HBM3E在2024年四季度获得英伟达认证,其出货份额有望回升并反超美光[32]