摩尔定律
搜索文档
晶体管专利 75 周年:开启硅与软件时代
半导体行业观察· 2025-10-06 10:28
晶体管发明与专利历史 - 贝尔实验室的三位科学家约翰·巴丁、沃尔特·布拉顿和威廉·肖克利于1950年10月3日获得晶体管美国专利 [4] - 第一个可工作的晶体管于1947年问世,专利针对一个"利用半导体材料的三电极电路元件" [4][5] - 该发明点燃了第三次工业革命,开创了硅与软件的时代 [2] 晶体管的技术优势与应用 - 晶体管取代了笨重、易碎且耗电的电子管,带来了计算速度、能效和可靠性方面的巨大飞跃 [7] - 电子管仍在某些吉他放大器、发烧级音响系统、军事、科学及微波/射频等小众领域使用 [5] - 晶体管成为集成电路和处理器的基础,在比单个电子管小得多的面积内容纳数十亿个晶体管 [7] 摩尔定律与行业发展 - 英特尔联合创始人戈登·摩尔于1965年提出摩尔定律,预测集成电路上的晶体管数量每两年翻一番且成本增幅极小 [7] - 该定律在1975年被修订为从一年改为两年翻一番 [7] - 目前科技世界正聚焦于人工智能发展,认为可以制造拥有"心智"的机器 [11]
台积电终结一个时代
半导体行业观察· 2025-10-06 10:28
文章核心观点 - 全球半导体行业正经历深刻经济转型,核心是台积电,标志着一个晶体管成本可预测下降时代的终结 [2] - 台积电决定对最先进逻辑芯片实施前所未有的价格上涨,此举措由巨额资本支出、地缘政治任务及物理限制所驱动 [2] - 台积电利用其技术优势为下一代创新提供资金,此举将永久性提高整个数字经济基础组件的成本基准 [2] 摩尔定律的脱钩 - 摩尔定律已达到拐点,制造成本增长速度现已超过仅靠密度缩放所能抵消的经济效益 [4] - 台积电将从2026年起对5纳米以下先进节点实施5-10%的价格上涨,最具战略意义的调整是向2纳米节点的代际飞跃 [4] - 2纳米节点生产的晶圆价格将比其前代产品飙升超过50%,单片晶圆价格将推高至30,000美元或更高 [4] - 在主要节点过渡中,每晶体管成本将首次上升,获得半导体技术巅峰成为一项高价服务 [4] 为"主权"买单 - 台积电成本结构上升的一个主要催化剂是全球多元化所需的巨额资本支出,深受地缘政治压力影响 [6] - 台积电在美国亚利桑那州工厂的总支出已飙升至1,650亿美元,是美国历史上最大的单笔外国直接投资 [6] - 海外工厂运营成本显著高于台湾晶圆厂,AMD证实亚利桑那晶圆厂生产的芯片贵5%到20%,行业报告显示4纳米生产溢价可能高达30% [6] - 台积电承认海外晶圆厂将使其合并毛利率稀释2-3%,提价被视为抵消更高运营和地缘政治成本的"不可避免"的必需品 [8] 半导体晶圆成本演变 - 7纳米节点(2018年)晶圆价格约为9,350美元 [7] - 5纳米节点(2020年)晶圆价格约为17,000美元,代际价格上涨约82% [7] - 3纳米节点(2022-2023年)晶圆价格约为20,000美元,代际价格上涨约18% [7] - 2纳米节点(预计2025年)晶圆价格预计为30,000美元以上,代际价格上涨超过50% [7] 用GAA挑战原子壁垒 - 价格飙升的第二个主要驱动力是保持领先地位所需的技术复杂性,行业正通过全环绕栅极晶体管在埃米尺度上突破物理边界 [10] - 从3纳米到2纳米节点的飞跃需要从FinFET架构过渡到GAA架构,这是十多年来晶体管设计中最重大的变化之一 [10] - GAA晶体管的制造比FinFET"复杂了一个数量级",涉及多步骤工艺,引入了许多新的潜在故障模式和更高的开发成本 [14] - 最先进设施成本在150亿到200亿美元之间,极紫外线光刻机每台成本约为3.5亿美元 [14] - 行业正与随机缺陷作斗争,这代表着缩放的一个根本性障碍,并确保未来的进步将以结构性更高的成本为代价 [14] 客户反应 - 英伟达公开支持价格上涨,首席执行官认为台积电的价值没有在目前定价中得到充分体现,并称台积电为"人类历史上最伟大的公司之一" [16] - 苹果作为台积电最大的单一客户,面临晶圆成本上升和地缘政治关税的挑战,但确保获得最先进工艺技术对其产品路线图至关重要 [16] - 苹果承诺在美国制造业投入6,000亿美元以获得额外半导体关税豁免,其在2025年第三季度产生了8亿美元的关税相关成本,预计下一季度将上升至11亿美元 [17] - 高通和联发科面临直接的利润挤压,联发科在N3P工艺上的成本增长达24%,高通面临16%的增长 [17] - 高通首席执行官表示,英特尔代工技术目前还不是用于移动芯片的可靠、高良率替代品,这巩固了台积电的杠杆作用 [17] 对消费价格和数据中心的影响 - 安卓芯片巨头面临的利润挤压将"不可避免地转化为2026年起旗舰消费设备的价格上涨",顶级产品逐步降价的时代已经结束 [19] - 在数据中心领域,30,000美元以上的2纳米晶圆成本为未来所有AI和高性能计算组件设定了明显更高的价格底线 [19] - 财务压力加速行业向小芯片架构转变,对组件使用更旧、更具成本效益的工艺,而只将昂贵的2纳米工艺保留给性能关键的逻辑部分,正从工程选择转变为经济必需 [19] - 台积电正在利用其技术主导地位和市场力量,实施新的定价范式,以确保其财务稳定并支持推进技术的挑战性工作 [19]
摩尔定律已死,CUDA帝国永生
搜狐财经· 2025-10-05 16:50
人工智能增长驱动力 - 人工智能的扩展定律从单一预训练演变为三个:预训练、训练后(强化学习)和思考(研究核实事实后生成答案)[4] - 三条新规模法则共同构成人工智能推理计算需求“十亿倍”增长的基石,AI系统由多模型并发运行且多模态化[4] - 华尔街线性预测模型与AI指数级增长需求存在巨大认知分歧,华尔街对英伟达2027年后年增长率预期仅为8%[5] 英伟达市场机遇 - 物理定律决定通用计算时代结束,全球数万亿美元计算基础设施面临从通用计算向加速计算的彻底刷新[6] - AI第一个杀手级应用已无处不在,将字节跳动、谷歌等巨头传统计算方式转向AI驱动是数千亿美元市场,约40亿人日常使用加速计算服务[6] - 人工智能增强全球50万亿美元智力活动,假设创造10万亿美元新价值,需5万亿美元AI基础设施支撑,当前年市场规模约4000亿美元[7] 英伟达竞争壁垒 - 英伟达护城河是“人工智能工厂”系统工程,即使对手芯片免费,客户因能源限制和机会成本仍应选择英伟达系统[8][9] - 通过极端协同设计优化模型、算法、系统和芯片,Blackwell平台比上一代Hopper性能提升30倍,实现数据中心级别系统工程迭代[9] - 供应链深度绑定(提前一年启动晶圆和HBM采购)和客户规避未经验证架构的风险,使新进入者难以竞争[11] 全球AI竞赛与地缘政治 - 每个主权国家将拥有自主AI基础设施视为国家经济安全头等大事,主权AI需求真实庞大[13] - 将中国市场让给本土企业是战略错误,中国拥有优秀企业家、顶尖理工科学校和庞大AI工程师群体,技术仅落后“几纳秒”[14] - 符合美国利益的做法是让科技产业全球竞争,使美国技术成为标准,开放市场能促进中国产业活力且符合美国利益[14] 人工智能社会影响 - 人工智能带来生产力提升而非大规模失业,智力非零和游戏,经济整体增长将创造更多岗位[17] - AI是最伟大均衡器,技术鸿沟被填平,过去需学习编程现在只需人类语言即可创造经济价值[17] - 未来五年AI与机器人技术融合,每个人拥有R2-D2机器人伙伴和数字孪生预测健康[17]
英特尔,永远不能停下来
半导体芯闻· 2025-09-30 18:24
公司历史与领导力 - 1995年时公司是全球主导的半导体公司,全球80%的个人电脑使用其微处理器[2] - 自1987年安迪·格鲁夫担任CEO至1995年,公司收入增长近六倍,达到115亿美元,从行业第十位跃升至第一位[2][3] - 1995年公司预计出货超过3500万颗奔腾芯片及50万颗下一代P6芯片,华尔街预测当年销售额约160亿美元,利润达36亿美元[3] - 公司股价自1995年1月以来几乎翻倍,达到111美元,有分析师预测到本世纪末年销售额将达到500亿美元[3] 战略愿景与市场定位 - 核心战略是将个人电脑打造为极致的娱乐机器和重要通讯媒介,与电视争夺用户闲暇时间[5] - 战略基于半导体技术的陡升轨迹以及新一代非技术专家的消费者用户,1994年美国消费者在PC上的支出已超过电视[5] - 目标是通过超强的微处理器集成多媒体功能,定义全球消费电脑标准,从而主导PC硬件市场并掌握开发衍生产品的主动权[6] - 公司已有ProShare桌面视频会议设备、有线调制解调器等技术和产品雏形,以实现其战略目标[6] 技术创新与产品开发 - 推出名为原生信号处理的技术战略,旨在开发PC标准设计,使其多媒体能力由微处理器本身提供,而非额外硬件[13] - NSP战略高度依赖摩尔定律和“食人原理”,假设微处理器性能提升将吸收许多现需额外芯片的功能[13] - 公司32,600名员工中有2,000人是程序员,负责编写嵌入芯片的软件及开发NSP核心软件[13] - 公司开创了“闪存”技术,并生产用于数字视频信号转换、控制激光打印机等专用微处理器[20] 运营管理与财务表现 - 首席运营官克雷格·巴雷特几乎管理公司日常运营,自1990年以来监督72亿美元的资本支出扩建工厂[7][19] - 在巴雷特管理下,公司资产回报率从12.1%提升到16.6%,员工人均收入翻倍至37万美元以上[19] - 公司在全球多地建有复杂的芯片工厂,并有七个新工厂在建设中,最近宣布将在中国建立第八家工厂[20] - 1994年公司在《财富》500强中营收回报率排名第四,即便为修复奔腾缺陷预留了4.75亿美元[19] 行业竞争与合作伙伴关系 - 公司的标准化战略可能使PC更像商品化产品,压缩电脑制造商利润空间,并挑战微软在软件领域的主导地位[7][14] - 与微软存在潜在裂痕,公司指责微软缺乏改进消费PC的紧迫感,并希望通过NSP战略给微软施加压力以跟上硬件设计节奏[7][13] - 公司扩大主板制造业务,使小厂商能快速获取最新技术,加剧了PC硬件市场的竞争自由化,引起康柏等大厂不满[14] - 公司积极与好莱坞及电信业领袖交流,探索让PC更具娱乐性和通讯功能的方法,但承认两个行业存在巨大文化差异[8][17] 企业文化与领导特质 - 公司企业文化受“格鲁夫定律”驱动,即“只有偏执者才能生存”,解释了公司极具攻击性的文化和领导者的不安宁特质[9] - 领导者安迪·格鲁夫以亲力亲为著称,在20多年里掌管产品开发和制造运作,后几乎放下一切全力追逐其PC愿景[7] - 领导者经历纳粹反犹暴行和斯大林统治后于1957年逃往西方,其人生多次面对十字路口时总是选择更冒险、更陌生的道路[9][10] - 尽管公司运营良好,但创始人戈登·摩尔认为“格鲁夫定律”总会让CEO夜不能寐,无法真正放松[18]
系统组装:AI服务器升级的新驱动力
东方证券· 2025-09-28 22:43
行业投资评级 - 电子行业评级为看好(维持)[5] 核心观点 - 系统组装成为AI服务器性能提升的新驱动力 替代制程工艺升级放缓的瓶颈[8] - 制程工艺升级驱动芯片性能提升 但未来升级步伐可能放缓 台积电工艺从2011年28nm升级至2025年2nm 并有望2028年升级至A14工艺(1.4nm)[8] - 先进封装成为芯片性能提升的又一驱动力 英伟达B200采用双颗裸晶合封工艺 实现单一封装集成2080亿颗晶体管 超过H100(800亿颗晶体管)两倍[8] - AI服务器GPU数量从单台8张升级至单个机柜72张 并将在2027年VR Ultra NVL576机柜中升级至144张GPU(每张封装4颗GPU裸晶 合计576颗GPU裸晶)[8] 投资建议与投资标的 - 维持推荐AI服务器系统组装相关标的:工业富联(601138 买入)、海光信息(688041 买入)、联想集团(00992 买入)、华勤技术(603296 买入)等[8] - 工业富联:GB200系列产品测试二季度较一季度大幅优化 系统级机柜调试时间显著缩短 自动化组装流程导入 预计GB200三季度出货量延续强劲增长 主要订单来自北美大型云服务商 GB300单台利润存在超过GB200潜力[8] - 海光信息:合并中科曙光 有望形成包括CPU、DCU及系统组装在内的垂直整合能力[8] - 联想集团:英伟达表示联想等合作伙伴预计从2025年下半年开始推出基于Blackwell Ultra的各类服务器[8] - 华勤技术:国内知名互联网厂商AI服务器核心ODM供应商 交换机、AI服务器、通用服务器等全栈式出货 受益下游云厂资本开支扩张[8] 市场背景与趋势 - AI服务器市场保持增长 硬件升级正当其时[7] - AI算力设施需求驱动 SiC/GaN打开成长空间[7] - AI算力浪涌 PCB加速升级[7]
通用计算时代已经结束,黄仁勋深度访谈,首次揭秘投资OpenAI的原因
36氪· 2025-09-28 15:37
AI计算需求与增长动力 - AI计算需求正经历双重指数级复合增长:AI用户使用量呈指数级爆发,同时AI推理方式从简单一次性回答升级为复杂"思考"过程,导致每次使用所需计算量呈指数级增长,预计将带来10亿倍的推理需求增长 [2][4][11] - AI基础设施市场当前年规模约为4000亿美元,未来总体潜在市场规模有望增长至少10倍 [2][6][22] - AI推理收入占比已超过40%,且由于思维链出现,推理即将迎来爆发式增长 [10] AI工业革命与市场转型 - AI基础设施建设被视为一场工业革命,全球数万亿美元现有计算基础设施(包括搜索、推荐引擎、数据处理等)正从使用CPU迁移至AI加速计算 [2][6][19] - 通用计算时代已经结束,未来属于加速计算和AI计算,这一转型涉及数万亿美元规模的市场机会 [19][20][24] - 传统数据处理(结构化与非结构化)目前绝大多数仍在CPU上运行,未来将全部迁移至AI,这是一个庞大且尚未被充分开发的市场 [31] OpenAI合作与投资逻辑 - OpenAI有望成为下一家万亿美元级超大规模公司,将同时提供消费级和企业级服务 [3][5][14] - 对OpenAI的1000亿美元投资被视为"能想象到的最明智投资之一",投资逻辑基于对其成为下一代超大规模公司的预期 [3][5][14] - 合作涵盖多个层面:加速Microsoft Azure构建、Oracle Cloud Infrastructure构建,以及直接帮助OpenAI首次自建AI基础设施(涉及芯片、软件、系统和AI工厂) [15][16] NVIDIA竞争优势与战略 - 采用"极致协同设计"战略,在算法、模型、系统、软件、网络、芯片等整个堆栈上进行同步创新和优化,构建强大竞争壁垒 [3][8][36] - 通过全栈设计实现性能飞跃(例如Hopper到Blackwell性能提升30倍),这种深度优化使单位能耗性能达到最优,即使竞争对手芯片免费,客户因机会成本过高仍会选择NVIDIA系统 [3][8][49] - 年度发布周期(如2024年Blackwell、2026年Vera Rubin、2027年Ultra、2028年Feynman)使竞争对手难以跟上,供应链锁定效应显著增强 [35][36][39] 行业前景与华尔街预期 - 华尔街分析师预测公司增长将在2027年趋于停滞(8%增长),但公司认为市场上的计算资源仍处于短缺状态,供应过剩可能性极低 [7][18][29] - 直到所有通用计算转换为加速计算、所有推荐引擎基于AI、所有内容生成由AI驱动,供给过剩情况才可能发生 [7][28] - AI驱动收入预计将从2026年的1000亿美元增长至2030年的1万亿美元,增长动力来自现有超大规模计算基础设施的AI转型和新应用场景的爆发 [24][27][28] 技术演进与系统复杂度 - 摩尔定律失效导致晶体管成本和能耗不再有显著改进,传统计算无法继续提供必要性能提升,必须通过系统级创新实现性能跨越 [2][8][36] - AI工厂是极其复杂的系统,涉及芯片、软件、网络、电力等多维度协同,目前没有任何公司能跟上NVIDIA的产能和研发节奏 [38][39][52] - 公司定位从芯片公司转变为AI基础设施合作伙伴,提供从芯片到系统的全方位解决方案,这种定位转变扩大了市场机会和客户合作范围 [3][52]
黄仁勋最新访谈:AI泡沫?不存在的
虎嗅APP· 2025-09-28 08:34
文章核心观点 - 英伟达对OpenAI的投资是独立于商业合作的财务机会,基于对其成为下一家数万亿美元级别超大规模公司的信念 [13][14] - 公司认为其护城河比三年前更宽,核心优势在于极致的软硬件协同设计能力、规模效应和全栈AI基础设施提供能力 [5][44][48] - AI推理需求正经历双重指数增长,推动计算基础设施从通用计算向加速计算全面迁移,市场规模将扩大数倍 [10][20][23] - 公司通过年度发布节奏持续提升性能,以应对算力需求指数增长,并认为在完成全面迁移前出现供给过剩的概率极低 [40][30][31] - 主权AI成为全球趋势,每个国家都需要建设AI基础设施,这为公司开辟了新市场 [66][67][68] 投资OpenAI的战略逻辑 - 投资OpenAI是基于其成为下一家数万亿美元级别hyperscale公司的潜力,而非合作前提 [13][14] - 公司与OpenAI的合作涵盖多个项目:Microsoft Azure建设、OCI(Oracle Cloud Infrastructure)5-7吉瓦容量建设、CoreWeave合作,新合作是帮助OpenAI首次自建AI基础设施 [14] - OpenAI面临两个指数曲线:客户数量指数增长和每个场景算力需求指数增长,新合作是对现有合作的增量支撑 [14] AI需求规模与市场预期 - 当前AI推理收入占比超过40%,且因链式推理技术面临爆发 [7] - 公司提出三条Scaling Law:预训练、后训练(强化学习)和思考型推理,替代单一Scaling Law [10][11] - 华尔街共识预测2027-2030年公司年化增速8%,但建设者(如公司CEO、Sam Altman等)认为AI收入将从2026年1000亿美元增长至2030年1万亿美元 [17][19][28] - 全球GDP约50万亿美元(占比55%-65%)将被AI增强,假设10万亿美元增强价值需AI基础设施支持,对应年资本开支约5万亿美元 [21][22] - 阿里巴巴计划到2030年代将数据中心能耗提升10倍,公司收入与电力消耗正相关 [23] 技术优势与竞争壁垒 - 公司护城河比三年前更宽,优势包括极致协同设计(同时优化模型、算法、系统、芯片)、规模效应(供应链锁定、客户大额订单信心)、全栈能力 [5][44][48] - 从Kepler到Hopper十年性能提升10万倍,Hopper到Blackwell一年系统级提升30倍,未来Rubin、Feynman架构将继续倍数级提升 [41][43] - 公司业务本质是AI基础设施系统(AI工厂),而非单一芯片;竞争对手ASIC即使免费提供,因土地、电力等设施成本占主导(1吉瓦数据中心设施成本约153亿美元),且公司单位能耗性能领先,总拥有成本仍更低 [48][57][58] - CUDA高度可编程性适配快速演进的AI工作负载(如Transformer变体),而ASIC面临市场变大后向COT(客户自有工具)模式转变的挑战 [50][52] 供应链与产能管理 - 公司按需响应产能,供应链已准备好翻倍能力;客户预测持续偏低,导致公司处于紧急追赶模式 [31][32] - 年度发布节奏需要提前规划数千亿美元级别晶圆启动、DRAM采购规模,供应链深度协同 [45] 行业生态与合作策略 - 公司推出NVLink Fusion、Dynamo等开放技术,支持Intel、Arm等生态接入,实现双赢 [55][56] - 与Intel合作融合其企业生态与公司AI生态,与Arm合作类似,扩大市场机会 [56] 主权AI趋势 - AI成为国家基础设施必需品,每个国家需具备主权AI能力以融入文化、价值观,并培养自身智能体系 [66][67][68] - 公司定位为AI基础设施合作伙伴,参与全球国家级别AI建设 [68]
2nm后的晶体管,20年前就预言了
半导体行业观察· 2025-09-27 09:38
文章核心观点 - 文章回顾了约20年前由劳伦斯伯克利国家实验室杨培东团队在环栅晶体管(GAA-FET)领域的开创性研究,该研究通过自下而上的化学合成方法(化学气相沉积)成功制造了硅垂直集成纳米线场效应晶体管(Si VINFET),验证了环栅结构在纳米尺度下的可行性与性能优势,为当今半导体行业向GAA晶体管架构演进提供了早期的概念验证和技术启示 [1][2][9] GAA晶体管的技术演进与行业背景 - 环栅晶体管设计是继鳍式场效应晶体管之后的关键架构进步,其栅极完全环绕纳米级硅通道,能提供比FinFET更精确的电流控制,从而提高性能并降低功耗 [2][4] - 随着芯片制造工艺进入5纳米以下节点,FinFET的缩放面临栅极效率和能效下降的挑战,行业需要GAA等新结构来继续推动摩尔定律,实现更高的晶体管密度 [5] - 微芯片制造商的目标是将数百亿个晶体管封装到指甲盖大小的芯片中,晶体管尺寸需缩小至2纳米甚至更小 [5] 早期研究的创新方法与成果 - 2006年,杨培东团队在《纳米快报》上发表了开创性论文,首次展示了一种非传统的自下而上方法,利用化学气相沉积技术生长垂直硅纳米线,并以此制造出功能性的环栅晶体管结构 [6][9] - 该团队使用行业标准材料,通过化学合成而非传统光刻技术,实现了环绕栅极结构,证明了该架构的根本可行性 [6][9] - 早期制备的原型器件(Si VINFET)将硅纳米线的外延生长与自上而下的制备工艺相结合,其电学性能已与当时的标准晶体管及其他基于纳米线的器件相当 [10][25] 环栅晶体管的结构优势与潜力 - 理论及早期研究表明,与双栅极的FinFET器件相比,环绕栅极结构因其高栅极耦合效率,可使短沟道效应降低35% [13] - 利用垂直排列的高长径比纳米线沟道,沿单根纳米线长度方向制备多个栅极和源/漏连接,可显著提高单位面积的晶体管密度,实现三维集成 [12][13][25] - 将纳米线嵌入低电荷俘获密度的二氧化硅中,可消除阈值电压滞后现象,使晶体管性能更稳定、更具可重复性 [12][16] 原型器件的具体性能表现 - 研究的11个器件的平均阈值电压为-0.39±0.19V,开关电流比范围为10⁴至10⁶ [16][20] - 器件的归一化跨导范围为0.65-7.4 μS/μm,与高性能绝缘体上硅MOSFET和p型硅纳米线器件的报道值相当 [17][19] - 计算得到的空穴迁移率范围为7.5-102 cm²·V⁻¹·s⁻¹,平均值为52 cm²·V⁻¹·s⁻¹,与未功能化的p型硅纳米线报道值处于同一数量级 [19] - 对于栅极氧化层厚度为300 Å的典型器件,其亚阈值斜率值为120mV/十倍频,虽为理论极限的两倍,但已远小于当时具有背栅或顶栅结构的纳米线器件的典型值(通常>300mV/十倍频) [20] 技术可扩展性与应用演示 - 研究团队已成功制备出硅纳米线沟道直径仅为6.5纳米的器件,明确证明了进一步缩小器件尺寸的能力 [22] - 通过将器件与一个200 MΩ电阻串联,成功制备了反相器电路,演示电压增益约为28,证明了其在数字逻辑应用中的可行性 [24] - 通过传统热氧化工艺,可将沟道直径轻松缩小至5纳米以下,这种高长径比的薄体结构难以通过传统光刻技术实现 [14]
双“英”恩仇:英特尔和英伟达的三十年
经济观察网· 2025-09-27 00:50
文章核心观点 - 英伟达宣布向英特尔注资50亿美元,双方将合作开发"Intel x86 with RTX"芯片,标志着两家芯片巨头在长达三十年的竞争后走向合作 [1] - 此次合作可能引发全球芯片行业的重大洗牌,影响华尔街和科技圈 [1] - 双“英”关系演变是行业颠覆式创新的典型案例,从初期和平共处到激烈竞争,再到因AI浪潮导致权力更迭,最终走向合作 [1][26] 公司发展历程 - 英伟达于1993年由黄仁勋、克里斯·马拉科夫斯基和柯蒂斯·普利姆共同创立,创业初期资源匮乏,启动资金仅500万美元 [2][3] - 1993年英特尔年收入约88亿美元,利润超20亿美元,CPU市场份额超80%,与初创的英伟达形成巨大差距 [3] - 1999年英伟达推出全球首款GPU GeForce 256,凭借3D渲染能力声名鹊起,但当时英特尔并未视其为威胁 [5] - 2001年英伟达推出nForce芯片组挑战英特尔,双方专利战开启,2009年英伟达以支付15亿美元许可费和解 [6][8] - 2015年英伟达市值150亿美元,到2024年突破3万亿美元,成为全球市值最高科技公司 [17] 技术路线与市场竞争 - 英特尔长期遵循摩尔定律和“嘀嗒”战略,但2005年左右开始面临制程瓶颈,10纳米工艺一再延期 [12][18] - 英伟达2006年发布CUDA架构,支持并行计算,使GPU成为通用计算平台,并从“显卡厂”迈向“计算公司” [12][13] - 英特尔2004年启动Larrabee项目试图打造高性能GPU,但因性能未达预期于2010年取消 [6][9] - 英特尔通过集成显卡Intel HD Graphics蚕食低端GPU市场,而英伟达则牢牢抓住游戏玩家与高端市场,独显份额长期维持在60%以上 [10][11] - 在AI算力战场,OpenAI训练GPT-3完全依赖英伟达V100 GPU,GPT-4则建立在上万张A100与H100之上,英特尔多次收购尝试均未成功 [17] 制造模式与外部因素 - 英特尔采用IDM模式,自行设计并制造处理器,但因10纳米工艺延期等问题失去制造领先优势 [18] - 英伟达采用“无厂模式”,专注芯片设计,制造完全外包给台积电,凭借台积电的先进制程反超英特尔 [19] - 地缘政治成为关键变量,2022年拜登政府对华实施高性能GPU出口管制,英伟达A100、H100被列入禁运清单 [23] - 2023年英特尔财年亏损高达70亿美元,股价几近腰斩,而英伟达因AI热潮市值飙升至3万亿美元 [20] 行业格局演变 - CPU市场,AMD凭借Zen架构强势反弹,截至2023年在x86 CPU市场份额已接近35% [22] - GPU领域,AMD的开源生态ROCm已对CUDA形成挑战,在“算力去英伟达化”呼声下赢得部分客户 [22] - 互联网巨头纷纷自研专用AI芯片,如谷歌TPU、亚马逊Inferentia和Trainium、特斯拉Dojo,算力版图呈现“碎片化”趋势 [23] - 行业竞争已超越企业间博弈,演化为国家间的战略较量,企业需在地缘政治复杂棋局中寻找立足之地 [23] 创新理论印证 - 英特尔与英伟达的此消彼长印证了“颠覆式创新”理论,GPU从边缘配角切入,最终在深度学习时代迎来爆发 [26] - 英特尔的迟缓是“创新者的窘境”典型案例,因难以放弃利润丰厚的CPU主业而错失新市场机会 [26][27] - 2012年AlexNet的出现是CPU与GPU计算权力的交叉点,标志着技术范式的切换 [26] - 行业规律表明,价值迁移往往始于不被看好的技术,范式切换窗口期稍纵即逝 [27]
台积电分享在封装的创新
半导体行业观察· 2025-09-26 09:11
人工智能发展带来的电力挑战 - 人工智能的普及推动电力需求呈指数级增长,其应用正从超大规模数据中心渗透至边缘设备等各个领域 [2] - 人工智能模型的演进需要更大的数据集、更复杂的计算和更长的处理时间,导致人工智能加速器在五年内每封装功耗增加3倍,部署规模在三年内增加8倍 [4] 台积电的战略重点与技术路线图 - 公司将战略重点放在先进逻辑微缩和3D封装创新,并结合生态系统协作以应对能源效率挑战 [6] - 先进逻辑制程路线图稳健:N2计划于2025年下半年量产,N2P计划于2026年量产,A16将于2026年底实现背面供电 [6] - 从N7到A14制程,在等功率条件下速度提升1.8倍,功率效率提升4.2倍,每个节点的功耗比上一代降低约30% [6] - A16制程针对AI和HPC芯片优化,与N2P相比,速度提升8-10%,功耗降低15-20% [6] 基础IP与内存计算创新 - N2 Nanoflex DTCO优化了高速低功耗双单元设计,可实现15%的速度提升或25-30%的功耗降低 [8] - 优化的传输门触发器在速度(2%)和面积(6%)的权衡下,功耗降低10% [8] - 双轨SRAM搭配Turbo/Nomin模式,效率提升10%,Vmin降低150mV [9] - 基于数字内存计算(CIM)的深度学习加速器,相比传统4nm DLA,可提供4.5倍TOPS/W和7.8倍TOPS/mm²的计算性能,并可从22nm扩展到3nm及以上 [9] AI驱动的设计工具与3D封装技术 - 新思科技的DSO.AI工具能将APR流程的电源效率提高5%,金属堆栈的电源效率提高2%,总计提升7% [9] - 对于模拟设计,与台积电API的集成可实现20%的效率提升和更密集的布局 [9] - AI助手通过自然语言查询将电源分配分析速度提升5-10倍 [9] - 公司的3D Fabric技术已转向3D封装,包括SoIC、InFO、CoWoS及SoW [9] - 2.5D CoWoS的微凸块间距从45µm降至25µm,效率提升1.6倍;3D SoIC的效率比2.5D提升6.7倍 [10] 先进集成与光子技术 - 在N12逻辑基片上集成的HBM4,可提供比HBM3e DRAM基片高1.5倍的带宽和效率 [12] - N3P定制基片将电压从1.1V降至0.75V [12] - 通过共封装光学器件实现的硅光子技术,相比可插拔式设计,效率提升5-10倍,延迟降低10-20倍 [12] - 超高性能金属-绝缘体-金属和嵌入式深沟槽电容器技术可实现1.5倍功率密度 [15] 生产效率与综合效率提升总结 - EDA-AI工具实现EDTC插入生产效率提高10倍,基板布线生产效率提高100倍 [15] - 从N7到A14,逻辑微缩使效率提升4.2倍,内存计算(CIM)提升4.5倍,IP/设计创新贡献7-20%的效率提升 [17] - 从2.5D到3D封装,效率提升6.7倍,光子技术提升5-10倍,HBM/去耦电容技术进步提升1.5-2倍,AI将生产效率提升10-100倍 [17]