TPU
搜索文档
油价涨了,冲锋衣要危险了
36氪· 2026-03-26 12:35
以下文章来源于槽值 ,作者槽值小妹 槽值 . 网易文创旗下新情感消费品牌,倡导更有情调、有质感的生活方式。 你的冲锋衣或许要跟着涨价了。 文 | 槽值小妹 来源| 槽值(ID:caozhi163) 封面来源 | IC photo 自中东地区 冲突爆发, 原油价格快速大幅攀升 后,油 价的上涨可谓有目共睹。 就在这几天, "黄金别再跌了,油价 别再涨了 ""排队加油" 又 成 为新的热门话题。 国际原油价格上涨直接抬升我国进口和用油成本。/ 图源 :每日 经济新 闻 但千万别以为,"加油贵了"就是全部。 继"猪肉越便宜,羽绒服越贵"后,又一个让人困惑"啊?这也有关系?"的暴击来了—— 油价涨了以后, 你的冲锋衣,可能也会涨价。 图源:微博话题 油价涨了, 关我冲锋衣啥事啊?! 不论是肉价影响羽绒服,还是油价影响冲锋衣, 说到底,都是原材料价格的事。 比如,猪肉价格下跌,鸭肉、鹅肉的需求就会减少,再叠加养殖行业产能调 整,羽绒产量就会减少。 羽绒产量越少,供不应求,价格也随之上涨,进一步推高羽绒服成本。 冲锋衣和油价的 关系,大 抵也类似。 一切还要从石油对纺织业的影响说起。 比如羊毛、蚕丝、棉、麻都是。 化学纤 ...
Nvidia vs. Alphabet: Both Are Down Big in 2026 -- but Only 1 Is a Buy Right Now
The Motley Fool· 2026-03-26 08:46
核心观点 - 当前市场环境下 Alphabet 相比 Nvidia 展现出更强的投资吸引力 Alphabet 不仅在财务上表现稳健 更在广阔的 AI 市场中占据更有利位置 其通过 TPU 硬件挑战 Nvidia 的统治地位 同时其 Gemini 软件也在与 OpenAI 和 Anthropic 的竞争中快速抢占市场份额[1][4][5][6] 公司财务与股价表现 - Alphabet 年初至今股价下跌 6.6% 当前股价为 289.59 美元[1][3] - Nvidia 年初至今股价下跌 6.38%[1] - Alphabet 市值达到 3.5 万亿美元 当日交易量 2200 万股 接近 2100 万股的平均交易量[3][4] - Alphabet 毛利率为 59.68% 股息收益率为 0.29%[4] 行业竞争格局 - Nvidia 凭借其硬件成为全球市值最高的公司 所有主要 AI 软件公司都在一定程度上使用其 GPU[2] - 多家公司正寻求转向更符合 AI 特定需求的定制硬件 以降低对 Nvidia 的依赖[2] - 在 AI 硬件领域 Nvidia 仍居首位 但正面临 Broadcom 和 AMD 的紧追[4] - Alphabet 与 Broadcom 合作开发 TPU 对 GPU 在 AI 部署中的地位构成直接挑战[4] 技术发展与市场动态 - Alphabet 正在减少自身对 Nvidia 硬件的依赖[5] - OpenAI 的主要竞争对手 Anthropic 正积极采用 TPU 并计划在 2026 年底前上线 1 吉瓦的 TPU 芯片计算能力[5] - 早期迹象表明 AI 硬件比软件更容易被替代 Claude 在 TPU 上的运行表现至少不逊于 GPU[5] - Claude 和 Alphabet 的 Gemini 正在迅速抢占市场份额[5] 公司战略与护城河 - Alphabet 被认为拥有比 Nvidia 更宽的护城河 因其同时具备与 Nvidia GPU 竞争的硬件和与 OpenAI 及 Anthropic 竞争的软件[6] - Alphabet 在 AI 市场处于更强位置 不仅威胁 Nvidia 的硬件主导地位 也对 ChatGPT 和 Claude 等新兴力量构成挑战[1]
GTC 巅峰对话 Jeff Dean x Bill Dally:预训练范式已死、延迟瓶颈不在计算、谈透 AI 五年未来 | GTC 2026
AI科技大本营· 2026-03-19 10:08
行业趋势与核心变化 - 过去一年,模型在数学和编程等有可验证奖励的问题上能力进步惊人,例如Gemini在国际数学奥林匹克竞赛和ICPC编程竞赛中均获得金牌[7][8] - 基于智能体的工作流在更长时间尺度的任务上变得有效,模型可以相对自主地运行数小时甚至数天,而不再需要近距离监督[9][10] - 随着后台运行的智能体增多,超低延迟推理成为关键问题,推理延迟直接决定智能体解决问题的效率[11][12] - 推理已成为当前的重头戏,数据中心里很容易出现90%的功耗都花在推理上的情况[79][80] 硬件架构与性能优化 - 推理性能是延迟与吞吐量的权衡曲线,追求极低延迟时,大部分延迟源于通信[15][18] - 英伟达正重新设计架构以压缩通信延迟,目标是将片上通信时间从几百纳秒缩短至约30纳秒,并将片外通信的物理接口延迟降至几个时钟周期[20][21] - 通过优化,即便是相当大的模型,也能为每个用户实现每秒1万到2万个token的处理速度[23] - 训练与推理在硬件需求上差异显著:训练更吃内存容量,而推理考验计算、内存带宽、容量和通信之间的资源配比[81] - 推理内部也存在差异:预填充阶段像训练,属于密集计算型;解码阶段则为极瘦矩阵运算,是极端的带宽和延迟受限[82] - 未来硬件可能分化为针对训练/预填充、解码以及解码内部进一步细分的不同类别[82] 模型演进与算法创新 - 模型演进的一个明显方向是参数越来越大,但激活越来越稀疏,例如混合专家模型[88][89] - 注意力机制存在改进空间,以应对长上下文窗口的挑战,例如通过聚类注意力状态将复杂度降至N log N甚至更低[93][94] - 另一种有前景的架构是分层检索机制,通过多层轻量级检索从极大规模信息池中筛选出最相关部分送入上下文窗口,而非单纯扩大注意力窗口[96][97][98] - 预训练机制可能被重塑,未来模型的学习可能更深地与“在环境里采取行动”交织,并主动决定下一步学习的数据,这有望显著提高学习效率[69][70][71] - 预训练与后训练的人为边界长期看可能不会一直存在[74] 数据与算力扩展 - 对于“数据快挖完了”的观点存在不同看法,世界上仍有大量数据未被用于训练,如带音频的视频数据、机器人数据、自动驾驶数据等[56][57][58][59] - 合成数据是填补数据缺口的一条路径,可视为向系统注入算力以产生更多训练数据,本质是一种数据增强[60][61][62][67] - 通过数据增强、防止过拟合等手段,即使投入更多算力进行多轮训练迭代,模型也能持续变强且未必过拟合[67][68] AI赋能硬件与芯片设计 - AI已广泛应用于芯片设计流程,例如英伟达的NVCell系统用强化学习完成标准单元库迁移,将原本需80人月的工作缩短为一块GPU运行一夜,且结果可与人类设计打平甚至更好[103][104][105] - 强化学习系统PrefixRL用于解决加法器中的前瞻级放置问题,其设计比人类方案在面积和功耗上优20%到30%[106][107][109][110] - 专用大模型如ChipNeMo和BugNeMo,通过训练内部专有资料,可用于解答设计问题、总结错误报告和分配任务,提升工程师效率[111][112][113][116][117] - 智能体系统已开始用于架构探索,通过运行思想实验和参数空间搜索来缩小巨大的设计空间[118][119] - 长期愿景是端到端的自动化设计,可能由主智能体协调多个负责不同阶段的专门智能体完成[125] 能效与系统挑战 - 能效提升的核心原则是减少数据搬运,因为从HBM4内存读取一个NVFP4数字的能耗比执行一次乘加运算本身高约1000倍[134][135][136][137] - 关键优化思路包括让计算尽可能在SRAM附近完成,以及探索将DRAM直接堆叠在计算芯片上方,以大幅降低数据搬运的能耗和延迟[139][140][143] - 利用模型稀疏性是降低能耗的另一方向,但除了2:1结构化稀疏和MoE等粗粒度稀疏,更一般的稀疏会破坏规则性,难以在硬件上高效实现,这是一个开放问题[147][148][152][153] - 当智能体运行速度远快于人类时,为人类速度设计的工具(如C编译器)的启动时间将成为端到端延迟的硬瓶颈,未来需要重新工程化这些工具[129][130][131] 网络拓扑与互连 - 网络拓扑的选择没有绝对优劣,核心取决于业务负载和流量模式[156][158] - 对于具有强局部性的负载,低基数、直接互连的网络(如2D/3D Torus)更理想;而对于专家分散的负载(如MoE),高基数、基于交换机的网络可能更高效[156] - 混合架构是可行方案,例如局部通信采用直接互连,全局通信走专门的交换网络[156] AI的社会影响与应用前景 - AI最被看好的积极社会影响领域是教育和医疗[160][161] - 在教育方面,AI有潜力为每个人提供真正个性化的辅导老师,根据学生的学习风格和进度调整教学形式,将教学效果提升一到两个标准差[161][162][163][164][165] - 在医疗健康领域,AI可扮演个性化健康教练角色,并整合目前未被充分利用的健康监测数据、基因组信息等,帮助进行疾病预防和个性化用药[177][179][180][182] - 应拥抱AI工具,如同当年计算器进入课堂,将教育重点从机械计算转移到更高层次的理解[168][169] 公司规模与组织文化 - 公司规模从小变大后,决策速度可能变慢,官僚作风不可避免,社区感会减弱[188][189][190][192] - 大公司也带来了以前不可能拥有的规模和资源,能够承担更大的项目[193] - 组织需要持续调整,在规模扩张的同时加入恰到好处的新协作方式,避免过度官僚化[194][195]
Wall Street has a stark message for Nvidia investors
Yahoo Finance· 2026-03-19 06:07
行业趋势与竞争格局 - 人工智能行业正从模型训练阶段快速转向推理部署阶段 未来大部分计算需求将来自推理 [2][3] - 推理工作负载具有与训练不同的经济特征 它需要更低的峰值性能但更高的运行量 且利润空间更薄 [3][4] - 推理市场存在真实竞争 为降低成本 AMD、亚马逊、谷歌等公司正提供更低成本的替代方案以争夺市场份额 [2][4] 公司市场地位与挑战 - 公司在AI训练芯片市场占据约90%的份额 这一地位预计将至少保持到2026年 [3] - 公司面临的下一个关键战役是在推理市场获胜 这是其此前未曾经历过的竞争 [2] - 尽管公司CEO预测到2027年芯片收入至少达1万亿美元 但市场反应平淡 股价在消息发布后基本未动 [1] 公司战略与产品发布 - 公司在GTC大会上发布了Dynamo智能推理引擎 可根据效率动态分配GPU、ASIC和CPU上的工作负载以应对竞争 [5] - 公司确认Vera Rubin芯片已全面投产 并计划在2026年下半年扩大产量 [5] - Rubin平台相比Blackwell平台 能将推理成本降低10倍 大幅改善大规模AI部署的经济性 [6] 产品性能与财务影响 - 据分析师指出 Rubin平台在推理性能上比Blackwell有5倍提升 [7] - 公司更新的展望意味着 对2026日历年的普遍收入预期至少有400亿美元的上行空间 [7]
北交所消费服务产业跟踪第五十五期(20260315):聚氨酯行业MDI、TDI、TPU等价格上涨,北交所一诺威有望受益于产业链涨价
华源证券· 2026-03-15 16:33
行业趋势与价格动态 - 中国是全球最大的聚氨酯生产与消费国,2023年产量1650万吨占全球近50%,2024年市场规模约1650亿元人民币同比增长10%[2] - 自2025年12月起全球异氰酸酯龙头企业频繁提价,例如亨斯迈在欧洲等地MDI提价350欧元/吨,科思创在北美MDI提价0.10美元/磅[2][7] - 2026年初至3月13日,中国TDI和MDI(PM200)价格分别上涨26%和17%,TPU薄膜价格从1.33万元/吨升至1.60万元/吨,涨幅达20%[10][22] - 价格上涨受多重因素驱动:中东局势推高能源成本、海外装置低负荷运行导致供给收紧、以及行业自身修复利润体系的诉求[2][10][21] 重点公司分析 - 北交所公司一诺威是聚氨酯原材料规模化生产企业,其CPU产品为全国制造业单项冠军,在细分领域具备领先优势[2][23] - 一诺威2025年营收达75.00亿元人民币,同比增长9.37%;归母净利润达1.90亿元人民币,同比增长7.75%[2][32] 北交所市场表现 - 报告期内(2026年3月9日至13日),北交所消费服务产业44家企业中仅14%上涨,市值涨跌幅中值为-3.09%[2][36] - 同期,北证50指数下跌2.15%,而沪深300和创业板指分别上涨0.19%和2.51%[2][36] - 北交所消费服务产业总市值从1112.39亿元人民币降至1090.89亿元人民币,市盈率TTM中值从40.7X微升至41.6X[2][39][40] - 泛消费产业市盈率TTM中值下降4.55%至42.6X,食品饮料与农业板块市盈率TTM中值从41.6X降至41.1X[2][46][48]
三家大陆晶圆厂,冲进TOP 10
半导体芯闻· 2026-03-12 18:31
行业整体表现 - 2025年全球前十大晶圆代工业者合计产值预计约为1695亿美元,年增26.3%,创下历史新高 [1] - 展望2026年,尽管上半年有部分消费性产品提前备货以稳定产能利用率,但全年因内存价格高涨导致主流终端出货承压、需求萎缩,下半年订单与产能利用率仍存在隐忧 [1] 台积电 (TSMC) - 公司受益于AI服务器用GPU、谷歌TPU及特殊应用IC(ASIC)对先进制程的强劲需求,全球市占率突破七成,达到70.1%,稳居晶圆代工龙头 [1] - 2025年第四季度,尽管晶圆出货量略减,但以iPhone 17为主的手机旗舰AP新品推升3nm晶圆出货,带动整体平均销售价格(ASP)提高,季度营收因此环比增长2%至337亿美元,市占率维持在70.4% [1] 三星电子 (Samsung) - 2025年第四季度,扣除System LSI业务后,因2纳米新品出货贡献营收,且自家HBM4使用的基础逻辑晶圆开始产出,营收环比增长6.7%至近34亿美元,实现正式转亏为盈,市占率从6.8%微幅升至7.1%,位列第二 [2] 中芯国际 (SMIC) - 公司持续受益于本土化红利,2025年第四季度营收环比增长4.5%至近24.9亿美元,增长动能来自总晶圆出货增加、ASP略增以及当年底的光罩出货增量,排名第三 [2] 联电 (UMC) - 2025年第四季度,公司8英寸和12英寸晶圆均有大客户维持稳定订单,产能利用率与前一季度持平,营收环比微增0.9%至约20亿美元,市占率保持第四 [2] 格罗方德 (GlobalFoundries) - 受数据中心周边零组件需求增加带动,公司2025年第四季度晶圆出货量与ASP均实现增长,营收环比增长8.4%至18亿美元,排名第五 [2] 华虹半导体集团 (HuaHong Group) - 2025年第四季度,旗下HHGrace受微控制器(MCU)和电源管理芯片(PMIC)需求驱动,营收环比增长3.9%,合并HLMC营收后,集团总营收近12.2亿美元,环比微增0.1%,排名第六 [3] 高塔半导体 (Tower) - 2025年第四季度,受益于硅光子(SiPho)、硅锗(SiGe)等服务器相关利基新型应用出货稳健成长,公司营收环比增长11.1%至4.4亿美元,市占排名前进至第七 [3] 世界先进 (Vanguard) - 2025年第四季度,因DDIC订单转淡及PMIC主要客户跨厂验证问题影响出货,公司营收环比减少1.6%至4.06亿美元,排名降至第八 [3] 晶合国际 (Nexchip) - 2025年第四季度,公司营收环比减少5.3%至3.88亿美元,主要原因是已达成2025年出货与营收目标,故延后部分产品至2026年第一季度出货,排名第九 [3] 力积电 (PSMC) - 2025年第四季度,仅计入内存和逻辑晶圆代工营收,公司因内存代工需求强劲、ASP提升,且逻辑晶圆代工业务大致平稳,营收环比增长2%至约3.7亿美元,排名第十 [3]
LPU会带来哪些增量
2026-03-12 17:08
LPU技术及AI推理市场分析纪要总结 一、 涉及的公司与行业 * **公司**:Groq(已被NVIDIA收购)、NVIDIA[1][2][7]、三星电子[1][7] * **行业**:AI芯片(推理芯片)、半导体制造与封装、数据中心基础设施[1][7][8][9] 二、 LPU的核心观点与独特设计 * **核心定位**:LPU是一种专为AI推理,特别是语言模型推理设计的处理器,核心解决Decode环节的内存密集型瓶颈[1] * **硬件设计**:采用片内集成大量SRAM替代片外HBM,实现近存计算,大幅缩短数据传输距离以克服延迟瓶颈[1][2] * **软件设计**:采用编译器预调度模式,编译器预先计算并安排每个时钟周期的数据位置与计算操作,节省了传统GPU中指令调度单元的面积,将更多空间用于集成SRAM[2] * **设计理念**:追求极致确定性,更接近为特定模型定制的ASIC[1][4] 三、 LPU与GPU/TPU的对比及市场定位 * **与GPU对比**:GPU侧重通用性,依赖片外HBM,在处理高频读取的推理任务时存在时间开销;LPU则通过片上SRAM和编译器优化在低时延推理上具备代差优势[1][4] * **与TPU对比**:TPU侧重矩阵乘法效率,其脉动阵列架构在加载参数后无需频繁访问内存;LPU则针对语言处理中的序列生成进行了优化[1][4] * **芯片布局差异**:LPU的片上存储面积占比较大,而GPU和TPU将更多面积分配给了计算单元[4] * **市场应用**:LPU主要适用于参数和架构相对确定的模型推理,单一部署有难度,更适合与通用GPU结合使用以实现优势互补[2][3] 四、 AI推理的“PD分离”趋势及硬件需求 * **Prefill环节**:负责一次性处理完整用户指令,具有高并行、大batch size特点,是计算密集型过程,核心瓶颈在于算力,对KV Cache缓存大小和低延迟依赖性相对较小[4][5] * **Decode环节**:负责逐个生成token,是串行运算过程,需要频繁读取历史KV Cache,对读取延迟极为敏感,是内存密集型过程,核心瓶颈在于内存带宽和数据调度效率[4][5] * **硬件匹配**:Prefill环节适用高算力芯片(如采用GDDR的CPX产品),Decode环节则适合采用SRAM架构以降低延迟的LPU[1][5] 五、 NVIDIA的战略布局与收购背景 * **收购背景**:NVIDIA于2026年初以200亿美元收购Groq,着眼于推理侧市场崛起,应对AI模型调用量与年度经常性收入的增长趋势[2] * **存储技术多元化布局**: * **SRAM**:通过收购Groq发展LPU,专注解决需要极致低延迟的近存计算场景[1][6][7] * **HBM**:在旗舰GPU产品线持续升级,未来将采用HBM4,以满足高性能计算和训练需求[1][7] * **DRAM**:在CPX等产品上采用GDDR,为计算密集型任务提供高性价比解决方案[1][7] * **SSD**:正在探索独立的存储机柜方案,专门用于存储KV缓存等数据[1][7] 六、 LPU的局限性 * **成本高昂**:SRAM成本远高于DRAM,且大模型推理需多芯片堆叠,进一步推高初始成本[2] * **灵活性不足**:软件栈是为特定模型预先设计的,应对不同模型架构迭代或变化时的灵活性不足[2][3] 七、 产业链增量与技术进步 * **制造与产能**:Groq在2025年委托三星电子的晶圆代工订单从约9,000片增加到1.5万片,产业化进程加速[1][7] * **SRAM技术**:可能向3D堆叠或分层管理等方向发展[1][8] * **封装与PCB**:芯片封装技术演进(如背部供电设计)可能导致PCB层数增加或采用新材料;LPU的集成方式(3D-SoIC、2.5D CoWoS或独立模块)将对PCB及其上游材料提出新要求[8] * **高速互联**:LPU系统内部的高速互联需求可能会催生新的Switch产品,根据集成方案不同可能会采用新的芯片架构(如FPGA)[9] * **散热方案**:随着系统集成度和功耗提升,液冷解决方案的需求预计将增加[1][9]
半导体行业ESG发展白皮书:同“芯”创未来
荣续智库· 2026-03-10 14:55
报告行业投资评级 - 本白皮书为行业研究性质,未对半导体行业或具体公司给出明确的投资评级 [1][2] 报告的核心观点 - 半导体行业作为现代电子产业的核心,其发展面临严峻的环境、社会及治理(ESG)挑战,但积极践行ESG原则是提升企业长期竞争力、获取市场认可和赢得竞争优势的必然选择 [15][16][17] - 半导体行业在ESG方面兼具压力与动力:压力源于高能耗、水耗等不可持续因素带来的运营与声誉风险;动力则来自可持续发展可降低运营成本、吸引人才、赢得市场并开辟新增长点 [42][43][44] - 半导体企业需构建系统的ESG战略,通过识别实质性议题、设定明确目标、完善组织保障并持续改进,将ESG融入业务核心,从而创造管理、运营、品牌、信息披露及资本等多重价值 [113][118][119][123] 行业概况与产业链 - **全球市场规模**:全球半导体销售额从2001年的1390亿美元增长至2023年的5269亿美元,年均复合增长率为6.0% [23] - **市场格局**:2023年,美国半导体企业市场份额占全球的50.2%,亚洲(尤其是东亚)是重要生产中心,中国是重要生产基地但面临技术瓶颈和国际竞争压力 [24] - **产业链上游**:包括半导体材料(如硅片、光刻胶、电子特种气体)和制造设备(如光刻机、蚀刻机),技术复杂度高,市场集中度高 [31] - **产业链中游**:涵盖集成电路设计、晶圆制造、封装与测试,制造环节步骤精密,先进封装技术(如倒装芯片、晶圆级封装)成为市场新宠 [31][33] - **产业链下游**:应用市场广泛,包括消费电子、汽车电子、工业控制、通信设备等,新兴领域如人工智能、物联网、5G通信带来巨大市场机遇 [34] - **行业特征**:市场周期性强、产品高速迭代、行业集中度高、价值链复杂、并深受全球化与地缘政治因素影响 [37] 半导体行业核心ESG议题分析 - **气候变化与能源消耗**: - 半导体制造使用多种高全球变暖潜能值(GWP)气体,如六氟化硫(SF6)的GWP值比二氧化碳高500倍 [48] - 人工智能等高性能计算需求推动先进制程芯片(如3纳米、5纳米)发展,导致能源消耗与范围二排放增加 [48] - 行业面临能源供应风险、价格波动及供应链中断(如极端天气)等风险,同时也存在能源管理技术创新、采用清洁能源、参与碳交易等机遇 [49][50] - 主要企业已设定碳目标,但研究显示,当前行业承诺仅能将2019年至2050年的总排放量减少30%,仍无法实现巴黎协定1.5℃目标 [51][52] - 半导体技术同时是绿色转型的关键,其材料(如SiC, GaN)与产品广泛应用于光伏、储能、电动汽车等清洁能源领域 [53][54] - **污染防治**: - 制造过程使用大量化学品并产生废水、废气,处理不当会造成严重环境污染与健康风险 [62] - 企业面临严格的环保法规合规压力,但投资绿色污染防治技术(如废气废水处理系统)可降低排放、提高资源效率并提升品牌形象 [63][65] - 以台积电为例,其采用湿式静电集尘技术将碱性气体和PM2.5的削减率分别提高到90%和91%;通过创新废水处理系统,将化学需氧量(COD)浓度降至151.5ppm,氢氧化四甲基铵(TMAH)浓度降至3.75ppm [67][68] - **水资源管理**: - 半导体制造是耗水行业,生产一张12寸硅晶圆需消耗8吨水,且废水成分复杂 [73] - 面临水资源短缺、成本上升、环境社区影响及法规变化等风险 [74] - 通过技术创新(如节水与循环利用系统)可降低运营成本、提升绿色品牌形象,并满足客户与投资者对良好ESG表现的要求 [74] - **可持续供应链管理**: - 供应链全球化且复杂,涉及环境破坏、劳工权益、合规及地缘政治等多重ESG风险 [81][82] - 通过优化供应链管理可减少碳足迹、提升社会声誉、增强治理透明度,并建立更具韧性的供应链以应对外部冲击 [82][83] - **人才吸引与留任**: - 行业技术密集,面临全球性人才短缺、竞争激烈、员工流失及工作压力大等风险 [92][93] - 机遇在于通过有竞争力的薪酬福利、系统的培训发展、建立雇主品牌以及促进产教融合来吸引和保留顶尖人才 [93] - 以英伟达为例,其采取扁平化管理(CEO直接管理约60人)、强调透明与员工赋权,2023年员工平均学习约10小时,并通过导师计划支持职业发展 [95][97] - **科技创新**: - 科技创新是半导体行业的核心竞争力,也被国内主流ESG标准视为重要议题 [100] - 风险包括研发投入巨大、回报周期长、规模扩张加剧碳排放以及面临其他行业新进者的竞争 [101] - 机遇在于通过新原理、新材料、新架构的研发获得优势,新技术(如量子计算、先进制程)可降本增效,并推动产业向绿色循环(4R理念)转型 [101][102] 企业ESG实践案例 - **英特尔(Intel)应对气候变化**: - 目标到2040年实现全球运营(范围一和范围二)净零温室气体排放,到2050年实现价值链净零排放 [56] - 2023年全球运营使用了99%的可再生电力,范围一和范围二排放较2019年基准减少43% [57][61] - 通过产品创新助力减排,如第五代至强可扩展处理器能效较上一代提升36% [59] - **英伟达(NVIDIA)综合ESG实践**: - **环境与产品**:推出Earth-2气候数字孪生云平台,其CorrDiff AI模型将天气模拟分辨率提升12.5倍,速度提升1000倍,能效提升3000倍 [145][146] - **环境与运营**:倡导加速计算,其Blackwell GPU在八年内实现算力增长1000倍的同时能耗降低350倍 [152] - **社会与治理**:公司管理扁平透明,2023年员工满意度调查显示,97%员工认为管理层诚实守信,95%员工认为公司是理想工作场所 [95][98][99] - **AMD(超威半导体)社会价值创造**: - 计划到2025年使1亿人受益于STEM教育,自2020年以来已通过相关项目使约3170万人受益 [161] - 其高性能计算基金(HPC Fund)已捐赠接近20 petaflops的计算能力,市场价值超过3100万美元,用于支持气候变化、医疗保健等公益科学研究 [162][164] - 其技术应用于便携式超声设备等医疗设备,助力偏远地区医疗诊断 [165] 半导体行业ESG战略构建路径 - **分析ESG与业务关系**:认识到ESG对半导体行业具有“双重性”——既是风险压力也是发展机遇,战略原则应为降低负面影响并利用科技创新解决ESG问题 [123][125] - **确定实质性议题**:流程包括初步筛选、利益相关方参与、内部评估及绘制实质性矩阵以确定优先级 [124][126] - **明确并细化目标**:推荐使用OKR法,例如设定“减少碳足迹”的目标,并配以“到2025年将温室气体排放减少30%”等可量化的关键结果 [130][132][133] - **完善组织保障**:建议建立决策层(如董事会委员会)、管理层(ESG牵头部门)和执行层(各业务部门)的三层治理架构,并加强内外部ESG人才培养与交流 [134][135][137] - **持续改善**:通过定期评估更新目标、采纳最佳实践、加强员工培训及利益相关方沟通,实现ESG绩效的持续提升 [138]
算力大洗牌:GPU、TPU与“高阶TPU”的终极博弈
是说芯语· 2026-03-10 12:57
文章核心观点 - AI算力需求日益苛刻,市场格局正从GPU垄断转向GPU、传统TPU(ASIC)和“高阶TPU”(可重构数据流芯片)三大技术流派共存的“三国演义”局面 [1][3] - 2025年底至2026年初的两起重大交易(英伟达200亿美元收购Groq核心团队、OpenAI超100亿美元订购Cerebras系统)标志着围绕算力底层架构“定义权”的争夺白热化,总价值超300亿美元 [2] - 非GPU阵营,尤其是采用“软件定义硬件”技术的“高阶TPU”正在崛起,因其兼顾高效与灵活的特性,被视为最具颠覆性潜力的技术路线,并成为国产算力实现换道超车的关键方向 [11][15][18] AI算力技术流派与特点 - **GPU (通用并行计算派)**:定位为“全能多面手”,核心优势是并行计算能力,适配AI训练和推理,但因其通用性设计,在AI计算(尤其是推理场景)中存在数据搬运频繁、能效偏低的问题 [4] - 英伟达凭借GPU和CUDA生态构建了强大护城河,市值曾达5万亿美元 [4] - 国内GPU市场繁荣,摩尔线程上市高开涨幅超468%,市值一度超3000亿元;沐曦上市涨幅近700%,市值也突破3000亿元 [6] - **传统TPU/ASIC (专用集成电路派)**:定位为“专精选手”,专为AI张量运算优化,采用数据流式计算,核心优势是极致性能与能效,量产成本低,但灵活性不足,与特定生态绑定 [7] - 大型云厂商和科技巨头为追求算力主权和成本控制,纷纷自研ASIC,如谷歌TPU、亚马逊Trainium/Inferentia、微软Maia、Meta MTIA等 [9] - ASIC定制芯片设计服务市场庞大,博通因此受益,其股价曾在两个月内涨幅超70%,市值一度突破1万亿美元 [9] - 国内ASIC公司享受“战略资产溢价”,寒武纪2024年底以387%涨幅获“2024年股王”称号,2026年1月市值约6367亿元;昆仑芯估值达130亿元,正筹备港交所上市 [9] - **“高阶TPU”/可重构数据流芯片派**:定位为“专业师傅+万能工”结合体,是TPU的升级版,采用基于“软件定义硬件”的可重构数据流技术,核心优势是兼顾灵活与高效,能适配快速迭代的算法,具备确定性延迟 [11][12] - 该技术路线适合对延迟敏感的场景,如实时推理、金融交易、边缘计算等 [12] - 该阵营代表公司Groq,其TSP芯片在推理任务中比传统GPU快5-18倍、能效比高10倍;相比谷歌TPU v7,首token延迟降低20%~50%,每token成本降低10%~30% [13] 市场竞争与格局演变 - 英伟达在2025年底以200亿美元现金收购Groq核心团队与技术,该价格较Groq前一估值翻了近三倍,被视为战略性防御,旨在消除架构挑战者并将可重构计算技术纳入自身体系 [2][13] - 除Groq外,可重构计算芯片公司SambaNova也受到关注,英特尔在2025年10月有意收购,并于2个月后进入收购谈判阶段 [14] - 全球算力市场形成GPU、ASIC、可重构数据流“三足鼎立”格局,三大流派间的竞合将决定万亿美元AI算力产业的走向 [15] 中国算力产业发展 - 国产芯片企业聚焦“高阶TPU”的核心技术——可重构数据流架构,视其为打破GPU垄断、实现算力架构换道超车和国产替代的有效路径 [15] - 基于清华大学技术的清微智能与Groq、SambaNova同期起步,布局新型数据流处理器,其自主研发芯片已在国内十余座智算中心规模化部署 [15] - 清微智能在去年12月初完成超20亿元C轮融资,获得北京双重国资支持,且是国家大基金二期投资的唯一新型架构算力芯片企业 [17] - 以可重构架构为核心技术标签的国内企业正获得资本青睐和政策扶持,并启动上市进程 [17] - 随着国产软件和指令生态(如flagOS)的突破,借助中国完备的集成电路封测体系,国产算力有望在全球格局中获得话语权 [18]
Jeff Dean最新访谈:未来开发者人均50个智能体,写需求成核心技能
量子位· 2026-03-10 10:13
谷歌的AI战略与模型发展路线 - 公司遵循**帕累托前沿策略**,同时推进两条模型路线:一方面是用于深度推理、复杂数学问题等**高端前沿模型**;另一方面是用于低延迟场景的**高性价比模型**[3][19] - **蒸馏技术**是实现模型高效能的关键,通过该技术,**小模型可以非常接近大模型性能**,实现“下一代Flash ≈ 上一代Pro,甚至更好”[5][6][8][25][27] - 公司认为**低延迟**具有巨大价值,如果延迟降低**20-50倍**,将彻底改变用户体验,低延迟对于未来完成更复杂任务(如编写整个软件包)至关重要[9][29][30][153] 模型能力与多模态发展 - 公司从设计之初就希望Gemini是**多模态模型**,其多模态不仅包括文本、图像、视频、音频等人类感知模态,还包括理解**非人类的模态**(如LIDAR传感器数据、机器人数据、医疗影像、基因组信息等),世界上可能有**数百种不同的数据模态**[9][42][44][45][46] - 模型在**长上下文能力**上取得显著进展,已从“大海捞针”式单针测试转向更复杂的多针检索或真实任务(如从数千页文本或数小时视频中提取信息)[36] - **统一模型时代已经到来**,通用模型的能力已大幅提升,在许多场景下不再需要专用系统,**通用模型会胜出**[105][107][110] 硬件、系统与能效协同设计 - 在硬件与机器学习研究之间必须进行 **“协同设计”** ,硬件设计需预测未来 **2–6年** 的模型趋势,研究团队的洞察能指导在芯片中加入可能带来**10倍提升**的“投机性功能”[13][82][84] - 系统设计以**能量消耗**为第一性原则,从内存搬运数据的能量成本(如从SRAM搬运需**1000皮焦耳**)远高于计算本身(小于**1皮焦耳**),这自然引导出通过**批处理(batching)** 来摊薄成本的设计选择[13][73][76][77] - 公司早期在搜索系统架构上的演进(如2001年将索引**全部放进内存**)本质是从“精确词匹配”走向“语义理解”,这与大语言模型(LLM)的逻辑一脉相承[63][65] 未来研究方向与行业影响预测 - 未来最重要的技能将是 **“写清楚需求”** 或 **“清晰表达需求”** ,因为智能体(Agent)的输出质量完全取决于如何定义问题,这将成为一种**核心技能**[2][144][145][146] - 未来工程师的工作模式可能演变为人均管理**50个智能体实习生**,完成大量并行任务,这种组织沟通效率可能比管理真人团队更高[1][138][139] - 两个关键预测:1) **真正“个性化”的模型**会极其重要,它能访问并理解用户的全部授权历史信息;2) 专用化硬件将推动**模型延迟大幅下降**,从而改变许多应用场景[13][156][158] - 重要的开放研究方向包括:让模型更可靠地完成**更长、更复杂的任务**(可能涉及模型间协作),以及将强化学习扩展到**“不可验证”的领域**[91] 公司内部项目复盘与组织策略 - 公司反思了早期在AI资源分配上的问题,将算力和人才分散在多个团队和方向被内部认为是 **“愚蠢的”** ,这直接促成了整合资源、打造**统一多模态模型Gemini**的项目起点[13][131][133] - 公开基准测试(benchmark)有价值,但理想的生命周期是初始分数在 **10%–30%** ,通过改进提升到**80%–90%** ,超过**95%** 则意义不大[35] - 垂直领域模型(如医疗、法律LLM)仍有意义,应基于强大的基础模型在特定领域数据上强化,理想情况是模块化,通过“可安装知识包”或检索来增强基础模型能力[113][114][116][117]