傅里叶的猫

搜索文档
20251022 China TMT Breakout
傅里叶的猫· 2025-10-22 19:05
全球科技行业动态 - OpenAI推出名为Atlas的网络浏览器,内置ChatGPT界面,最初面向Mac用户,未来计划推广至Windows和移动设备 [3] - Atlas浏览器发布后,谷歌股价一度下跌3%,微软股价下跌不到1% [3] 大宗商品市场 - 黄金价格经历4.7个标准差的急剧抛售,价格高于200日均线20%,显示可能出现回调或整合 [5] - 花旗研究团队因黄金价格急剧抛售而获利了结并减少对贵金属的超配 [5] 中国股票市场前景 - 中国股票自2022年底低点反弹约81%,预计至2027年底将保持约30%的升值 [5] - 看涨前景由12%的趋势利润增长和5-10%的再评级潜力推动 [5] - 支撑看涨前景的四个主要因素为政策支持、增长再加速、估值优势和资金流入增强 [5] - 政策支持包括下行保护、针对需求侧的定向刺激以及有利于私营企业的行业监管放松 [5] - 增长再加速由人工智能驱动的收益增长、反内卷利润回升和中国全球竞争力增强推动 [5] - 中国股票估值相较于历史平均值和国际同行均较便宜,MSCI中国指数相较发达市场和新兴市场存在显著折价 [5] - 股权风险溢价高于债券收益率和房地产租金 [5] - 资金流入增强表现为南向投资创纪录,散户和机构股票配置增加,国家队积极参与,外国投资者逐步回归 [5]
寒武纪的加单传闻分析
傅里叶的猫· 2025-10-22 19:05
下午市场就有小作文传出: 三大运营商给寒武纪下的是明年每个月一万张卡。公司刚收到字节加单500亿590,字节明确要求690必须交付30万 颗。现在公司入股村龙,给了3倍产能8000片每月。已确定的在手产能支撑600亿产值,超预期坚定看3万亿市值 先说几个常识性的: 1、关于村龙的先进产能数量,绝对是保密的,根本没法证实或者证伪,所以像市场上流传出来的这么确切的数字,一律当 小作文处理; 2、来算个账,每个月8000片,每个wafer能切出多少die我们也不清楚,假设按照40来算,那一个月就是32w个芯片,一年 就是384w个芯片,按照IDC之前的一个数据,英伟达去年在中国才卖了190w个,可见这个数字有多离谱。 3、寒王今年前三个季度的总营收是46亿,字节就直接给寒王加单了500亿?再加上三大运营商的单子,明年的营收是今年 的10倍,现在股价已经是1400了,那股价破万就没有悬念了,那大A的股王就是寒王了.. 所以,当小作文看就行,不用当真。 但我这篇文章真正想聊的,不是上面的小作文,是分析国产AI芯片的逻辑。 关于寒武纪本身的情况,我们之前也聊过很多次了,客户肯定是不止字节,其他的CSP大厂、国家超算中心、 ...
大摩上调中芯国际、目前瓶颈不在台积电
傅里叶的猫· 2025-10-21 23:34
今天光模块的行情很不错,鉴于之前讲过很多光模块了,星球中也放过很多光模块的资料和 纪要,今天就不再蹭光模块的热度了。来看大摩的两个分析。 上调中芯国际 大摩首先升级了中芯国际的评级,目标价从40港元提高到80港元。原因是他们预计中芯国际的领先边缘 产能会逐步扩张,解决设备瓶颈。报告提到,虽然光刻工具受限,比如ASML的高性能DUV系统,但中 国客户可以用低性能模型,通过多重图案化推进到先进节点。之前AMAT的SiGe epi工具是瓶颈,但现 在本地供应商如北方华创和中微半导体已经逐步替代。关于大摩预测的产能数据,大家还是看原始报 告,敏感数据这里不方便提。 在需求侧,中国移动在全球合作伙伴大会上宣布,到2028年将部署10万张本地GPU网络,提供超过100 EFLOPS的计算力,而且只用国内芯片。基于此,更新中国AI GPU营收预测,2026年到1130亿人民币, 2027年到1800亿人民币,比之前预测高了不少,年复合增长率达到62%。另一方面,NVIDIA CEO黄仁 勋承认他们在中国的AI处理器份额接近零,这不同于之前假设的一些中国云服务商会大规模买NVIDIA 的H20或B40芯片。(但这个观点我们之 ...
美国焦虑中国AI开源模型领先,英伟达看中的 Reflection AI是啥由头?
傅里叶的猫· 2025-10-21 23:34
以下文章来源于AI产业链研究 ,作者研究 AI产业链研究 . 围绕人工智能展开研究,涵盖基础设施、算法及应用等多个方面,同时也会分享研究过程中的一些心得 体会 中国开源模型在海外逐渐占据越来越大的市场份额是不争的事实。关于中国开源模型的讨论也越来越 多,DeepSeek 本周新推出的一款 OCR 模型更是在X上引发广泛关注 —— 这实际上是一款新发布的开 源视觉语言模型(VLM)。 它并不是又一款普通的 OCR 工具,而是 "光学上下文压缩" 领域的突破性成果:将图像作为编码和处理 海量文本数据的超高效率载体,成功解决了大型语言模型(LLMs)的核心痛点之一 —— 在处理长上下 文时,避免内存、延迟或令牌成本的激增。当然,更关键的是它的开源属性。 这几天,一张图片在海外 AI 圈刷屏—— DeepSeek 在投资领域的表现同样亮眼。在 2025 年 10 月的 Alpha Arena 赛事(Hyperliquid 平台举办的实盘加密货币交易竞赛)中,DeepSeek-V3.1 以 1 万美元本 金参赛,三天内斩获 40.4% 的回报率登顶排行榜 —— 不仅超越了 Grok 4(33.4%)和 Claude ( ...
突然火起来的钻石散热是AI的终极散热?
傅里叶的猫· 2025-10-20 17:41
可惜光模块的行情并未能持续,后面表现比较一般,到了下午钻石散热突然爆发,这篇文章我们结 合开源证券的一个分析,来看下什么是钻石散热,以及产业链的公司。 今天早上花旗有份报告,分析了昨晚1.6T光模块加单的事,总结下来就是需求旺盛,但零 部件很缺,未必供的上。 算力和散热的爆发 关于散热的文章,我们之前写过很多,但主要是液冷为主,上周有篇文章还专门总结了液冷的技 术。 金刚石与其他半导体 / 金属材料关键性能对比表: | 性能指标 | 単位 | 金刚石 | සී (ટા) | 碳化硅 (Sic) | 砷化锡 (GaAs) | 氢化铬 (GaN) | 铜 (Cu) / 银 (Ag) | | --- | --- | --- | --- | --- | --- | --- | --- | | 热导率 | W/m.K | 2000 | ~154 | ~500 | ~47 | ~130 | ~400-429 | | 禁带宽度 | eV | 5.47 | 1.12 | 3.26 | 1.43 | 3.40 | | | 击穿电场强度 | 10^6 V/m | 1000 | ~30 | ~400 | ~60 | ~500 | ...
Andrej Karpathy并非看空AI
傅里叶的猫· 2025-10-19 22:11
今天最火的事应该就是Andrej Karpathy的这个访谈,访谈本身是昨天的,但今天的关注度特 别高,他跟马斯克的对话也很有意思。 先来总结一下Karpathy的主要观点: 1、关于AGI时间线,Karpathy认为AGI实现还需约10年,当前乐观预测多为融资驱动。他用"召唤幽灵 而非构建动物"比喻AI,强调AI通过模仿互联网数据生成,与生物演化智能不同。这个观点其他大佬也 都提到过。 2、强化学习问题,RL效率低下,存在高方差和噪声问题,类似通过吸管汲取监督信号;自动化信用分 配和LLM裁判易被利用,限制其发展。 3、LLM的认知缺陷,LLM缺乏持续学习、多模态能力及情感驱动力,依赖上下文窗口而非长期记忆, 而且存在"模型坍塌"风险,生成数据多样性下降。 4、AGI不会引发经济爆炸,而是平滑融入2% GDP增长曲线,延续自动化浪潮,技术扩散和社会适应需 渐进过程,无"离散跳变"证据。 有意思的是,马斯克昨天刚发了下面这条X,认为对Grok 5可以实现AGI的概率现在是10%,这个肯定 是随着grok 5的开发进度而提升的。 而Karpathy在X上发布了他的采访中的观点,老马感觉被打脸了,就直接让Karp ...
深入分析下一代 AI 芯片的散热革命
傅里叶的猫· 2025-10-19 22:11
AI芯片散热需求趋势 - AI芯片热设计功耗呈现跳级增长,英伟达A100在2023年TDP为600-700W,到2025年Blackwell系列达到1000-1400W,2026年Rubin系列初始TDP为2300W,2027年Rubin Ultra可能超过3500W [3] - 传统单相液冷冷板散热上限为2000-3000W,更高功耗需要新技术突破 [4] 微通道盖板技术 - 微通道盖板是2027年后3000W以上芯片的最实用方案,通过整合均热板和冷板为一体,缩短散热路径为“芯片→TIM1→MCL”,减少热阻 [5] - 该技术兼容现有单相液冷系统,冷却液、快速接头、冷却液分配单元等设备可继续使用,相比两相液冷具有更好的兼容性和更快的落地速度 [7] - 微通道盖板面临设计、制造和供应链三大挑战,微通道尺寸需控制在10-1000微米以平衡流动性和压降,制造需高精度工艺且初期良率可能低于50%,供应链责任需在台积电及其CoWoS联盟伙伴间重新划分 [7][8][9] 热界面材料升级 - 当前英伟达使用石墨膜TIM,垂直方向热导率约20W/m-K,对于3500W的Rubin Ultra将不足 [10] - 铟金属TIM热导率可达80W/m-K以上,是石墨膜的4倍多,但需解决组装时空洞控制和界面处理(如背侧金属化)问题,预计2027年Rubin Ultra量产时可能应用 [10] 其他前沿散热技术 - 芯片级直冷技术如TSMC的Si集成微冷却器和微软的嵌入式微流控仍在早期阶段,面临规模化生产难题,预计2030年后才可能小规模应用 [11] - 近3-5年散热方案仍将依赖微通道盖板和热界面材料升级 [11] 传统冷板厂商增长机遇 - 非核心芯片液冷需求被忽视,AI服务器中CPU、交换机、网络卡、内存模块等部件液冷渗透率2025年不到10%,2027年将超过50% [12] - AI服务器液冷组件市场规模将从2025年的12亿美元增长至2027年的35亿美元,年复合增速超过60% [12] - 传统冷板厂商如AVC、Auras可通过成为微通道盖板第二供应商切入高端市场,AVC已在测试样品,Auras因有均热板经验具备研发基础 [13] 重点公司分析 - Jentech作为全球均热板龙头,与台积电CoWoS联盟合作深厚,预计2026年末开始小批量供应微通道盖板,2027年微通道盖板收入将占总营收17%,2028年可能超过30% [15] - AVC是英伟达核心液冷供应商,GB200/300冷板大部分由其供应,2025年三季度销售额环比增长32% [15] - Auras在冷板市场占有率约10%,但在冷却液分配部件上具有优势,全液冷服务器需要更多此类部件 [15]
回归技术--Scale Up割裂的生态
傅里叶的猫· 2025-10-19 00:01
文章核心观点 - 文章核心观点是分析AI服务器Scale Up高速互联技术的市场格局、主流技术方案及其发展前景,重点探讨了英伟达NVLink、博通SUE和由AMD、Marvell等公司推动的UALink三大技术路线的竞争态势 [1][3][5] - 随着AI算力需求增长,Scale Up网络市场预计将从2024年的40亿美元以34%的年复合增长率增长至2029年的170亿美元,为非英伟达阵营的互联技术提供了巨大市场机会 [5][7] - Scale Up技术生态目前呈现割裂状态,未来竞争结果将取决于xPU市场份额划分、新网络标准演进以及客户的数据中心架构选择 [10][22] Scale Up和Scale Out概念 - Scale Up网络指同一台服务器或同一机架内GPU之间的高速通信网络,通过加速器互联使其协同工作,相当于一台大型超级计算机 [3] - 在Hopper时代以8卡机为主,服务器内部GPU可通信,服务器间需接交换机;Blackwell时代的GB200 NVL72则将一个机架内的72个GPU视为单一虚拟GPU,消除了服务器间通信瓶颈 [5] 主流Scale Up方案对比 - 英伟达采用专有NVLink协议实现GPU集群互联,在GB200/300的NVL72配置中,NVLink扩展至Blackwell GPU与Grace CPU的连接,预计未来将继续仅通过NVLink实现Scale Up [11] - AMD借助专有Infinity Fabric技术实现MI300 GPU的Scale Up,单个服务器最多连接8个GPU;即将推出的MI400将采用72-GPU机架配置,通过基于以太网的UALink实现Scale Up [12] - 谷歌通过芯片间互联技术实现机架内TPU Scale Up,借助光电路交换技术实现跨机架扩展;基于TPUv7架构的完整扩展pod可支持多达9216个TPU [13] - 亚马逊采用专有NeuronLink互联技术实现Scale Up通信,可在四个Trainium2实例间连接多达64个芯片;目前正与阿斯特拉实验室合作研发专用Scale Up交换机,预计2026年推出 [14] - 博通的SUE采用AI优化以太网,具备超低延迟和高性能,使用博通Tomahawk交换机,支持横向与纵向扩展的第六代产品已于6月出货 [17] - UALink是专为AI设计的内存语义互联技术,目前处于发展初期,由AMD、ALAB、MRVL及多家超大规模企业组成的联盟支持,基于AMD的Infinity Fabric,物理层依托以太网 [17] 国内超节点发展现状 - 目前国内已公布超节点方案的只有华为和阿里,华为有UB Mesh,阿里有ALink;其他国产GPU厂由于系统复杂性高且需要自有互联协议,面临较大挑战 [9] - 阿里欢迎其他厂家加入ALink生态,但其他厂家可能因竞争关系不愿兼容,同时受国际形势影响可能也不会选择国外互联总线,导致国内生态发展存在不确定性 [9] 互联介质选择:光与铜 - 当前Scale Up网络以铜缆为主,因其在短距离内具有纳秒级低延迟和成本优势,能避免光器件的额外成本和功耗 [20] - 单机架加速器部署规模上限约为72个,受架构、功耗与散热、物理密度和可靠性四大因素限制;若规模超过100个或需转向光连接 [20] - 预计铜缆将在Scale Up网络中长期使用,但当Scale Up突破单机架实现数百个GPU集群时,可能于2028年及以后引入光器件 [20][21] 市场竞争格局与关键因素 - Marvell在UALink生态中的主要贡献是准备做UALink switch,这是整个生态中最关键的一环 [22] - 当前市场处于早期阶段,架构、技术标准和客户偏好仍在变化中,最终胜出的Scale Up技术尚未确定,但市场规模足以支撑多家供应商共存 [22] - 长期来看,非英伟达阵营预计将从专有Scale Up网络逐步转向UAL、SUE等开源解决方案,这些技术有望在2027-2028年随着技术成熟及新ASIC产品放量而得到更广泛应用 [22]
英伟达份额降至零,寒武纪的三季报分析
傅里叶的猫· 2025-10-18 05:35
英伟达退出中国市场事件 - 2025年10月英伟达CEO黄仁勋公开承认公司已完全退出中国市场,市场份额归零[1] - 2022年美国首次对华实施AI芯片出口限制时,英伟达在中国市场份额超过90%[4] - 2024年英伟达为中国定制H20芯片出货60-80万枚,但性能仅为H100芯片的15%[5] - 2025年4月美国将H20纳入出口管制,英伟达停售该芯片并计提45亿美元库存损失[6] - 2025年8月H20虽获出口许可但需缴纳15%销售额分成,后因安全审查遭中国客户弃用[7] - 英伟达中国区收入从171亿美元跌至可忽略不计[8] 英伟达产品在中国的实际流通情况 - 美国政策主要针对AI芯片,多数桌面级GPU显卡仍可正常在中国交易[9] - 英伟达发布的DGX Spark产品国内可以买到,其搭载的GB10 Grace Blackwell Superchip芯片可正常进入中国[10] - 被禁运的是阉割版AI芯片如H20和Rtx Pro 6000D,但更高端的B系列产品可通过非官方渠道进入中国[10] - 部分被禁运的高端桌面级显卡在京东等平台可以搜到[10] 寒武纪2025年第三季度财报分析 - 第三季度营收17.27亿元人民币,净利润5.67亿元,净利率为32.8%[11] - 上半年净利率为36.08%,第三季度净利率同比下降约3个百分点[11] - 第三季度营收低于市场预期的24亿元,公司此前给出的年度营收指引为50-70亿元[11] - 存货从上半年的26.9亿元增加至37亿元,据信其中很大一部分为HBM存储芯片[12] 寒武纪业务与市场地位 - 市场消息称其思元690芯片已出货,速度快于预期,显示公司研发和技术迭代能力强劲[11] - 客户群体多元化,除字节外还包括其他云服务提供商、国家超算中心、头部安防公司及多家车企[14] - 公司在字节内部思元处理器应用广泛,表明其软件生态已较为成熟[14] - 据业内消息,寒武纪在中芯国际的产能有所增加[14] 中国AI芯片行业前景 - 英伟达阉割版芯片被禁利好国产GPU/NPU公司,包括华为、寒武纪等[14] - 昇腾芯片已能支持万卡集群的大模型训练,进展快于市场预期[14] - 昇腾当前主要挑战在于其生态系统的工程师使用普及度仍需时间提升[15] - 摩根士丹利分析预测中国到2027年GPU自给率可达82%[15] - 国内AI芯片行业长期发展被看好[16]
西门子EDA HAV Tech Tour 报名中丨驱动软硬件协同,预见系统工程未来
傅里叶的猫· 2025-10-16 22:03
行业趋势与验证策略 - 软硬件协同验证与验证左移是推动复杂SoC系统开发的关键策略[1] - 硬件辅助验证技术已成为复杂SoC系统验证中不可或缺的核心工具[1] - SoC开发团队必须在设计初期就慎重选择硬件辅助验证工具和方法以提高效率并降低风险[1] Veloce CS系统核心架构 - Veloce CS系统包含三大核心平台:硬件仿真平台Strato CS、企业级原型平台Primo CS和软件原型平台proFPGA CS[3] - Strato CS与Primo CS运行在高度一致的架构上共享同一操作系统和解决方案应用实现无缝切换[3] - 统一架构能加速调试与任务部署使验证效率提升多达3倍总拥有成本可降低约6倍[3] proFPGA CS平台特性 - proFPGA CS硬件系统采用模块化设计理念可自由组合母板、FPGA模块和子板以满足不同容量和功能需求[3] - 平台容量可从单颗FPGA 80M门扩展到180颗FPGA 14.4B门[4] - proFPGA CS共享Strato CS/Primo CS的前端工具和部分VirtuaLAB方便用户在多个平台之间自由切换[4] 技术巡讲核心议题 - 技术巡讲涵盖采用Veloce CS生态提高SoC和系统设计验证效率的主题[6] - 议题包括proFPGA CS的模块化和扩展性增强硬件原型验证方法学[6] - 巡讲将分享利用proFPGA CS加速高性能RISC-V SoC验证以及Strato CS助力Arm Neoverse CSS软硬件协同验证的客户案例[6]