Workflow
杰文斯悖论
icon
搜索文档
阿里云又丢出了核弹
华尔街见闻· 2025-05-07 22:41
阿里云AI战略布局 - 阿里云正式上线Qwen3系列模型"全家桶",包含2个MoE模型和6个稠密模型,参数规模从0.6B到235B,覆盖手机端到旗舰级体验,并一次性开源 [2] - Qwen3-4B小模型性能对标上一代Qwen-32B,发布两小时GitHub Star数超16.9k,显示市场高度关注 [2] - Qwen3采用混合推理架构,全球首个开源"快慢思考"集成模型,能自动识别任务场景切换思考模式,技术领先性显著 [5] 技术突破与成本优化 - Qwen3部署成本仅为DeepSeek-R1的四成(4张H20卡 vs 16张H20卡),性能全面超越国内领先模型 [6] - 模型支持MCP协议并推出Agent原生框架,孵化出爆款应用Manus(基于Qwen的Agent),推动AI应用生态 [13][14] - 阿里云通过"杰文斯悖论"效应刺激AI需求:Qwen3训练成本优化反而带动算力消耗激增,形成正向循环 [6] 集团AI化转型 - 阿里宣布未来三年投入3800亿建设云和AI基础设施,金额相当于近三年累计利润,战略级投入力度空前 [19][20] - 集团所有业务单元2025年绩效考核与AI应用成效挂钩,电商板块200+业务线联合通义团队开发智能功能 [21] - 夸克升级为集团AI旗舰应用,通义APP首批接入Qwen3模型,高德/飞猪/饿了么等快速落地AI功能 [23] 市场影响与财务前景 - 阿里云2024Q4营收317.42亿元(同比+13%),AI收入连续六季度三位数增长,市占率回升至26.1% [28][29] - 高盛预测2026/2027财年阿里云AI收入将达290亿/530亿元,占总收入20%/29%,推动整体收入增速超20% [29] - 摩根大通测算阿里云估值或达1850亿美元(按微软10.5倍PS),带动阿里整体市值从3045亿升至3910亿美元 [29] 行业竞争格局 - Qwen3实现中美大模型代际差抹平,开源生态已吸引90%上市银行/手机/汽车/家电品牌加入 [27] - 阿里构建"云计算底层+MaaS中间层+应用顶层"三位一体架构,布局完整度领跑国内互联网公司 [26][28] - 行业进入Agent元年,百万日活产品Agent化后token消耗激增30万倍,算力需求呈指数级增长 [16]
千问3的屠榜,是AI的一小步,也是阿里的一大步
搜狐财经· 2025-05-05 14:31
阿里AI战略与成果 - 阿里通过Qwen3系列大模型的发布确立了在开源大模型领域的全球领先地位 终结了关于其是否为AI公司的讨论 [2] - Qwen3系列模型在多项基准测试中表现优异 如235B版本在ArenaHard达到95.6分 显著优于OpenAl-o1(92.1)和Deepseek-R1(93.2) [3] - 公司宣布未来三年将投入3800亿人民币建设云和AI基础设施 金额超过过去十年总和 [5] 技术优势与成本控制 - Qwen3-235B仅需4张H20显卡即可部署 成本仅为竞品DeepSeek-R1(需16张H20)的30% [7] - 模型支持从0.6B到235B的全尺寸分类 适配手机/智能眼镜/机器人等多种终端设备 [7] - 具备自适应算力分配功能 可根据需求动态调整思考模式与非思考模式的资源调用 [9] 行业竞争格局 - 中国AI应用需求旺盛 2022年工业机器人安装量达29万台 远超日本等十国总和 [11] - 中国78%受访者对AI持乐观态度 显著高于美国的35% 反映两国市场接受度差异 [10] - 当前ChatGPT单产品月活已超过中国前十大AI产品总和 显示国内应用层仍有差距 [12] 战略定位与生态布局 - 公司采用"云+AI"组合拳战略 将云计算定位为AI时代的核心基础设施 [14] - 通过开源策略构建产业生态 已为夸克/钉钉等内部产品提供AI底层支持 [11][12] - 明确从模型训练向Agent中心时代过渡的技术路线 强化对计算资源的整合能力 [14] 行业发展趋势 - AI投资呈现"杰文斯悖论" 技术进步未降低资源消耗 反而刺激全球算力需求激增 [6] - 中美AI发展路径分化 美国侧重AGI愿景 中国更注重产业落地与实际问题解决 [10] - 中国互联网进入"智能化"十年周期 需将技术优势转化为商业动能与用户福祉 [13]
速递|DeepSeek等开源模型触发云服务定价权崩塌,咨询业是成AI最后付费高地?
Z Finance· 2025-04-03 11:20
人工智能支出趋势 - 大型云客户因价格下跌正在减少人工智能费用的支出 [1] - 网络安全公司Palo Alto Networks发现DeepSeek开源模型成本仅为OpenAI的5%并计划减少AI支出 [1] - 汤森路透在微软和谷歌云上的AI支出"基本持平"得益于模型价格下降 [7] - Intuit转向混合使用免费开源模型和OpenAI更便宜模型减缓了Azure上的AI支出增长 [8] 成本下降驱动因素 - Nvidia服务器芯片在过去一年中更容易以更低价格获取 [2] - 开源模型与OpenAI等商业模型的性能差距缩小导致成本急剧下降 [7] - DeepSeek模型成本仅为OpenAI一小部分引发行业震动 [8] 行业分化现象 - OpenAI、xAI、Anthropic和字节跳动等少数AI开发者推动云服务商收入增长 [6] - 开发AI驱动应用的年轻初创公司仍在增加AI投资 [11] - 普华永道等咨询公司增加AI支出以跟踪客户数据并提供最新技术 [13][14] - 仅OpenAI、Cursor、Glean和Perplexity等少数公司通过AI应用获得可观收入 [15] 商业生态影响 - 微软CEO认为成本下降将遵循杰文斯悖论带动整体AI需求增长 [8] - 微软Copilot和Salesforce Agentforce面临来自低成本竞争对手的定价压力 [16] - 微软将多个Azure销售团队销售配额降低多达40%可能与AI支出放缓有关 [17] 长期展望 - 价格下降可能吸引老旧行业公司加速AI技术采用 [9] - Palo Alto Networks计划在安全软件的其他AI技术领域增加投资 [10] - 工业机器人和复杂白领任务领域仍会为尖端模型支付高价 [12]
商汤科技:生成式AI收入连续两年三位数"狂飙",董事长和执行董事双双增持
格隆汇· 2025-03-28 19:20
文章核心观点 - 2024年商汤生成式AI业务收入高增长推动全年收入增长、亏损收窄,公司完成向生成式AI战略转型,“三位一体”战略巩固技术领先地位,技术普惠与商业价值创造共振,获多家机构看好 [1][8] 分组1:业务表现 - 2024年生成式AI业务收入突破24亿元,同比增长103.1%,推动全年收入同比增长10.8%达37.7亿元,亏损同比收窄33.7% [1] - 生成式AI业务在总收入中占比从34.8%提升至63.7%,标志公司完成从视觉AI向生成式AI战略转型 [1] 分组2:“三位一体”战略优势 技术领先 - 依托“大装置 - 大模型 - 应用”协同创新形成核心技术差异化优势,巩固技术领先地位 [2] - SenseCore大装置初步完成全国布局,适配国产芯片,算力连续两年翻番,总运营算力规模达23,000 PetaFLOP,同比增长92%,在综合能力评估中位列全球Top2、国内第一 [2] - 通过“大装置 + 大模型”协同优化赋能第三方开源模型,训练效率优于DeepSeek公开报告,提升模型训练与推理性能 [3] 应用领先 - 构建“一基两翼”应用布局,生产工具商业落地成果好,客户付费意愿增长6倍,交互工具关键指标居行业第一梯队,智能硬件交互接入超70家企业,在大模型应用市场份额排前三 [4] 分组3:技术普惠与商业价值 - DeepSeek崛起使大模型走向千行百业,商汤算力基础设施规模升级推动大模型推理成本下降,加速AI普惠与商业化落地 [5][6] - 商汤大装置市场占比稳居前三,视觉AI业务连续八年居中国计算机视觉市场份额第一,智慧汽车业务新增交付和定点车辆数增长 [6][7] 分组4:机构评级 - 中金公司、招银国际等券商给予“买入”“增持”评级,认为商汤技术优势和产业落地能力将推动企业价值释放,有望形成“戴维斯双击效应” [8]
黄仁勋没有告诉我们的细节
半导体芯闻· 2025-03-19 18:34
AI模型进展与扩展定律 - AI模型在过去六个月的改进速度显著加快,这一趋势将持续,主要得益于训练前扩展、训练后扩展和推理时间扩展三个扩展定律的协同作用[1] - Claude 3.7展示了卓越的软件工程性能,Deepseek v3大幅降低了上一代模型的成本,OpenAI的o1和o3模型表明更长的推理时间和搜索能带来更好的答案[3] - 行业正经历智能和tokens的爆炸式增长,Nvidia专注于将推理成本提高35倍以实现模型的经济高效部署[3] Nvidia硬件路线图 - Blackwell Ultra B300的FP4 FLOP密度比B200高出50%以上,内存容量升级到每包288GB HBM3E,但带宽保持8TB/s[11] - B300 NVL16将取代B200 HGX外形尺寸,采用16个封装和基板上的GPU芯片,使用CoWoS-L封装技术[12] - B300引入CX-8 NIC,网络速度提高一倍,达到InfiniBand 800G的总吞吐量[13] - Rubin将提供50 PFLOP密集FP4计算能力,比B300提升三倍多,采用3nm工艺和1800W TDP[16][17] - Rubin Ultra将计算能力提升至100 PFLOP密集FP4,HBM容量达到1024GB,是普通Rubin的3.5倍以上[24] Nvidia软件与系统创新 - Nvidia推出Dynamo AI引擎堆栈,简化部署和扩展推理,可能颠覆VLLM和SGLang[39] - Dynamo包含智能路由器、GPU规划器、改进的NCCL Collective推理、NIXL传输引擎和NVMe KV-Cache卸载管理器等关键功能[40][43][44][46][48] - Dynamo使DeepSeek创新民主化,允许社区部署高效的推理系统,特别有助于个人复制和更高交互性的部署[51][52] 网络与通信技术 - Nvidia推出首款共封装光学(CPO)解决方案,显著降低功耗,允许更大的交换机基数和更扁平的网络拓扑[57][58] - 对于400k GB200 NVL72部署,从基于DSP收发器的三层网络转移到基于CPO的两层网络可节省高达12%的总集群功耗[59] - Nvidia推出多款基于CPO的交换机,包括Quantum X-800 3400和Spectrum-X交换机,将于2025和2026年下半年推出[59] 行业影响与趋势 - 随着智能价格下降和能力前沿推进,对智能的需求将无限增长,AI对生活的实际影响仍处于起步阶段[4] - Nvidia通过Blackwell和Rubin等创新持续领先,Blackwell性能比Hopper高出68倍,成本降低87%,Rubin预计性能提升900倍,成本降低99.97%[53][54] - 快速改进的通用平台如Nvidia GPU难以被ASIC等替代方案击败,公司正重建其在计算领域的领导地位[61]
深度解读黄仁勋GTC演讲:全方位“为推理优化”,“买越多、省越多”,英伟达才是最便宜!
硬AI· 2025-03-19 14:03
英伟达GTC 2025技术创新与行业影响 核心观点 - 英伟达通过推理Token扩展、推理堆栈与Dynamo技术、共封装光学(CPO)等创新显著降低AI总拥有成本,巩固其在全球AI生态系统的领先地位 [2][5] - 三条扩展定律(预训练、后训练、推理时)协同作用推动AI模型能力持续提升 [8][10] - 硬件性能提升与成本下降形成"杰文斯悖论"效应:成本降低刺激需求增长而非抑制 [10][12] 推理Token扩展 - 现有模型Token数超100万亿,推理模型Token量达20倍,计算量高出150倍 [12] - 测试阶段需数十万Token/查询,每月数亿次查询;后训练阶段单个模型需处理数万亿Token [13] - 代理能力AI推动多模型协同工作,解决复杂问题 [13] 黄仁勋数学规则 - 第一条规则:FLOPs数据以2:4稀疏度计,实际密集性能为公布值的2倍(如H100 FP16密集性能1979.81 TFLOPs) [15] - 第二条规则:带宽按双向计量(如NVLink5报1.8TB/s=900GB/s发送+900GB/s接收) [16] - 第三条规则:GPU数量按封装中芯片数计(如NVL144含72个封装×2芯片) [16] GPU与系统路线图 Blackwell Ultra B300 - FP4 FLOPs密度较B200提升超50%,内存容量升至288GB/封装(8×12-Hi HBM3E),带宽维持8TB/s [20] - 采用CoWoS-L封装技术,16个GPU封装组成B300 NVL16系统 [21][22] - 引入CX-8 NIC(800G吞吐量),比CX-7提升一倍 [22] Rubin系列 - 采用台积电3nm工艺,50 PFLOPs密集FP4性能(较B300提升3倍) [25][26] - 关键改进:I/O芯片释放20%-30%面积、1800W TDP、128×128张量核systolic array [27][28] - HBM4容量288GB(8×12-Hi),带宽13TB/s(总线2048位,6.5Gbps针速) [32] Rubin Ultra - 性能翻倍至100 PFLOPs密集FP4,HBM4E容量1024GB(16×16层32Gb DRAM) [36] - 系统总高速存储365TB,Vera CPU配1.2TB LPDDR [37] - 采用Kyber机架架构,NVL576配置含144封装×4芯片=576计算芯片 [39][44] 推理堆栈与Dynamo技术 - Smart Router实现多GPU负载均衡,避免预加载/解码阶段瓶颈 [56][58] - GPU Planner动态调整资源分配,支持MoE模型负载均衡 [59][60] - NCCL小消息传输延迟降低4倍,NIXL引擎实现GPU-NIC直连(免CPU中转) [61][62] - NVMe KV-Cache卸载管理器提升56.3%缓存命中率,释放预加载节点容量 [65] CPO技术突破 - 功耗显著降低:400k GB200 NVL72集群总功耗节省12%,收发器功耗占比从10%降至1% [75] - 网络扁平化:三层→两层拓扑,Quantum X-800 CPO交换机提供144×800G端口 [76] - 长期潜力:提升GPU扩展网络基数,支持超576 GPU的规模化部署 [77] 成本效益与行业地位 - Blackwell较Hopper性能提升68倍,成本降87%;Rubin预计性能提升900倍,成本降99.97% [69] - 技术迭代速度使竞争对手难以追赶,形成平台优势 [79][80] - CPO、机架设计等创新持续扩大与竞争对手差距 [78][79]
深度|SemiAnalysis万字解析英伟达GTC 2025:为推理而生,从硅片到系统再到软件的推理优化,买得越多,赚得越多
Z Finance· 2025-03-19 11:41
文章核心观点 - AI计算竞赛中效率提升成影响市场格局关键变量,Nvidia硬件进步和软件优化推动推理成本下降,虽引发市场对AI硬件“供过于求”担忧,但符合“杰文斯悖论”,计算力普及将催生更多应用推高AI产业规模,Nvidia重新定义GPU计算经济学并开创行业标准 [1] AI模型进展与市场担忧 - AI模型进展速度加快,三个扩展定律叠加协同工作,今年GTC致力于解决新扩展范式,Nvidia专注提高推理成本以实现模型训练和部署,口号从“买得越多,省得越多”变为“省得越多,买得越多” [4] - 市场担忧软件优化和硬件改进致成本过高使AI硬件需求下降、市场供过于求,但随着智能价格下降和能力提升,对智能需求将无限增长,Nvidia提供数据支持杰文斯悖论 [5][6] 詹森数学规则 - 第一条规则是Nvidia总体FLOP以2:4稀疏度与密集FLOP表示,如H100的FP16的989.4 TFLOP被引用为1979.8 TFLOP [10] - 第二条规则是带宽以双向方式引用,如NVLink5传输和接收速度均为900GB/s,被引用为1.8TB/s [10] - 第三条规则是GPU数量根据封装中GPU芯片数量而非封装数量计算,从Rubin开始采用此命名法 [11] GPU和系统路线图 布莱克韦尔Ultra B300 - B300以GPU形式出售,位于可装入口袋的SXM模块上,带Grace CPU和可装入口袋的BGA,与B200相比,FP4 FLOP密度高出50%以上,内存容量升级到每包288GB,带宽仍为8 TB/s [16] - B300 HGX版本现称B300 NVL16,将取代B200 HGX外形尺寸,采用16个封装和基板上的GPU芯片,封装技术采用CoWoS - L,16个GPU通过NVLink协议通信,不具备Astera Labs的重定时器,部分超大规模计算厂商将选PCIe交换机,还将引入CX - 8 NIC,网络速度提高一倍 [17][18] Rubin规格 - Rubin在台积电3nm上配备两个光罩大小计算芯片,两侧有I/O模块,提供50 PFLOP密集FP4计算能力,比B300一代提升三倍多,通过I/O芯片释放空间、采用3nm工艺、提高TDP和架构扩展等实现 [21] - Rubin再次使用Oberon机架架构,与Vera CPU配对,新机架有72个GPU封装但命名为VR200 NVL144,含144个计算芯片,Nvidia HBM容量保持288GB升级到HBM4,带宽达13TB/s,采用6代NVLink速度翻倍,NVSwitch ASIC聚合带宽翻倍 [24][25][26] Rubin Ultra规格 - Rubin Ultra性能提升显著,HBM堆栈从8个跃升至16个,计算面积和能力翻倍达100 PFLOP密集FP4,HBM容量达1024GB,系统有365 TB快速内存/第二层LPDDR,将引入Kyber Rack架构 [30][31][32] Kyber Rack架构 - 关键新功能是将机架旋转90度增加密度,NVL576配置下每个计算盒有一个R300 GPU和一个Vera CPU,PCB板背板取代铜缆背板,可能有VR300 NVL1,152变体,还将推出7代NVSwitch [33][35] 改进型指数硬件单元 - GPU中GEMM在张量核心执行,专注元素级指数计算的MUFU单元性能提升慢,在bf16 Hopper和FP8 Hopper上计算softmax存在问题,Blackwell Ultra重新设计SM并添加指令,MUFU单元性能提高2.5倍 [39][40][41] 推理堆栈和Dynamo - 去年GTC讨论GB200 NVL72比H200推理吞吐量提高15倍,今年Nvidia在硬件和软件领域加速推理吞吐量提升,Blackwell Ultra GB300 NVL72和Rubin一代网络升级提高推理吞吐量,软件领域推出Nvidia Dynamo [43][46] - Dynamo带来智能路由器、GPU规划器、改进的NCCL Collective推理、NIXL、NVMe KV - Cache卸载管理器等新功能,全面提升推理速度,使DeepSeek创新民主化,有助于个人复制和更高交互性部署 [47][49][60] AI总拥有成本 - Blackwell性能比Hopper高出68倍,成本降低87%,Rubin预计性能是Hopper的900倍,成本降低99.97%,Nvidia追求进步,建议生态系统优先部署下一代系统 [61][63] - 研究的H100租赁价格预测框架准确率达98%,结合多方面估计构建预测价格曲线 [64] CPO插入 - Nvidia宣布首款共封装光学(CPO)解决方案,部署在横向扩展交换机中,CPO降低功耗,可使网络扁平化一层,400k* GB200 NVL72部署从三层网络转两层网络可节省12%总集群功耗 [69][70] - 推出多款基于CPO的交换机,Quantum X - 800 3400的CPO版本2025年下半年推出,Spectrum - X交换机2026年下半年推出,长远看CPO可增加GPU扩展网络基数和聚合带宽 [73][75] 行业地位 - 尽管亚马逊Trainium芯片定价低,但Nvidia技术领先,新架构、机架结构、算法改进和CPO使其与竞争对手拉开差距,预计将继续领先 [76]
AI投资机会怎么看?外资机构发声
证券时报· 2025-03-13 13:07
AI推动新一轮资本开支增长 - 全球主要科技企业正在推动新一轮资本支出扩张,美国四大云服务和AI企业的资本开支总额预计将从2023年的1500亿美元增长至2024年的3000亿美元,实现翻倍 [3] - 半导体企业成为AI基础设施建设的重要受益方,英伟达数据中心相关收入预计从2023年的500亿美元增长至2024年的约1800亿美元,增长超过三倍 [3] - AI模型从预训练发展到训练后优化(如RLHF)将推动算力需求持续增长,对AI基础设施的需求维持高位 [4] 低成本革命开启中国资产重估 - DeepSeek发布的大型语言模型引发市场对中国科技企业估值逻辑的重塑,低推理成本与强大制造业供应链让中国在AI应用和物联网领域的推进速度有望超过美国 [6] - 中国在数据、研发和人才方面的优势推动DeepSeek成功,训练成本降低将加速AI技术落地并推动设备更新换代 [6] - 中国科技"七巨头"概念兴起,AI行情带动科技股新一轮价值重估,中国可能首次在全球技术革命中处于领先地位 [7] AI+产业链重塑未来投资方向 - 半导体、机器人、算力基础设施等方向将在AI革命与全球制造升级背景下迎来持续发展机遇 [9] - 半导体行业在医疗、航空航天、能源基础设施、机器人等新兴领域具有巨大增长空间 [9] - 中国在全球供应链中扮演关键角色,尤其在机器人领域从核心零部件到整机全产业链占据主导地位 [9] - AI技术将深入实体经济,带动智能制造、自动驾驶、物联网等多场景落地,中国企业有望在全球产业链中占据更高地位 [10] - 重点关注AI在具身智能、消费电子、智能驾驶等领域的应用,以及半导体硬件、云计算等基础设施和国产高端装备、芯片制造等自主可控领域 [10]
DeepSeek对英伟达长期股价的潜在影响
致富证券· 2025-03-12 14:38
报告行业投资评级 未提及 报告的核心观点 - DeepSeek在训练和推理成本上有显著优势,引发科技股大幅波动,短期内冲击英伟达股价,但长远看随着AI技术普及和商业化加速,英伟达芯片需求可能进一步增长,AI产业将迈向新阶段 [2][3][16] 根据相关目录分别进行总结 DeepSeek引发市场波动 - 1月27日,DeepSeek在中国区和美国区苹果App Store免费榜登顶,美国科技股市场大幅下跌,费城半导体指数下跌9.2%,英伟达股价下跌近17%,市值蒸发近6000亿美元,WTI原油价格盘中一度下跌3% [2] DeepSeek成本优势 - 训练成本方面,DeepSeek使用约2000张H800 GPU训练,V3模型训练成本不超过600万美元,预训练阶段每万亿Token训练用2048个H800 GPU集群,180K个GPU小时(约3.7天)完成,总耗时约2788K GPU小时 [5][6] - 推理成本方面,OpenAI的o1模型每百万输入和输出Token分别收费15美元和60美元,DeepSeek的R1模型相同输入和输出价格仅为OpenAI的3%,DeepSeek推理成本API报价每百万Token输入成本仅1元 [3][7] DeepSeek低成本训练实现方式 - DeepSeek团队创新训练策略,在监督微调环节优化,最初尝试跳过SFT步骤仅用强化学习训练,引入少量冷启动数据提升稳定性和推理能力,R1系列模型摒弃RLHF中的人类反馈部分 [9] - 为解决纯强化学习训练文本中英混杂问题,用数千条链式思考数据微调V3 - Base模型,再启动强化学习流程生成样本数据微调得到R1模型,降低成本同时提升推理和语言生成质量 [10] DeepSeek对AI产业影响 - 对依赖自研大模型构建商业模式的公司影响更显著,如引发Meta内部AI团队担忧,Meta成立小组分析其技术原理并计划用于Llama模型优化 [12] - 美国大型科技企业以保持技术领先为首要目标,虽可能借鉴DeepSeek方法优化成本,但不会作为核心战略,现阶段大语言模型发展需大量算力,未来其他机器学习模型也可能有巨大算力需求 [13] - 英伟达认为DeepSeek成果会增加市场对其芯片需求,依据杰文斯悖论,技术进步降低资源使用成本会使市场对资源总体需求上升 [14] - DeepSeek降低大语言模型开发门槛,促使更多中小型企业和个人训练私有模型,若引发推理需求“第二波”增长,增量需求将远超AI巨头减少的GPU采购量,且商业化后推理环节算力消耗更大 [15]
低点反弹30%+,拐点真的来了!
格隆汇APP· 2025-03-09 17:12
存储芯片行业现状与趋势 - 存储芯片板块自1月7日企稳反弹,累计涨幅超30% [1] - 企业级存储市场供不应求,消费级市场芯片价格处于跌势 [2] - 2024年四季度全球DRAM内存产业营收280亿美元,同比增长63.8%;NAND Flash市场规模174.1亿美元,同比增长42.4% [7] - 主流存储器价格自24年下半年开始下跌,消费类已下调超20%,企业级下调10-20% [10] AI驱动存储芯片需求 - 阿里宣布未来三年云和AI基建投入将超过去10年总和 [2] - AI服务器存储芯片价值量超10000美元,是通用服务器的2倍 [4] - HBM和SSD需求旺盛,HBM是高性能AI芯片刚需,SSD用于存储大量数据 [3] - 推理端需求增长将大幅促进AI芯片用量,遵循"杰文斯悖论"规律 [5] - SK海力士2025年HBM销售额计划翻倍,HBM占DRAM总营收比例已超四成 [5][12] 国产存储芯片进展 - 合肥长鑫DDR5芯片良品率达80%,HBM2取得进展,预计2025年中期小批量生产 [6] - 长江存储"晶栈架构"混合键合技术应用于3D NAND闪存,三星有望采用该技术 [7] - 国产AI芯片积极适配DeepSeek大模型应用,加强上下游协同 [5] - 国内存储模组厂商如江波龙、德明利、佰维存储等受涨价预期影响股价上涨 [14] 价格周期与厂商策略 - 存储芯片厂商通过减产、提价等措施自2023年第三季度起行情回升 [8] - 三星计划2025年将DDR4等传统产品销售占比缩减至个位数 [12] - 闪迪宣布4月1日起涨价超10%,预计后续季度还有额外涨幅 [13] - TrendForce预计2025年三季度NAND价格环比增长10%-15%,四季度增长8%-13% [15] 市场供需与预测 - 2025年一季度NAND Flash合约价预计环比下降10~15%,DRAM下降8~13% [12] - 企业级存储价格将保持稳定,消费类存储价格年中或迎来反弹 [15] - 厂商减产、去库存将加速供需关系走向平衡 [17] - AI硬件是长线故事,技术升级将带来机遇 [17]