Workflow
存算分离
icon
搜索文档
当“华米OV 耀”都不再满足于造手机
36氪· 2026-02-11 10:28
行业趋势:手机厂商跨界入侵专业影像设备市场 - 2026年,手机厂商集体将竞争焦点从彼此转向专业相机与手持影像设备市场,这是一场关于影像定义权的争夺[1] - 行业发展的必然性在于,智能手机影像堆料的边际效应严重递减,为追求5%的画质提升需付出50%的模组厚度代价,商业上已不划算,迫使厂商“换道超车”[27] - 手机厂商凭借计算摄影算法、算力、生态和庞大的用户习惯,对传统相机厂商构成降维打击,瞄准了比手机画质强、比相机操作简单的“中间地带”市场[27][28][29] OPPO与vivo:独立Vlog相机路线 - vivo已于2025年底立项独立Vlog相机产品,目标直指大疆Pocket系列,采用更轻薄的手持云台相机设计[4][6] - vivo产品将与OriginOS实现“原子级”互联,通过私有协议实现拍摄素材在手机端的无感调用与剪辑,预计搭载自研V系列影像芯片和X系列同款一英寸大底传感器[6] - OPPO的影像新物种可能作为Find X10系列的“超级配件”登场,其核心逻辑是“存算分离”:相机负责采集高质量素材,手机负责算力处理与社交分发,以此解决传统Vlog相机后期编辑繁琐的短板[8] 小米:磁吸式模块化光学系统 - 小米计划将MWC 2025展示的“磁吸式模块化光学系统”量产,可能随2026年的小米MIX 5或16 Ultra推向市场[10][12] - 该模块通过手机背部磁吸触点外挂自带传感器和高素质镜片的光学模组,传感器传闻为M4/3或更大画幅,使手机可转变为拥有物理光圈和焦段的“微单”[13] - 此设计旨在解决影像旗舰为内置潜望镜导致机身过厚的问题,并依靠先进的触点传输与澎湃OS底层互联,解决以往类似产品的传输延迟问题,增强手机摄影的仪式感[15] 荣耀:内置机械云台手机 - 荣耀计划在2026年8月左右量产CES 2026展示的“Robot Phone”概念机,其摄像头模组为内置机械臂云台,可弹起并旋转,自带三轴物理防抖与自动人脸追踪功能[17][19] - 该方案代表了最激进的“变身”路线,将云台结构直接集成进手机机身[17] 华为:生态整合与传感器创新 - 华为虽未明确发布独立Vlog相机,但正与DJI进行深度底层合作,可能在HarmonyOS 6中集成对大疆手持设备的“系统级控制”,旨在让手机成为所有相机的“大脑”[21][26] - 华为正在测试1:1方形传感器前摄方案,该设计针对Instagram、小红书等社交平台的方形或竖屏预览流,可实现任意握持姿势下的最大画幅无损裁切与人物居中功能[23][24]
DeepSeekEngram:把“回忆”交给查表,把算力留给推理
海通国际证券· 2026-01-27 16:50
报告行业投资评级 * 本报告为针对DeepSeek公司“Engram”技术模型的专题分析,未对特定行业或公司给出投资评级 [1] 报告的核心观点 * DeepSeek与北京大学联合发布的Engram模型,通过“条件记忆”机制将静态知识检索与复杂计算分离,在等参数和等计算量约束下,相比传统模型实现了系统性性能提升,并验证了“存算分离”的可行性,为AI基础设施需求结构带来潜在变革 [1][2][6] 技术原理与性能优势 * Engram模型的核心是引入“条件记忆”机制,将大量静态、可复用的知识组织成可扩展的内生记忆表,通过哈希查表实现O(1)时间的快速检索,从而让主干网络的计算资源更专注于深层推理与上下文理解任务 [1][2] * 在总参数量和训练计算量固定的约束下,将约20%的传统参数容量替换为条件记忆模块,能在知识密集型与复杂推理任务上取得显著效果提升,模型性能呈现先升后降的“U形”变化趋势,存在明确的最优区间 [3] * 在等参数、等FLOPs条件下,Engram-27B模型相比MoE-27B基线在多个核心评测中实现系统性提升,包括MMLU提升+3.0、BBH提升+5.0、HumanEval提升+3.0、MATH提升+2.4 [1][7] * 该模型在长上下文任务中表现尤为突出,在多项RULER子任务上显著优于基线,其设计通过将局部重复细节交给记忆查找,释放了主干网络对全局信息整合与长链条推理的专注能力 [1][4] 效率与成本效益 * Engram模型具备优异的训练与计算效率,在长上下文扩展实验中,仅消耗约82%的基线预训练计算量(41k vs 50k)即在部分困惑度指标上达到相当水平,同时在RULER任务上取得更高准确率 [4] * 该模型的可扩展性设计使其记忆容量可以低成本放大,由于每次仅检索固定数量的记忆条目,扩大记忆表规模不会带来计算成本的线性增长,为模型能力提升提供了高效益的扩展路径 [3] * 工程层面,Engram验证了“存算分离”的可行性,支持将大规模参数表卸载至主机内存,即使将规模达100B的记忆参数表卸载,其带来的额外推理开销也可控制在3%以内 [1][6] 对AI基础设施的潜在影响 * Engram的技术路径可能使AI基础设施的“瓶颈位置”从GPU的高带宽内存进一步外溢到DRAM、互联技术和存储系统,推动硬件需求结构从单纯依赖GPU显存扩展,转向“GPU算力、大容量系统内存与高效互联技术”的协同配置 [6][8] * CPU的角色将从“配角”走向“记忆与数据通路的关键节点”,通过确定性检索机制预取主机内存中的数据,与GPU计算重叠以掩盖延迟,端到端验证显示,在NVIDIA H800上将100B参数的Engram层完全卸载至主机内存,吞吐损失控制在3%以内(例如4B密集模型从9031.62 tok/s降至8858.28 tok/s) [6] * 该技术可能在中短期内强化对DRAM的需求弹性,若推动更多AI系统采用DRAM承载大规模静态记忆,可能提升单服务器的DRAM配置量与内存通道价值,同时互联带宽与分层存储体系的重要性将显著提升 [8] 对中国AI产业的意义 * Engram技术为中国大模型产业在高端显存/算力受约束的情况下,提高“每单位硬件的产出”提供了可行路径,其性能增益并非完全依赖硬件资源堆砌,而是通过架构层面的效率优化实现 [7] * 该技术为效率驱动的技术追赶提供了更清晰的路径,并有利于加速技术的规模化落地与产业扩散,特别是在国内政企私有化部署及成本敏感场景中,能以更少的GPU显存需求实现相当性能,提升部署可行性与商业化速度 [7] * DeepSeek已在GitHub同步开源相关论文与代码,大幅降低了产业界的验证、复用与二次开发门槛 [1][7]
计算机行业事件点评:再谈CPU产业链重大机遇
国联民生证券· 2026-01-21 23:23
行业投资评级 - 推荐 维持评级 [8] 报告核心观点 - DeepSeek引领算力工程化优化,CPU重要性提升 [4] - 特定系统设计下,模型参数规模不再严格受限于GPU显存容量,CPU重要性有望大幅提升 [4][5] - AI Agent时代对CPU需求有望大幅增长,CPU可能比GPU更早成为瓶颈 [7][11] - CPU作为基础设施,其需求与供给之间的矛盾或将延续,龙头在供给侧出现短缺 [6] - 新型计算场景不断涌现,CPU等通用计算的重要性有望进一步凸显,其需求有望随AI发展而持续增加 [13] 技术趋势与工程突破 - DeepSeek官方GitHub仓库更新FlashMLA代码,发现此前未公开的模型架构标识"MODEL1",共被提及31次 [4] - DeepSeek在论文中演示,成功将高达1000亿参数的Engram嵌入表完全存储在主机内存(CPU DRAM)中,而非GPU显存 [5] - 在1000亿参数规模下,通过PCIe通道异步搬运数据带来的额外推理延迟不到3% [5] - "存算分离"设计让推理速度仅下降2%,实现了千亿级别的知识容量扩展 [6] - CPU调用主存里的Engram表做哈希检索、筛选有效数据、异步传给GPU,比原来多了检索+数据转发负载的工作 [6] AI Agent发展对CPU的需求 - 根据英特尔论文,CPU上的工具处理会显著影响智能代理工作负载的执行延迟,占比最高达90.6% [7] - 智能代理AI工作负载的吞吐量受限于CPU相关因素(核心超配、缓存一致性、同步机制)和GPU相关因素 [7] - 在大批量处理场景下,CPU动态能耗占比会变得显著,达44% [7] - 进行Agent相关的强化学习时,需要海量CPU来构建各种工具和环境,CPU效能直接影响GPU利用率、训练稳定性及收敛速度 [11] - 根据IDC预测,活跃Agent数量将从2025年的约2860万,快速攀升至2030年的22.16亿 [12] - Agent年执行任务数将从2025年的440亿次增至2030年的415万亿次 [12] - 年度Token消耗将从2025年的0.0005 PetaTokens增至2030年的152,667 PetaTokens [12] CPU需求测算 - 截至2024年6月底,国内token日均消耗量30万亿,假设全年365天,则对应全年国内token消耗数为10950万亿 [12] - 2024年国内AI服务器出货量42万台 [12] - 单台AI服务器对应承担的token消耗数约为260亿,考虑到AI服务器通常配置2片CPU,则单片CPU承担的token消耗数约为130亿 [12] - 长期内,在Agent发展大趋势下,参考IDC对2030年的预测为长期水平,在保守/中性/乐观三种假设下,全球活跃Agent数量分别为11/22/33亿个 [12] - 对应全球Agent年执行任务数分别为2075000/4150000/6225000亿次 [12] - 对应全球年度Token消耗分别为76333500/152667000/229000500万亿 [12] - 对应需要CPU数量分别为586966/1173933/1760899万片 [12][14] 供给侧与产业瓶颈 - 以CPU龙头英特尔为例,Intel 10和Intel 7的产能限制,限制了其满足数据中心和客户端产品需求的能力 [6] - 由于需求持续超过供应,CPU短缺的情况可能会持续,英特尔预计短缺将在2026年第一季度达到顶峰 [6] - 英特尔不打算扩大这些节点的产能,这意味着随着需求的增长,产能限制仍将持续存在 [6] 投资建议与关注方向 - 建议重点关注CPU芯片:海光信息、禾盛新材、中国长城、龙芯中科等 [13] - 建议重点关注CPU先进晶圆制造:中芯国际等 [13] - 建议重点关注CPU相关解决方案:盛美上海、杰华特等 [13] - 建议重点关注CPU封测:通富微电等 [13] - 建议重点关注CPU配套芯片:澜起科技,聚辰股份 [13] - 建议重点关注CPU PCB:广合科技 [13] - 建议重点关注CPU电源、电感:中国长城、欧陆通、麦捷科技等 [13] - 建议重点关注鲲鹏CPU等服务器产业链:软通动力、神州数码等 [13]
DeepSeek V4诞生前夜?梁文锋署名新论文发布
华尔街见闻· 2026-01-13 19:01
文章核心观点 - DeepSeek团队提出了一种名为“Engram(条件记忆)”的全新AI模型模块,旨在将静态知识的“记忆”功能从动态“计算”中剥离,通过类似查字典的快速检索方式,释放模型的计算资源以专注于复杂推理,这代表了Transformer架构的一次重大革新 [2][3] - 该技术不仅预期能显著提升模型在知识、逻辑、数学和代码等多方面的能力,还能通过“存算分离”大幅降低对昂贵GPU显存的依赖,预示着下一代大模型(如DeepSeek V4)的发展方向 [44][52][61] 现有Transformer架构的效率瓶颈 - 研究发现,传统Transformer模型在处理静态知识(如“戴安娜王妃”)时效率低下,需要动用多达6层网络进行复杂的矩阵运算来“重建”概念,这消耗了大量本应用于高级推理的计算资源 [8][9][11] - 这种将静态知识编码在神经网络权重中的“隐式记忆”机制,迫使模型将宝贵的参数容量和网络深度浪费在简单的模式匹配上,被视为一种算力浪费 [11] Engram(条件记忆)模块的技术原理 - Engram模块的核心是一个巨大的、可扩展的嵌入表,其灵感来源于NLP领域的经典“N-gram”概念,通过哈希索引实现O(1)时间复杂度的快速知识查找,无论知识库多大,查找速度几乎不变 [15][16][18] - 该模块解决了大规模知识存储的三大挑战:通过词表归一化使有效词表缩小了23%;采用多头哈希技术提高映射鲁棒性;设计上下文感知门控,根据当前语境动态决定是否采纳检索到的静态知识,避免歧义干扰 [19][20][21][25] 模型参数分配的优化发现 - 通过大规模实验,DeepSeek团队发现了模型参数分配的“U型曲线”,当将约20%-25%的稀疏参数预算分配给Engram模块,剩余75%-80%分配给MoE(混合专家)时,模型的验证集损失达到最低点 [30] - 这一“黄金分割点”表明,对于数百亿参数的大模型,单纯增加计算单元(MoE专家)已边际效益递减,必须引入专门的静态记忆模块来实现“存算平衡” [31] Engram带来的性能提升 - 在严格控制激活参数量(3.8B)和训练数据量(262B tokens)的对比实验中,Engram-27B模型在知识类任务上显著提升:MMLU提升3.4分,CMMLU提升4.0分 [38] - 出乎意料的是,该模型在逻辑、数学和代码等推理任务上也全面超越基线:BBH(综合推理)提升5.0分,MATH(数学)提升2.4分,HumanEval(代码生成)提升3.0分,ARC-Challenge(复杂推理)提升3.7分 [39][40] 性能提升的内在机制 - 性能的全面提升归因于“有效深度”理论:Engram模块在模型早期(如第2层)就完成了静态知识检索,释放了后续网络层和注意力头,使其能全神贯注于复杂的全局推理、长程逻辑构建等高级任务 [41][42] - Engram的本质是通过“分流”记忆杂活,让模型的“大脑”专注于更高维度的思考,而非替代推理 [43] 工程与成本优势:存算分离 - Engram模块实现了彻底的“存算分离”,其查表逻辑是确定性的,允许在文本输入时即刻预知所需知识的位置 [48] - 这一特性使得庞大的Engram词表(可达千亿参数)可以被卸载到廉价的CPU内存甚至NVMe SSD上,通过异步预取技术,即使挂载100B参数的Engram表到CPU内存,相比纯GPU推理,吞吐量下降不到3% [49][50][51] - 这打破了当前AI对昂贵GPU显存(如HBM)的依赖,意味着模型的“记忆容量”可以低成本无限扩展 [52] 在长文本处理上的优势 - 在长文本处理中,Engram接管了局部信息依赖,使注意力机制能更有效地捕捉全局信息和长程关联 [55][56] - 在RULER基准测试中,Engram-27B在Multi-Query NIAH(多重针大海捞针)任务上从MoE基线的84.2分飙升至97.0分,Variable Tracking(变量追踪)从77.0分提升至89.0分 [57][58][60] 对DeepSeek V4及行业未来的展望 - 文章推测,计划于2月(春节前后)发布的DeepSeek V4很可能集成Engram技术,从而拥有更大的知识库、更强的逻辑推理和更低的推理成本 [5][61][64] - 这标志着AI行业从单纯“卷算力”、“堆参数”向架构创新转变,中国大模型公司正在重新定义下一代AI的竞赛规则 [65]
重构基石:存算分离驱动金融核心进化
金融时报· 2025-10-28 21:21
核心观点 - 金融业核心IT架构正经历从“存算一体”向“存算分离”的深刻范式迁移,这被视为未来十年金融创新的战略基石 [1] - 架构转型的目标是构建更可靠、弹性、敏捷且开放的金融核心系统,实现从“系统升级”到“数智跃迁”的跨越 [8] - 新一代数据库技术与存算分离架构结合,已在实际应用中展现出显著的性能提升,支撑业务大规模增长 [6] 传统架构挑战 - 传统“存算一体”架构面临性能瓶颈、敏捷性缺失和运维复杂性三大挑战,难以应对洪峰交易压力和快速迭代需求 [2] - 一体化扩展、副本数多、坏盘慢盘等问题导致数据库可用性降低、资源利用率低、运维复杂度高 [3] 存算分离架构价值 - 存算分离架构提供极致的可靠性,专业存储具备6个9高可靠性,可实现关键业务RPO=0及“两地三中心”等数据中心架构 [4] - 该架构支持计算和存储资源独立按需在线扩展,显著提升资源利用率并降低TCO,灵活应对业务波峰波谷 [4] - 计算与存储解耦使故障域更清晰,支持软硬件维护升级不中断业务,大大简化运维管理 [4] - 开放的生态架构能同时承载集中式与分布式数据库,为金融机构技术路线选择提供灵活性 [5] 新一代数据库技术演进 - 某农商行采用“GaussDB+OceanStor Dorado”存算分离方案后,日中交易承载能力从100万笔跃升至1500万笔,并发峰值达每秒6800笔 [6] - 新一代数据库技术关键进化包括混合负载支持(OLTP/OLAP)、向多读多写分布式架构演进、以及原生高可用部署模式 [6] 行业转型趋势 - 中国金融行业分布式数据库实例占比从2018年的3.9%增至2024年末的23.8%,国有大行和股份制银行平均占比接近50% [8] - 行业呈现稳态业务采用集中式架构、敏态业务向分布式与存算分离迁移的双模并行发展态势 [8]
太湖之畔的数字蝶变:苏州农商银行携手华为筑牢金融新核心
搜狐财经· 2025-10-15 07:26
公司背景 - 苏州农商银行于2004年由信用社改制组建,是全国第四家农商银行,并于2016年在上海证券交易所上市 [1] - 公司拥有95个网点和近两千名员工,定位为地方法人机构,扎根乡土,服务三农 [1] 行业挑战与转型动因 - 数字化浪潮下,大型银行和互联网银行渠道下沉,抬高了服务门槛,使传统农商行面临压力 [3] - 传统核心系统架构老旧,难以应对业务增长和创新需求,外购依赖推高成本,性能扩展和弹性调整能力不足 [3] - 原有IT架构无法满足线上营销和数字化风控的创新需求,制约了公司“5年再造一个苏州农商银行”的战略雄心 [3] 技术解决方案 - 公司携手华为,采用基于GaussDB数据库和OceanStor Dorado高端存储的“存算分离+共享存储”架构进行核心系统升级 [5] - “存算分离”架构将数据库的计算与存储解耦,实现硬盘资源集中化和专业化管理,提升系统弹性和性能 [5] - 该方案通过华为新一代网络技术连接数据库节点与存储池,主节点处理读写,备节点完成数据回放,并通过存储复制实现生产与同城中心的数据同步 [5] 实施成果与性能提升 - 新架构使数据库节点数量大幅减少,存储资源集中利用率提升了数倍,有效降低了总体拥有成本 [5] - 华为GaussDB与OceanStor Dorado双集群实现跨中心高可用,数据零丢失,恢复时间目标小于120秒,并具备存储加密功能 [5] - 2022年,“超级网银系统”率先实现全面自研升级,摆脱了对传统IOE的依赖 [6] 业务影响与效益 - 新核心系统支持智慧信贷秒批,过去需数天人工审核的普惠贷款如今可秒级完成授信审批 [6] - 系统具备百万级并发交易处理能力与毫秒级稳定时延,保障7x24小时不中断的业务连续性,支撑高峰期无感支付 [6] - 存算分离架构确保数据高可靠与强一致性,客户存款、理财收益可实时精准入账,为智能财富管理服务奠定基础 [7] - 存储池化共享提升了利用率,采购和管理成本显著降低,服务器数量和机房空间需求锐减,运维负担减轻,整体TCO显著降低 [7]
苏州农商行联合华为落地全国首个区域银行存算分离核心数据库样板
环球网· 2025-10-13 15:46
核心观点 - 苏州农商行与华为联合完成基于华为GaussDB数据库与OceanStor Dorado全闪存存储的“存算分离”核心系统改造,并揭牌“新一代金融数据基础设施样板点”,标志着区域银行在核心系统自主创新领域迈出关键一步[1] - 华为认为构建自主创新的核心数据库体系是掌握发展主动权的关键,正通过“GaussDB+存算分离”架构打造面向金融行业的高性能、高可靠、高安全数据库底座[3] - 苏州农商行的实践验证了数据库在高并发、强一致性场景下的成熟度,为中小银行提供了兼顾安全性、性能与成本效益的转型范本,数据库的自主创新正从“可选项”变为“必选项”[7] 技术方案与实施 - 技术方案采用华为GaussDB数据库与OceanStor Dorado全闪存存储的“存算分离”架构[1] - 实施层面采用“渐进式替代+双活容灾”策略,确保转型过程平稳安全[5] - 苏州农商行核心系统已实现GaussDB对传统商业数据库的平滑替换,采用双活部署模式[5] 性能与效益 - 苏州农商行核心系统支撑日均千万级交易量[5] - 系统性能提升超40%,故障恢复时间缩短至秒级[5] - 运维成本显著下降[5] 行业影响与可扩展性 - 此次合作标志着区域银行在核心系统自主创新领域迈出关键一步[1] - 江南农村商业银行分享了基于相同架构的同城双集群容灾实践,印证了该方案在区域银行群体中的可扩展性[7] - 华为金融数据库解决方案已在多家银行落地,覆盖核心交易、信贷管理、支付清算等关键场景[7]
一文看懂“存算一体”
虎嗅· 2025-08-15 14:52
文章核心观点 - 存算一体(Compute In Memory,CIM)通过将存储和计算融合,旨在解决传统冯·诺依曼架构的"存储墙"和"功耗墙"问题,提升计算效率和能效比 [1][12][21] - 该技术尤其适合AI等高算力需求场景,市场规模预计从2023年到2029年以154.7%的年复合增长率增长,达到306.3亿美元 [30][46][79] 技术背景与问题 - 传统冯·诺依曼架构采用存算分离模式,存储与计算独立导致数据传输瓶颈 [2][10] - AI时代数据量爆炸式增长,暴露"存储墙"(数据传输速度远低于计算速度)和"功耗墙"(数据传输能耗占比高达63.7%)问题 [11][12][17] - HBM技术通过3D封装缩短存算距离,但未根本解决分离问题 [18][20] 技术原理与优势 - 存算一体模仿人脑结构,在存储单元内直接计算,减少数据搬运次数,提升效率并降低功耗 [21][22][48] - 适用于AI矩阵乘法和乘累加运算,能效比显著提升(如PRIME方案功耗降低20倍、速度提升50倍) [28][47][48] 技术分类 - 近存计算(PNM):通过封装集成存算单元(如HBM),但仍属存算分离,适用于AI、边缘计算等场景 [36][37][39] - 存内处理(PIM):在存储晶粒中集成算力(如HBM-PIM),适用于语音识别、基因匹配等 [40][42] - 存内计算(CIM):彻底融合存算单元,消除界限,是狭义存算一体,主要服务AI计算 [43][44][46] 存储介质与实现方式 - 易失性存储器(SRAM、DRAM)和非易失性存储器(Flash、RRAM、MRAM等)均可用于存内计算 [51][53][54] - SRAM适合大算力场景(高能效比),DRAM成本低但延迟大,Flash适合小算力场景 [54] - 新型存储器如RRAM(忆阻器)研究热度高,但面临工艺良率和可靠性挑战 [55][57][58] - 模拟存内计算能效高但误差大,适用于低精度场景(如可穿戴设备);数字存内计算精度高但功耗大,适用于云端AI [60][61] 应用场景 - AI相关领域:自然语言处理、图神经网络、智能决策等,对算力效率和能耗要求高 [62][65] - AIoT智能物联网:碎片化市场注重成本、功耗和开发难度,存算一体具备优势 [63][64] - 云端AI计算:替代GPU部分场景,存算一体ASIC芯片在能效和固定任务处理上潜力巨大 [65][66][67] - 延伸应用:感存算一体、类脑计算等新兴领域 [68] 发展历程与现状 - 概念最早于1969年提出,但受限于技术未落地 [23][24] - 2010年后关键技术突破(如忆阻器实现布尔逻辑),2016年PRIME方案验证能效提升 [26][27][28] - 2017年多家巨头推出原型系统,引发学术界和产业界热潮 [29] - 2023年清华大学研发出全球首颗全系统集成忆阻器存算一体芯片 [32] - 当前进入高速发展期,传统芯片巨头和创业企业(如苹芯科技、Mythic等)积极布局 [30][31][33] 市场规模与增长 - 预计2029年全球存算一体技术市场规模达到306.3亿美元,年复合增长率154.7% [79] - 技术正从理论研究走向产业落地,未来几年将涌现更多创新和企业 [33][80]
每日市场观察-20250804
财达证券· 2025-08-04 11:12
市场表现 - 8月1日沪深两市成交额1.60万亿元,较上个交易日缩量3377亿元[2] - 上证主力资金净流出23.81亿元,深证主力资金净流入26.75亿元[4] - 主力资金流入前三板块为光伏设备、中药、物流,流出前三为半导体、元件、地面兵装[4] 政策动态 - 国家发改委已下达8000亿元"两重"建设项目清单和7350亿元中央预算内投资[5] - 第三批690亿元支持消费品以旧换新的超长期特别国债资金已下达,第四批690亿元将于10月下达[5] - 上海计划到2025年底新建大型以上算力中心不少于5个,智算规模达100 EFLOPS以上[11] 行业动态 - 香港《稳定币条例草案》8月1日生效,要求稳定币发行人必须申领牌照并符合储备资产管理规定[9][10] - 工信部印发《2025年度多晶硅行业专项节能监察任务清单》,要求9月30日前报送监察结果[8] 资金动向 - 第二批12只浮费基金中3只定档8月4日发行,建信医疗创新募集上限30亿元[12] - 保险系私募证券投资基金增至6只,由3家保险系私募基金公司管理[13]
上海:至2025年底新建成大型以上算力中心不少于5个 全市算力中心智算规模争取达到100 EFLOPS(FP16)以上
每日经济新闻· 2025-08-01 11:01
算力基础设施布局 - 上海市将持续优化算力中心布局 加快已获得能耗指标的算力中心建设 [1] - 至2025年底 新建成的大型以上算力中心不少于5个 [1] - 全市算力中心智算规模目标达到100EFLOPS(FP16)以上 [1] 边缘计算节点建设 - 在产业园区 科研院所 高校等完成边缘智算节点建设案例不少于5个 [1] 电力协同规划 - 拟建算力中心应加强与本市电力规划布局协同 [1] - 算力中心规划设计方案应具备可落地的外市电接入方案 [1] - 算力中心建设应与外市电接入工程同步规划 同步开工 同步验收 [1] 存储技术升级 - 至2025年底 算力中心内先进存储容量占比达到30%以上 [1] - 探索存储和算力资源城域百公里级部署的"存算分离"模式 [1] - 推进存储资源与智能计算多云容器平台的相互兼容与高效对接 [1]