Workflow
DeepSeek开源大模型
icon
搜索文档
专访丨中国在人工智能领域展现出大规模部署的卓越能力——访瑞士智能工厂负责人戈雷基
新华社· 2026-02-11 12:50
全球人工智能发展格局与角色定位 - 在当今AI发展格局中,中国扮演着与美国和欧洲不同但又互补的角色 [1] - 美国专注于专有基础模型,凭借其软件平台和规模优势,美国企业将继续主导许多商业数字平台 [2] - 欧洲的竞争优势则体现在其卓越的工程技术和对可持续发展的重视,其AI通常部署在复杂的工业领域和对安全要求高的环境中 [2] 中国人工智能领域的核心优势 - 中国展现出了将人工智能(AI)技术从原型转化为大规模部署的卓越能力 [1] - 中国依托强大的产业生态系统、快速的迭代周期和大规模部署,致力于成为机器人强国 [1] - 中国在执行和系统集成方面具有独特优势,通过将硬件、制造和AI技术紧密结合实现能力转化 [1] - 中国专注于成本效益高的开源模型研发,例如中国的DeepSeek开源大模型以更低的计算成本实现与顶级模型媲美的性能 [1] 欧洲人工智能发展的挑战与特点 - 欧洲在早期创新方面表现出色,但在AI的商业化和大规模部署等方面面临挑战 [2] - 欧洲需要一个更完善的框架,才能将数字创新转化为大规模的市场成功 [2] - 在自主机器人、制造自动化等先进技术领域,瑞士的学术界、初创企业和成熟企业之间开展着密切合作,瑞士智能工厂就是这类创新集群之一 [1] 人工智能技术发展趋势 - AI的发展正经历重大转型:从早先的分析型AI,发展到近年来融入日常生活的生成式AI [2] - 在不久的将来,人们将越来越多地体验到能够自主行动、遵循目标并随时间调整策略的AI智能体 [2] - 具身智能将成为下一个重要的前沿领域,其中包括人形机器人、四足机器人、无人机等多种形式的能够在物理世界中行动的智能系统 [2]
DeepSeek开源大模型记忆模块,梁文锋署名新论文,下一代稀疏模型提前剧透
36氪· 2026-01-13 15:14
核心观点 - DeepSeek团队提出了一种名为“条件记忆”(Conditional Memory)的全新建模范式,并给出了具体实现方案Engram模块,旨在为Transformer架构补上原生的知识查找机制 [1] - 该研究认为,语言建模包含需要深度动态计算的组合推理和检索静态知识两种不同性质的任务,而现有Transformer缺乏高效的原生知识查找机制,导致计算资源浪费 [4] - 通过将部分稀疏参数预算从混合专家(MoE)重新分配给Engram记忆模块,可以在固定计算预算下显著提升模型性能,形成一条U型最优曲线 [15][17] - 实验表明,在27B参数规模下,采用Engram的模型在知识、通用推理、代码和数学等多个领域的基准测试中均显著超越同规模纯MoE模型,甚至有效“加深”了网络推理深度 [21][23] - Engram的确定性寻址机制支持存储与计算的解耦,允许将海量参数表卸载至CPU内存,在推理时带来可忽略的额外开销,实现了硬件感知的高效设计 [27][29][31] 技术原理与设计 - **核心问题识别**:现有Transformer模型在识别如“Diana, Princess of Wales”这类实体时,需要消耗多达6层注意力进行逐层特征拼凑,本质是用昂贵的运行时计算来重建静态查找表,浪费了可用于高层推理的网络深度 [4][5] - **解决方案**:回归查表思想,将经典的N-gram方法嵌入Transformer,通过哈希查找以O(1)时间复杂度捕获局部依赖和静态知识 [6] - **关键创新 - Engram模块**:在Transformer层间插入Engram模块,对当前token及前几个token组成的N-gram进行哈希查找,从一个巨大的嵌入表中直接取出对应向量 [6] - **解决传统N-gram痛点**: - 通过压缩tokenizer,将语义相同但形式不同的token归为一类,使128k词表的有效规模减少23% [11] - 使用多个哈希函数将N-gram映射到固定大小的嵌入表,解决了存储爆炸问题,并通过多哈希头减少查找冲突 [11] - **上下文感知门控**:引入门控机制,用当前隐藏状态作为Query来评估检索到的记忆与上下文的匹配度,自动屏蔽噪声,实现静态模式调用与动态计算的灵活切换 [8] 实验与性能分析 - **稀疏性分配研究**:固定总参数量和每token激活参数量,在MoE专家和Engram记忆间重新分配参数预算,实验得出一条U型曲线 [15] - 纯MoE并非最优,将约20%到25%的稀疏参数预算分给Engram时,模型验证集loss最低 [17] - 在100亿参数规模下,最优配置比纯MoE基线的loss降低0.0139 [17] - 最优分配点在不同计算预算下稳定在ρ=75%到80%之间(即20%-25%预算给Engram) [17] - **27B规模模型对比**:在激活参数量均为38亿、训练token均为2620亿的条件下进行对比 [18] - **Engram-27B**:总参26.7B,分配5.7B参数给Engram记忆模块 [18][22] - **Engram-40B**:总参39.5B,Engram记忆参数增至18.5B [18][22] - **性能提升结果**:与纯MoE-27B模型相比,Engram-27B在多项基准测试中取得显著提升 [21][22] - 知识密集型任务:MMLU提升3分(从57.4到60.4),CMMLU提升4.0分(从57.9到61.9),TriviaQA提升1.9分(从48.8到50.7) [21] - 通用推理任务:BBH大幅提升5.0分(从50.9到55.9),ARC-Challenge提升3.7分(从70.1到73.8),DROP提升3.3分(从55.7到59.0) [21] - 代码数学任务:HumanEval提升3.0分(从37.8到40.8),MATH提升2.4分(从28.3到30.7),GSM8K提升2.2分(从58.4到60.6) [21] - **性能提升原因分析**:Engram让模型早期层无需做特征组合的“苦力活”,从而“加深”了网络有效深度 [23] - KL散度曲线显示Engram模型预测收敛更快 [23] - CKA相似度分析表明,Engram-27B第5层的表征与MoE基线第12层的表征最相似 [23] - **扩展性与长上下文**:Engram-40B进一步增加记忆参数后,大部分任务性能持续提升,且训练后期损失仍在下降,说明记忆容量未饱和 [25] - 长上下文场景提升显著:在RULER测试集上,Multi-Query NIAH准确率从84.2跃升至97.0,Variable Tracking从77.0提升至89.0 [25][26] 工程实现与效率 - **训练阶段**:巨大的词表参数(高达100B)需要拆分到多个GPU上,并通过All-to-All通信机制传递记忆片段 [27] - **推理优化**:利用Engram查找索引的确定性,可将巨大的嵌入表卸载到CPU内存,并通过PCIe异步预取实现通信与计算的重叠 [29] - 在H800 GPU上测试,为一个4B密集模型增加1000亿参数的CPU卸载Engram表,吞吐量从9031 token/s降至8858 token/s,额外开销在3%以内 [29] - 8B密集模型增加后,吞吐量从6315 token/s降至6140 token/s,开销同样低于3% [29] - **缓存策略**:利用N-gram访问遵循Zipfian分布的特点,可设计多级缓存(高频放GPU显存、中频放CPU内存、长尾放NVMe SSD),进一步压缩有效延迟 [30]
DeepSeek开源大模型记忆模块!梁文锋署名新论文,下一代稀疏模型提前剧透
量子位· 2026-01-13 08:39
核心观点 - DeepSeek团队提出了一种名为“条件记忆”的全新建模范式,并给出了具体实现方案Engram模块,旨在为Transformer架构补上原生的知识查找机制 [1][5] - 该技术将条件记忆视为下一代稀疏模型不可或缺的建模原语 [2] - 通过将部分稀疏参数预算分配给Engram记忆模块,可以在固定计算量下显著提升模型性能,甚至在通用推理和代码数学领域带来超预期的提升 [5][34][47] 技术原理与设计 - **核心问题**:现有Transformer架构缺乏原生知识查找机制,识别静态实体(如“Diana, Princess of Wales”)需要消耗多层注意力进行低效的特征拼凑,浪费了本可用于高层推理的网络深度 [8][9][10][11][13] - **解决方案**:回归查表思想,将经典的N-gram方法嵌入Transformer,通过哈希查找以O(1)时间复杂度直接获取固定实体和短语的对应向量 [6][7][14][15] - **关键技术**: - 引入上下文感知的门控机制,用当前隐藏状态作为Query来评估检索到的记忆与上下文的匹配度,自动屏蔽噪声 [17][18] - 通过压缩tokenizer,将语义相同但形式不同的token归为一类,使128k词表的有效规模减少23% [25] - 使用多个哈希函数将N-gram映射到固定大小的embedding表,解决了传统N-gram模型的存储爆炸和语义重复问题 [24][26] 性能优化与实验发现 - **稀疏性分配**:在固定总参数量和每token激活参数量的前提下,研究MoE专家与Engram记忆之间的参数分配,结果呈现U型曲线 [30][31][32] - 纯MoE并非最优,将约20%到25%的稀疏参数预算分配给Engram记忆时,模型验证集loss达到最低 [34] - 在100亿参数规模下,最优配置比纯MoE基线的loss降低了0.0139 [35] - 最优分配点在不同计算预算下稳定在ρ=75%到80%之间 [36] - **大规模验证**:在270亿参数规模下对比纯MoE模型与加入Engram的混合模型,所有模型激活参数量均为38亿,训练token为2620亿 [39][40] - Engram-27B模型将5.7B稀疏参数分配给Engram记忆模块 [43] - Engram-40B模型进一步将Engram记忆参数增至18.5B,总参数达39.5B [44] - **性能提升**: - **语言建模**:在验证集上,Engram-27B的loss为1.622,优于MoE-27B的1.634和Dense-4B的1.768 [48] - **知识推理**:在多项基准测试中显著提升,例如MMLU准确率从57.4提升至60.4,C-Eval从58.0提升至62.7 [48] - **通用推理与代码数学**:提升幅度超预期,BBH提升5.0分,ARC-Challenge提升3.7分,HumanEval提升3.0分,MATH提升2.4分 [47][49] - **长上下文**:在RULER测试集上,Multi-Query NIAH准确率从84.2跃升至97.0,Variable Tracking从77.0提升至89.0 [55][56] - **效率提升原理**:Engram让模型早期层无需进行特征组合的“苦力活”,预测收敛速度更快。Engram-27B第5层的表征与MoE基线第12层的表征最相似,相当于“加深”了网络有效深度,释放的层数用于更复杂推理 [50][51] 工程实现与硬件效率 - **训练优化**:百亿级参数的词表通过拆分到多个GPU并使用All-to-All通信机制进行处理 [59] - **推理优化**:利用Engram确定性寻址的特点,可将巨大的嵌入表卸载至CPU内存,并通过PCIe异步预取使通信与GPU计算重叠,额外延迟开销控制在3%以内 [60][62][63] - 实验将1000亿参数的Engram表放在CPU内存,在H800上运行推理,4B密集模型吞吐量从9031 token/s降至8858 token/s,8B密集模型从6315 token/s降至6140 token/s [63][64] - **缓存设计**:利用N-gram访问的Zipfian分布特性,可设计多级缓存(高频放GPU显存、中频放CPU内存、长尾放NVMe SSD)以进一步压缩延迟 [65] - **设计原则**:Engram将“硬件感知效率”确立为核心设计原则,其存储与计算解耦的特性支持海量参数表的高效卸载 [66]
AI大模型产业“风起云涌”,从“商业兑现”走向“资本闭环”
新华财经· 2025-12-29 13:48
文章核心观点 - 2025年是中国人工智能产业从技术验证迈向规模化商业应用的关键一年,行业竞争从“百模大战”转向生态化与价值重估,并加速向硬件端侧延伸,形成“技术验证-商业兑现-资本闭环”的成熟周期 [1][3][10] 国内大模型产业竞争格局 - “百模大战”基本结束,马太效应快速形成,资源向头部企业聚拢 [3] - DeepSeek在1月发布推理大模型DeepSeek-R1,其成本优势降低了企业AI应用门槛,推动行业竞争转向“模型+场景+算力”生态化 [3] - 字节跳动豆包大模型凭借优秀性能与庞大生态持续领跑C端市场,年末推出的“豆包手机”展现了AI Agent的潜力 [3] - 腾讯元宝在2月凭借接入“满血版”DeepSeek重回主流视野,虽在算力与研发投入上被诟病保守,但稳步推进微信等生态内应用,年末以“天价薪酬”引入OpenAI前研究员显示其野心 [3] - 阿里在3月推动夸克转型大模型入口,11月发布个人AI助手“千问App”与夸克AI眼镜,蚂蚁集团落地全模态产品“灵光”与AI健康助手“蚂蚁阿福” [4] - 百度在4月宣布文心一言全面免费,其C端付费尝试受挫,为企业端和政务端提供商业化路径思考,但面临传统搜索模式被颠覆及C端市场份额流失的挑战 [4] - 科大讯飞星火大模型、智谱GLM大模型等在各自细分市场取得技术与应用突破 [4] - 国内头部大模型在全球测评中排名不俗,量子位智库报告指出中国AI正从“参与者”转向“领导者” [4] - 中国工程院外籍院士张亚勤认为,中国大模型已跻身全球第一梯队 [5] 大模型商业化与应用落地 - 行业进入以规模化商业应用为标志的2.0阶段,AI发展将重塑经济结构、社会形态和生活方式 [6] - AI Agent结合大模型的“超级大脑”与自动化“敏捷双手”,打通关键节点,破解数据孤岛与流程割裂痛点 [7] - 大模型已成为职场人日常工具,例如辅助财务分析、代码梳理与bug定位,显著提升工作效率、缩短研发周期 [6] - SensorTower报告显示,健康保健、工作教育、生活服务和金融服务等领域,均有超过200款应用新增或内置了AI相关功能 [7] - 大模型开始在各行各业中应用,成为贡献真实生产力的“智能员工” [7] AI硬件与端侧应用发展 - 行业巨头向“大模型+硬件”布局,抢占下一代人机交互入口,年内推出豆包手机、夸克AI眼镜、理想Livis AI眼镜等产品 [8] - 智谱于年末开源具备“Phone Use”能力的AI Agent模型AutoGLM,能稳定完成外卖点单、机票预订等长达数十步的复杂操作 [8][10] - 传统终端厂商华为、小米、vivo、OPPO均在端侧AI上积极布局,小米下半年高价挖角“AI天才少女”罗福莉引发关注 [8] - AI硬件融资活跃,2025年内国内AI眼镜产业链发生超30起融资事件,总额超过40亿元人民币 [8] - IDC数据显示,2025年上半年全球智能眼镜市场出货量达406.5万台,同比增长64.2%,其中中国出货量突破100万台,占全球26.6%份额 [8] - 瑞银预测全球智能眼镜市场规模将在2030年达420亿美元,2040年升至1170亿美元 [8] - 上海财经大学教授胡延平认为,AI眼镜产品力与成熟度达新水准,将是2026年最具成长性的硬件产品 [9] - IDC预计,2026年中国新一代AI手机出货量将达1.47亿台,同比增长31.6%,占整体市场53% [9] - 字节跳动联合中兴努比亚推出的“豆包AI手机”在“自动化”上表现惊人,虽因安全与隐私问题遭主流App“拉黑”,但技术路线受认可,后续正与vivo、联想、传音等厂商推进合作 [9] 资本市场动态与行业里程碑 - 两家国内大模型厂商(智谱与MiniMax)在12月先后通过港交所聆讯,预计最快2026年初登陆港股,标志着行业从商业兑现走向资本闭环 [2][10] - 截至12月29日,A股同花顺人工智能板块年内累计涨幅超过35% [11]
AI时代高品质全光算力专线研究报告
中国信通院· 2025-09-30 20:54
报告行业投资评级 - 报告未明确给出具体的行业投资评级 [2][4][5][6][7][8][9][11][13][14][15][16][17][18][19][20][21][22][23][24][25][26][27][28][29][30][31][32][33][34][35][36][37][38][39][40][41][42][43][44][45][46][47][48][49][50][51][52][53][54][55][56][57][58][59][60][61][62][63][64][65][66][67][68][69][70][71][72][73][74][75][76][77][78][79][80][81][82][83][84][85][86][87][88][89][90][91][92][93][94][95][96][97][98][99][100][101][102][103][104][105][106][107][108][109][110][111][112][113][114][115][116][117][118][119][120][121][122] 报告核心观点 - 开源大模型(如Llama、QWen、DeepSeek、ChatGLM)的普及极大降低了AI应用创新门槛和成本,成为驱动行业智算应用发展的核心引擎 [7][14] - 行业智算应用(金融、政务、教育、医疗、公安、文娱、工业及大模型企业)的快速发展对网络连接提出差异化需求,需要OTN专线作为关键承载底座提供大带宽、低时延、高可靠保障 [7][14][15][16] - 面向AI时代,高品质全光算力专线需具备智能感知、业务确定性体验、网络弹性按需、智能运维、光算协同五大特征,以精准匹配智算应用需求 [7][90][91][92][93] - 光网络需实现从“不感知业务类型”到“精准匹配业务需求”的演进,根据业务流量、流向等特征提供实时按需的差异化连接,并为分布式智算协同等场景提供高质量连接保证 [14][15][16] 行业智算应用差异化专线服务需求 金融智算应用 - AI网点助手:带宽需求5Mbps,网络单向时延要求小于5ms,可用率不低于99.99% [22][23][27] - 数字人大堂经理:带宽需求200Mbps,网络单向时延要求小于2.5ms,可用率不低于99.99% [22][23][27] - AI理财双录质检:带宽需求150Mbps,网络单向时延要求小于5ms,可用率不低于99.99% [23][24][27] - AI风控反诈系统:带宽需求5Mbps,网络单向时延要求小于5ms,可用率不低于99.99% [24][25][27] 政务智算应用 - 智能化政务客服:带宽需求小于5Mbps,网络时延控制在500ms内,可用率不低于99.99% [31][33][37] - 智能化交通管理:带宽需求约200Mbps(单个路口),骨干网络带宽需达100Gbps,网络时延小于20ms,可用率不低于99.99% [33][34][37] - 智能化环境管控:带宽需求200Kbps~20Mbps,骨干网络带宽需达10Gbps以上,网络时延要求秒级,可用率不低于99.99% [34][35][37] 教育智算应用 - 智慧课堂:带宽需求100~500Mbps,网络单向时延需控制在10~25ms(AR/VR教学要求小于10ms) [43][44][45] - 教学科研智能化:带宽需求1~10Gbps,网络单向时延小于50ms [43][44][45] - 智能监考:带宽需求约4Gbps,网络单向时延需控制在5ms以内,可用率不低于99.99% [44][45] 医疗智算应用 - AI辅助阅片:带宽需求10Gbps,网络单向时延需小于10ms,可用率不低于99.9% [49][50][53] - AI辅助诊疗:带宽需求500Mbps~1Gbps,网络单向时延需小于5ms,可用率不低于99.9% [49][51][53] - 医联体AI资源共享:带宽需求500Mbps~1Gbps,网络单向时延需小于10ms,可用率不低于99.99% [51][52][53] 公安智算应用 - AI视频监控:带宽需求200Mbps,网络单向时延小于5ms,可用率不低于99.99% [57][58][60] - 警务AI智能体:带宽需求20Mbps,实时场景网络时延小于25ms(非实时可放宽至50ms),可用率不低于99.99% [57][58][60] 文娱智算应用 - 云网吧:带宽需求10Gbps(80台电脑),网络单向时延需小于1ms,可用率需达到99.999% [66][67][72] - 实景三维云渲染:带宽需求1Gbps,网络单向时延需小于1ms,可用率不低于99.99% [67][68][72] - 影视制作:带宽需求5Gbps(日常),可弹性调整至10Gbps,网络单向时延需小于1ms,可用率不低于99.99% [70][71][72] 工业智算应用 - 设计/仿真业务:带宽需求500Mbps~1Gbps,网络单向时延小于2ms,可用率不低于99.99% [77][78][81] - AI智慧工厂:带宽需求小于3Gbps,网络单向时延小于1ms,可用率不低于99.999% [79][80][81] AI大模型智算应用 - 分布式训练(模型拆分):带宽需求100Gbps,网络单向时延不大于10ms,可用率不低于99.99% [86][87][89] - 分布式训练(存算分离):带宽需求约10Gbps,网络单向时延不大于2ms,可用率不低于99.99% [83][86][89] - 分布式推理(模型拆分):带宽需求约10Gbps,网络单向时延不大于2ms,可用率不低于99.99% [84][86][89] - 分布式推理(RAG协同):带宽需求百Mbps级,网络单向时延不大于10ms,可用率不低于99.99% [84][86][89] 高品质算力专线五大特征 智能感知 - 需构筑光缆、网络、业务三层智能感知能力,实现对业务特征识别,匹配光缆资源和光层网络资源,实现差异化保障 [90][92][94] 业务确定性体验 - 根据不同应用提供实时按需的差异化连接,具备波长/ODU/fgOTN/OSU大中小颗粒的转发能力,SLA分级维度从带宽为主升级为时延分级、使用时长分级、传输质量分级、可用率分级、安全分级等 [90][93][103][104] 网络弹性按需 - 管道使用从静态分配到灵活拆建,从以年为周期占用到按小时级、天级分时复用,光网络需具备“波长级敏捷建链能力”以及“弹性带宽调整能力” [90][93][107][109] 智能运维 - 基于AI大模型、智能体、数字孪生等技术,形成网络智能评估规划、意图驱动业务发放和按需调速、主动品质保障和智能故障诊断等全生命周期智能运维能力 [90][93][110][112][113][114][115][116] 光算协同 - 通过物理层、协议层、管控层进行光网络和算力资源协同,实现计算和光网络协同感知,算网统一编排调度,基于业务需求最优算路等能力 [90][93][118][119][121][122] 高品质算力专线关键技术 智能感知关键技术 - 光缆感知:通过升级OTDR能力、引入DAS技术、构建时间/频率/空间模型等,实现光纤质量、同路由风险和外部环境威胁等感知能力 [94][96][97][98] - 网络感知:升级设备感知能力和模型分析能力,精准识别和预测网络特征和状态,包括端口、波长、ODU等带宽资源及SLA信息 [94][99][100] - 业务感知:精准识别和预测业务特征,按照应用需求度量用户体验,基于业务特征进行差异化保障,实现带宽随需调整 [94][100][101] 确定性体验关键技术 - 提供硬管道隔离保障基础带宽,通过fgOTN、OSU、ODUk及波长等不同带宽颗粒度硬隔离管道技术,实现物理隔离传输 [93][102][103] - 基于多维SLA分级提供差异化业务保障,SLA维度包括带宽、时长、传输质量、可用率、安全、时延等,对应提供钻石级、金级、银级、任务式不同等级管道 [93][103][104][105] - 基于SLA的可视、分级保障和调优技术,管控系统提供业务SLA可视化能力,并支持基于SLA的业务调优提升客户应用体验 [93][105][106] 弹性调度关键技术 - 波长级敏捷建链:实现分钟级波长业务自动发放、自动调测、自动释放,包括光电跨层协同算路、光电交叉同步创建、光路参数自动调测 [93][107][108][109] - OSU/fgOTN技术:实现灵活带宽接入及弹性带宽调整,连接数提升到百万级别,满足海量业务差异化带宽需求 [93][109] 智能运维关键技术 - 业务层基于意图实现端到端编排调度,通过自然语言意图模型实现业务需求自动理解,并驱动管控层完成业务配置 [93][110][113][114] - 管控层实现智能评估、业务配置、品质保障和智能故障诊断等智能特性,基于实时网络资源孪生进行网络智能评估,并通过智能路由算法自动推荐备选路由方案 [93][110][113][114][115] - 设备层实现网络多维感知和算力内生,从纤缆、网络、业务三个维度进行感知能力提升,并新增算力单板增强硬件算力 [93][110][116] 光算协同关键技术 - 物理层协同:通过实时感知光链路状态、计算节点资源使用情况,为上层协议和管控提供准确的数据支持 [93][118][119][121] - 协议层协同:通过特定的协议和机制(如DCN和DCI设备协议协同、控制协议扩展等),实现高效光算协同和拥塞控制 [93][118][121][122]
工业和信息化部:推动构建上合组织工业和信息通信业合作发展新格局
搜狐财经· 2025-08-28 21:50
中国工业和信息化经济表现 - 上半年规模以上工业增加值同比增长6.4% [3] - 制造业增加值占GDP比重达到25.7% [3] - 制造业投资同比增长7.5% [3] - 规模以上制造业企业利润同比增长5.4% [3] 电信业务发展 - 电信业务收入累计完成9055亿元 [3] - 电信业务总量同比增长9.3% [3] - 5G基站总数达到455万个 [3] - 5G移动电话用户达到11.18亿户 用户普及率超79% [3] - 行政村通5G比例超过90% [3] 软件和数字产业增长 - 软件业务收入累计完成70585亿元 [3] - 软件业务利润同比增长12% [3] - 软件业务出口同比增长5.3% [3] - 前5个月数字产业完成业务收入同比增长9.3% 增速较去年同期提高3.4个百分点 [3] 上合组织经贸合作 - 上合组织成员国贸易总额超过8万亿美元 占世界贸易总额的1/4 [4] - 2024年7月上合组织成员国领导人商定2025年为"可持续发展年" [4] 数字和信息通信技术合作成果 - 上合组织成员国数字和信息通信技术部长会议机制实现提质升级 [7] - 通过《上海合作组织成员国数字化转型行动计划》提出7项具体行动 [7] - 明确数字和信息通信领域优先合作方向 [7] - 中国—上合组织大数据合作中心累计培训830余人次 [7] - 发布《中国一上海合作组织数字技术工具箱》 [7] - 通过《上海合作组织工业领域常设工作组工作条例》和《上海合作组织成员国工业部长会议框架下会展活动组织条例》 [7] 国际合作与开放措施 - 工业和信息化部与24个国家、地区及区域性组织开展机制性磋商交流 [10] - 全面取消制造业领域外资准入限制 [10] - 已有40家外资企业获得增值电信业务试点批复 [9] - 外商投资电信企业累计超过2600家 较去年同期增长27% [9] 未来合作方向 - 数字和信息通信领域:加强政策交流 深化务实合作 促进开源共建共享 赋能产业升级 共享数字红利 [10] - 工业领域:深化能源工业合作 共推工业转型升级 搭建创新合作平台 促进普惠包容发展 [10]
人工智能专题:2025-2026年中国智算一体机行业研究报告
搜狐财经· 2025-05-21 18:52
智算一体机行业概述 - 智算一体机是融合高性能AI芯片、服务器硬件与算法框架的集成化设备,具备开箱即用、软硬一体化、安全保障等特点,可显著降低算力使用门槛 [1] - 全球人工智能市场规模预计2025年达36885亿美元,中国云计算、服务器出货量持续增长,叠加政策驱动为智算一体机提供市场基础 [1] - 行业呈现从"云优先"向"端边协同"转型趋势,算力下沉需求推动智算一体机成为分布式节点核心设备 [2] 技术特点与优势 - 智算一体机结构包括算力、软件平台、大模型等板块,具备开箱即用、经济适用性和强大安全保障 [26] - 五大核心特点:开箱即用、高性能计算、软硬一体化、灵活扩展、安全保障 [29] - 私有化部署优势包括数据安全、高稳定性、模型定制化、简化部署和经济效应 [31] - 相比传统云计算,智算一体机具有更高数据安全性、更低网络依赖性、更优长期经济性和更好定制化 [35] 市场驱动因素 - 全球人工智能芯片市场规模预计从2019年110亿美元增长至2025年726亿美元 [36] - 2015-2025年全球人工智能市场规模复合增长率达36.1%,2025年预计36885亿美元 [37] - 政策驱动如《生成式人工智能服务管理暂行办法》提供支撑 [1] - DeepSeek开源大模型训练成本仅为GPT-4的5%,加速行业普及 [1] 产业链与典型应用 - 上游涵盖芯片、存储等硬件供应商,中游为解决方案提供商,下游应用于政务、金融、医疗等领域 [2] - 典型企业案例:天融信适配昇腾架构提供安全部署,华为支持DeepSeek全系列模型,新华三实现大模型单机训推一体服务 [2] - 政务领域已在北上深等地接入DeepSeek,医疗领域如哈医大一院优化诊疗流程,金融领域助力智能风控与量化交易 [2] 行业发展趋势 - AI处理重心从云端转向边缘,利好智算一体机发展 [13] - 数据安全合规要求提升和实时性需求增加推动算力下沉 [9] - 形成"模型+算力+场景"闭环,推动AI算力从云端向边缘端下沉 [1] - 尽管面临技术成熟度不足、初期投资高等挑战,但在数据安全、实时性处理方面优势显著 [2]