系统工程
搜索文档
AI Makes AI!工业富联2026年度科技创新峰会圆满举行
新浪财经· 2026-01-22 18:09
峰会概况 - 工业富联于2026年1月16日在深圳举办年度科技创新峰会,主题为“AI Makes AI”,聚焦人工智能与智能制造的深度融合,探讨产业技术演进、应用落地与生态协同等核心议题 [1][21] - 峰会汇聚了三十余位AI与智能制造领域的重量级发言嘉宾,吸引了来自产业界、学术界及投资界的近五百位嘉宾出席 [2][21] 产业趋势与竞争本质 - 随着AI模型规模持续扩大,AI训练功耗几乎每年都在翻倍,算力密度越来越高,导致单位空间内的能耗和散热挑战日益凸显,这背后牵动的是整个产业链的全面升级 [2][21] - 产业竞争的本质正在发生根本变化:从比拼单一技术,转向比拼谁能更好地进行系统整合,未来的竞争是整个产业体系的共同进化 [2][21] - AI基础设施正从过去以“单点算力”为主的模式,迈向以“系统工程”为核心的新阶段,算力、算法与应用之间形成相互驱动、持续演进的闭环体系 [3][22] - 未来竞争优势在于实现跨层级、跨场景的垂直整合,建立从底层基础设施到上层应用的完整架构 [3][22] 核心技术驱动力:集成电路与人工智能 - 集成电路是仪器、装备、设施的“根”技术,而AI是驱动科学发现与技术进步的“本”力量,两者是支撑现代科技发展与科技自立自强的根本 [4][23] - 摩尔定律面临极限挑战,转折点临近,集成电路正向集成系统方向发展,这为我国半导体技术与产业实现变道超车提供了历史机遇 [4][23] - 人工智能的未来是类人智能甚至人类智能,其发展需要物理学、生命科学、哲学等多学科的交叉融合 [4][23] AI基础设施(智算中心)建设 - AI基础设施建设是一场全产业链的深度协同作战,不仅仅是技术革命,更是全产业链共同向上生长、实现价值重构的契机 [5][24] - 业界围绕万卡级集群网络拓扑演进、液冷与风冷转型成本测算、技术标准化等议题展开深度探讨 [13][30] - 思科阐述了超大规模算力集群架构的技术创新,台达则分享了机柜级电源散热的全链条解决方案 [11][28] AI应用落地与生产力革新 - 智能体已成为解决企业AI应用落地“最后一公里”的关键,通过结合知识引擎、工作流与自主规划能力,能有效嵌入生产流程,实现稳定高效的辅助处理与决策 [6][25] - 企业智能体的未来发展将更依赖于场景驱动、数据协同与生态共建 [6][25] - AI价值正从数字世界向物理世界延伸,制造业将迎来以数字员工和工业大脑为标志的深度变革 [8][26] - 具身智能(物理智能)的真正实现,需要上千万、上亿台机器人在各行业广泛应用,以形成“应用-数据-训练”的正向闭环,谁能更早构建这一闭环,谁就能在发展中占据关键位置 [7][26] 智能制造与智慧工厂 - 在智慧工厂领域,分析指出AI产业链资本开支与核心部件的供需态势 [15][32] - 具身智能方面,分享了人形机器人从硬件模块化到软件自主化的演进路径 [15][32] - 介绍了L4-L5级能效智能体的技术突破,通过物理AI模型实现工业控制的自主优化与闭环运行 [15][32] - 业界探讨了从工业4.0到5.0的本质变革、人机协同的管理挑战与机遇,以及效率与永续发展的双赢路径 [17][34]
一个被英伟达掩盖的、中美AI最残酷的物理真相
虎嗅APP· 2026-01-21 18:01
文章核心观点 - 中美在AI发展的关键瓶颈上处境迥异:美国面临严重的“缺电”危机,而中国在电力供应上拥有巨大冗余,但中国因芯片制程落后导致能效低下,AI算力的实际能源成本可能更高 [4] - AI竞争已从单纯的“算力鸿沟”扩展到“能源与计算的共生”层面,电力、电网设计和计算效率正成为AI时代的核心国家能力 [27][29] - 中美正采取不同的战略路径:美国试图通过分布式能源和核能技术“绕过”陈旧的电网;中国则利用其强大的宏观能源调度和特高压输电技术,以系统级方案对冲芯片能效的不足 [30][32][37] - 未来全球AI基础设施市场可能呈现两种模式:美国提供尖端芯片,但配套能源设施是挑战;中国可能提供包含能源、电网、数据中心在内的“交钥匙”整体解决方案,在“一带一路”等市场具备竞争力 [41][42] 中美AI电力供应对比 - **中国电力冗余巨大**:到2030年,中国AI发展所需电力增量仅相当于过去五年新增发电能力的1%到5% [6];过去五年为AI时代储备了近乎20倍于实际需求的电力冗余 [9] - **美国面临严重缺电**:到2030年,美国AI发展所需电力增量将占据其过去五年新增发电能力的50%到70% [6];麦肯锡预测美国数据中心电力需求到2030年将翻两番,达到80~100吉瓦 [7] - **基建能力差距悬殊**:2023年,中国新增发电装机容量达429吉瓦,是美国(51吉瓦)的8倍以上 [9][10] 中国AI的“效率黑洞”与成本挑战 - **芯片能效存在巨大鸿沟**:受制程封锁影响,中国主流国产AI芯片停留在7nm或更成熟工艺,而美国顶级芯片(如Nvidia B200/GB200)已采用4nm/3nm工艺,导致能效比(Performance per Watt)差距巨大 [20] - **能源成本可能反超**:据Weijin Research模拟,国产芯片系统消耗的能源可能比英伟达系统高出100%甚至更多 [21];即便中国工业用电成本(假设0.08美元/千瓦时)比美国(0.12美元/千瓦时)低33%,但因能效落后,最终每生成一个Token的电力成本可能是美国的140% [22][23] - **散热带来基础设施挑战**:为应对高功率密度(从10kW到100kW以上),数据中心需进行液冷改造,对运营能力提出极高要求 [25] 中美应对策略与未来竞争格局 - **美国策略:分布式突围与核能复兴** - 科技巨头正试图“绕过”陈旧大电网,投资小型模块化反应堆(SMRs)、核聚变、地热等分布式能源技术 [30][31][35] - **中国策略:系统级碾压与特高压输送** - 利用世界领先的特高压(UHV)输电技术,将西部过剩新能源输送到东部算力中心或建设“东数西算”基地 [32] - 通过强大的宏观能源调度能力对冲微观芯片能效不足,并发展“绿色能源+数字基建”的全栈式方案,例如配套储能电池、光伏电站等 [36][37][43] - **未来市场模式展望** - **美国模式**:提供尖端芯片,但用户需自行解决电力供应、电网扩容、液冷设施等复杂基建问题 [41] - **中国模式**:可能提供“交钥匙”解决方案,打包出售AI服务器、液冷数据中心、特高压输电网络乃至配套的绿色能源设施,在基建薄弱国家市场具备潜在竞争力 [41][42]
“暴力计算”模式触及极限,算力进入系统工程时代
每日经济新闻· 2025-12-22 20:12
行业共识转向:从全栈自研到系统协同 - 算力产业竞争焦点正从单点芯片性能转向整体系统效率,从全栈路线转向多方协同的系统工程[1] - 这一转向是大模型时代真实工程约束下的必然结果,万亿级参数模型使依赖单一芯片性能提升的“暴力计算”模式触及物理与效率极限[1] 单点性能突破失效与系统效率挑战 - 大模型对算力的要求已非单一芯片算力,而是整个系统能否长期、稳定、高效运行[2] - 随着模型规模向万亿级参数演进,挑战延伸至互连带宽、存储层级、供电制冷、系统稳定性等系统性指标[2] - 传统集群在节点规模扩大后,通信开销往往占用30%~50%的资源,导致算力无法被充分利用[3] - 即便芯片性能提升,若互连协议不统一、系统软件不兼容、运维可靠性不足,整体算力效率仍会被稀释[3] - 行业共识正转向通过超高速总线将不同GPU焊接形成高密度计算单元的超节点和超集群模式[3] 全栈自研模式的弊端与生态挑战 - 全栈自研模式导致厂商“内卷”加剧,各家想做全套却在每一层都难以做到极致,形成多个封闭的小生态[5] - 生态割裂给用户带来巨大困扰,面对众多芯片路线,用户需投入高额成本进行重复适配和优化,极大降低开发效率[5] - 算法和算子往往锚定特定生态,移植过程短则数月,浪费时间和人才资源[5] - 相比英伟达积累数年的生态,国产算力在硬件与软件的无缝衔接上仍有差距,生态丰富度是发展瓶颈[6] - 国产芯片种类的快速增加给用户带来新负担,每种芯片都需要单独适配、优化和维护,性能不能直接转化为用户实际收益[3] 开放计算成为新路径及其挑战 - 开放计算意味着从“一家通吃”转向多厂商各司其职、相互协作、共赢,核心在于分层解耦[7] - 开放要求厂商让渡一部分控制权和利润空间,并建立可执行的协调机制,难点在于组织和协作分配而非技术[7] - 执行层面需对产业链分层解耦,各环节由多家厂商并行推进,并通过统一标准重新紧耦合,这对平台方提出更高要求[8] - 需要有具备公信力的平台承担协调角色,确保制度与资源保障,在供需对接、标准制定和冲突调解中发挥作用[8] - 开放架构为AI产业进化提供了一种路径选择,若继续各自为战,开放架构之外的生态容易跟不上时代[8] - 由场景驱动的协同赋能正在降低不同行业适配AI的成本,例如垂直小模型在本地工作站部署的需求激增让硬件与应用实现咬合[8] 未来竞争格局 - 紧耦合的封闭体系与开放协同的体系,在国内丰富的应用场景中仍将长期并存[9] - 在大模型和超集群成为常态后,能否构建高效、可协同、可持续演进的系统,将成为决定厂商生存空间的关键变量[9]
SemiAnalysis深度解读TPU--谷歌(GOOG.US,GOOGL.US)冲击“英伟达(NVDA.US)帝国”
智通财经网· 2025-11-29 17:37
行业竞争格局变化 - 谷歌TPU的全面商业化使英伟达在AI算力市场的定价权出现松动,其高达75%的毛利率面临挑战[1] - 谷歌从云服务商转型为直接向外部出售高性能芯片与系统的商用芯片供应商,Anthropic的采购标志着这一战略转变[1][4] - 谷歌TPU已获得包括Anthropic、Meta、SSI、xAI等顶级AI实验室的采购意向,客户名单不断扩大[4][29] 具体交易与成本优势 - Anthropic确认将部署超过100万颗TPU,交易总价值巨大,其中首批40万颗TPUv7由博通直接出售给Anthropic,价值约100亿美元,剩余60万颗通过谷歌云租赁,涉及剩余履约义务高达420亿美元[4][42] - 谷歌TPUv7在总拥有成本上对英伟达构成显著优势,从谷歌内部视角看,TPUv7服务器的TCO比英伟达GB200服务器低约44%,即便加上利润,外部客户通过GCP使用TPU的TCO仍比购买GB200低约30%[7][64][67] - 具体成本数据显示,GB200 NVL72每小时每GPU总成本为2.28美元,而TPU v7外部版本为1.60美元,TPU在每FP8 PFLOP的TCO上优势明显[66] 技术系统与架构优势 - 谷歌通过极致的系统设计弥补单芯片理论算力的不足,TPUv7采用3D Torus拓扑结构和自研光互连技术,单个集群可扩展至9,216颗芯片,远超英伟达常见集群规模[12][15][17] - 光路交换机技术允许动态重构网络拓扑,实现毫秒级故障绕过和高可用性,同时降低功耗和延迟[15][17][101] - 系统级优势使得TPU在实际模型训练中实现更高的算力利用率,有效FLOPs可能超过英伟达Blackwell[69][72] 软件生态战略调整 - 谷歌积极拥抱开源,软件团队KPI从服务内部转向支持外部,全力支持PyTorch Native在TPU上运行,降低开发者迁移门槛[19][20][141] - 通过XLA编译器直接对接PyTorch的Eager Execution模式,并向vLLM、SGLang等开源推理框架贡献代码,提升TPU在开源生态中的兼容性[20][145][146] - 软件生态的开放旨在填平英伟达的CUDA护城河,为外部客户提供更平滑的过渡体验[22][142] 金融与商业模式创新 - 谷歌创新性地提供资产负债表外的信贷支持,承诺为中间商的数据中心租金兜底,解决了AI基础设施建设的期限错配问题,打通了加密货币矿工与AI算力需求之间的堵点[9][43][46] - 这种“超大规模厂商兜底”的金融工具成为Neocloud市场的新融资标准模板,推动了行业增长[46][47] - 在定价策略上,谷歌通过平衡自身盈利和客户竞争力,即使作为外部供应商,其TPU交易的息税前利润率仍优于许多大型GPU云交易[79][80]
记者手记:细致与创新 中国航天的腾飞密码
新华社· 2025-08-01 20:47
长征八号甲运载火箭首飞 - 长征八号甲运载火箭在海南商业航天发射场成功首飞 这是该火箭与发射场的首次合作 [2] - 任务面临"新发射场、新工位、新地面设备、新搭档"等多重挑战 [2] - 长征八号系列运载火箭发展历程:2020年首飞成功 2022年新构型首飞 2024年首次执行探月轨道发射任务 2025年长征八号甲首飞 [2] 航天任务管理 - 试验队采用三级规程编制体系:试验任务级、测试项目级、具体操作级 [4] - 规程细致程度相比传统型号提高5到10倍 每个系统规程达1000-2000页 [4] - 开展远程测试网建设 实现测试数据实时回传北京进行联合判读 [5] - 优化测试流程:将手动流程改为自动测试流程 减少人为操作风险 [5] 质量控制措施 - 在关键操作前进行多媒体记录 并由专人确认后再继续 [5] - 伺服机构增加"连锁条件" 必须在控制器正常加电后才能启动 [5] - 规程审查流程:发射场前征求专家意见 到达后进一步审查优化 [4] 航天技术创新 - 采用创新方法应对新环境 强调95%协调加5%工程的系统理念 [5] - 远程测试网建设为未来高密度发射奠定基础 可减少前方人员规模 [5] - 动力系统规程编写极为细致 多次用完打印机墨 [4]
昇腾“算力突围战”:让中国算力训练出全球一流模型
第一财经· 2025-06-18 20:16
华为芯片研发进展 - 公司采用"数学补物理、非摩尔补摩尔、群计算补单芯片"的系统工程方法弥补单芯片工艺落后问题,实现实用化效果 [1][4] - 通过算法优化、硬件堆叠与生态协同的创新路径突破算力瓶颈,形成中国特色的解决方案 [2][13] - 创始人提出"不去想困难,干就完了"的务实研发态度 [3] 系统工程方法论 - 借鉴钱学森系统工程思想,将研究对象视为整体进行综合管理,通过整体优化弥补单点落后 [4] - 组建跨部门"大杂烩"团队,在散热/供电/高速/高密等工程领域实现极限突破 [5][6] - 86个实验室形成技术支柱,通过跨部门作战实现"根深叶茂"的技术协同效应 [7] 算力技术突破 - 开发CloudMatrix 384超节点技术,实现384张昇腾卡集群,单体规模全球最大 [11] - 超节点技术将机器间通信延迟从2微秒压缩至200纳秒,整体效能逼近理论极值 [13] - 采用自适应流水掩盖策略等技术,使万卡集群预训练MFU从30%提升至41% [9][10] 大模型研发成果 - 盘古72B大模型以720亿参数实现千亿级性能,获国内千亿内模型并列首位 [9] - 推出7180亿参数的盘古Ultra MoE模型,全流程在昇腾平台训练 [9] - 实验室数据显示MoE大模型训练MFU达45%,超越行业30%平均水平 [10] 架构创新 - 突破冯诺依曼架构限制,创新提出"全对等高速互联架构" [15] - 通过光通信技术将互联带宽提升15倍,实现资源池化与超级并行 [14] - 芯片堆叠技术积累十几项核心专利,完成2D到3D架构跃迁 [14] 生态建设 - 逐步开放底层技术,支持DeepSeek MoE/千问/Llama等开源模型 [18] - 核心算子从十万级缩减至几百个,快速补齐高质量基础算子 [18] - 推动算法主导权向垂直领域专家转移,加速AI行业落地 [20] 行业影响 - 推动算力竞争从"芯片制程竞赛"转向"系统架构革命" [13] - 终结全球算力焦虑,使算力从"奢侈品"变为"自来水" [11] - 证明国产算力能训练全球一流大模型,缩小与海外代际差距 [11][13]
用“系统工程”打破算力封锁 昇腾的另类突围路径
每日经济新闻· 2025-06-17 13:56
昇腾算力技术突破 - 昇腾384超节点已开始发货,这是目前业界规模最大的超节点,由384颗昇腾AI芯片组成集群,提供高达300 PFLOPs的密集BF16算力,性能接近英伟达GB200 NVL72系统的两倍 [1] - 华为通过系统工程方法优化计算、内存、通信调度,实现算力超越,内部组织算力会战整合各领域专家能力 [1] - 昇腾超节点采用全对等高速互联架构,打破传统以CPU为中心的冯诺依曼架构,扩展总线至整机柜甚至跨机柜 [7] 国产算力发展背景 - 美国对华芯片出口管制持续加码,影响英伟达约55亿美元的季度费用 [2] - 昇腾算力战略意义远超商业价值,正从被迫替代转向主动选择 [3][5] - 昇腾计算产业已发展为包括芯片、硬件、CANN、AI计算框架等全产业链体系 [4] 技术架构创新 - 采用自有标准"全对等互联架构",统一通信协议提升有效载荷,打造基于中国标准的解决方案 [8] - 引入光通信技术,使用3168根光纤和6912个400G光模块实现跨机架纵向扩展 [8] - 解决散热难题,采用液冷散热方案和高效风冷方案,研发微结构材料提升热传导效率 [8] 软件生态建设 - 华为CANN平台快速补齐高质量基础算子,核心算子从数万个收敛至数百个 [10] - 提供Day0迁移和一键部署工具链,支持客户采用混合策略逐步迁移至昇腾平台 [10] - 组建"小灵巧突击队"深入客户现场提供技术支持 [6] 能耗与性能平衡 - 昇腾384超节点功耗达英伟达NVL72的4.1倍,每FLOP功耗高出2.5倍 [11] - 国内电力供应相对充裕,无需受限于能耗约束 [11] - 将持续通过技术进步改进能源消耗,构筑AI时代核心竞争力 [11] 行业影响与意义 - 昇腾384超节点打破了国产算力"无法训练大模型"的质疑 [12] - 构建了英伟达之外的可靠第二选择 [12] - 开辟了不同于西方的创新路径,通过系统工程实现规模算力领先 [12]