异构计算
搜索文档
英伟达140亿入股美满科技 智算竞争进入生态合纵时代
中国经营报· 2026-04-10 17:29
英伟达的战略投资与生态构建 - AI芯片巨头英伟达以20亿美元战略投资入股美满科技,并基于NVLink Fusion平台展开合作,旨在强化其AI工厂与AI-RAN生态 [2] - 近一年来,英伟达进行了至少7笔金额在10亿美元及以上的战略投资/核心资产收购,涉及半导体、芯片设计、光通信、EDA等领域,总投资额巨大,例如对英特尔投资50亿美元,收购Groq核心资产价值200亿美元 [2] - 这些投资并非单纯财务投资,而是为了引导和滋养智算中心生态,将其做大做强并朝向英伟达期望的方向发展 [3] 美满科技的公司概况与核心能力 - 美满科技由周秀文等人于1995年创立,初期以降低硬盘驱动器芯片功耗约40%的技术创新赢得市场,现已转型为定制AI芯片和光通信领域的重要玩家 [4] - 公司是面向超大规模云服务提供商的领先定制ASIC设计商,例如与亚马逊合作开发了Trainium系列AI芯片 [3][4] - 公司在各项网络标准中处于领先地位,并在高性能模拟、光DSP、硅光子技术及定制芯片领域拥有优势 [3][5] 双方合作的具体内容与战略意图 - 合作基于英伟达的NVLink Fusion机架级平台,美满科技将提供定制化XPU及兼容的横向扩展网络方案,英伟达则提供Vera CPU、ConnectX网卡、BlueField DPU、NVLink、Spectrum-X交换机等核心组件 [5] - 合作旨在助力客户构建半定制化、可扩展且高效的AI基础设施,实现与英伟达GPU、DPU、交换机等产品的无缝集成,而无需重构整个软件或架构 [5][6] - 此举标志着英伟达AI战略的关键进化:从销售GPU转向确保客户即使使用定制ASIC也离不开英伟达的NVLink生态,通过“收编”定制芯片厂商来巩固自身在AI基础设施中的核心地位 [7] 美满科技的业务转型与财务表现 - 公司已成功从传统芯片厂商转型为AI基础设施核心供应商,数据中心业务收入占比从2023财年的40.7%飙升至2025财年的72.4% [9] - 2026财年,公司数据中心业务收入达61.0亿美元,占总收入的74.4%,AI定制ASIC与光模块DSP芯片是核心增长引擎 [8] - 数据中心业务在2025财年同比暴涨87%,增长动力源于针对AI推理的定制ASIC完成Meta、微软、谷歌等头部客户验证并进入量产,以及高端光模块DSP出货量翻倍 [9][10] 行业影响与未来展望 - 英伟达通过资本与技术绑定产业链关键玩家,构建兼容异构计算的AI工厂生态,预示着半导体产业正从垂直整合走向水平分工的生态协同时代 [1][10] - 双方还将借助英伟达Aerial AI-RAN推动全球电信网络向AI基础设施转型,共同打造先进的光互连与硅光子解决方案 [7] - 摩根士丹利评论认为,基于NVLink Fusion的每一个定制芯片部署,都将为英伟达带来Vera CPU、网络组件等平台收入,形成双赢的生态闭环 [7]
海光信息(688041):公司简评报告:DCU加速出货,“双芯”构筑差异化竞争优势
东海证券· 2026-04-10 13:13
投资评级 - 买入(维持) [1] 核心观点 - 海光信息2025年及2026年第一季度业绩实现显著增长,主要得益于CPU与DCU产品在行业需求旺盛背景下的加速出货 [5] - 公司“CPU+DCU”的“双芯”战略构筑了差异化竞争优势,符合AI Agent时代对异构计算资源协同的需求 [5] - 公司是国内唯一同时具备x86高端通用CPU和“类CUDA”DCU并实现大规模商用的厂商,在性能、生态、自主可控等方面优势显著 [5] - 随着AI加速发展,CPU与算力芯片边界加速融合,公司有望充分受益于复杂逻辑调度与大规模并行计算的协同需求 [5] - 公司发布HSL系统总线互联协议,旨在降低异构集成的复杂度和开发门槛,结合其闭环生态,有望进一步筑牢竞争壁垒 [5] - 基于对高端处理器国产化需求旺盛及公司竞争优势的看好,报告上调了未来三年的营收与净利润预测,并维持“买入”评级 [5] 财务业绩总结 - **2025年全年业绩**:实现营业收入143.77亿元,同比增长56.92%;实现归母净利润25.45亿元,同比增长31.79%;综合毛利率为57.83%,同比下降5.89个百分点 [5] - **2026年第一季度业绩**:实现营业收入40.34亿元,同比增长68.06%,环比下降17.46%;实现归母净利润6.87亿元,同比增长35.82%,环比增长17.77%;综合毛利率为55.60%,同比下降5.59个百分点,环比上升2.18个百分点 [5] - **分红情况**:2025年度拟每10股派发现金红利1.5元(含税),合计3.48亿元,加上中期分红2.09亿元,全年现金分红总额为5.57亿元(含税) [5] - **产销率**:2025年公司高端处理器产销率为98.84%,同比上升23.49个百分点 [5] 业务与产品进展 - **CPU业务**:凭借x86架构的优异生态,在国家信创战略深化推动下,在党政及金融、电信、互联网、交通等关键行业渗透率持续上升 [5] - **DCU业务**:在AI算力需求大幅上升的背景下加速出货,全面适配国内外主流大模型,已在20多个行业、300多个场景实现广泛落地,服务国家税务总局、海关总署、国有银行、三大运营商等头部客户 [5] - **产品迭代**:深算三号已投入市场,深算四号研发进展顺利,覆盖AI训推、科学计算、金融风控等多个核心场景 [5] - **客户合作**:与国内头部互联网厂商建立了深度合作关系,通过定制化服务满足客户差异化需求 [5] 竞争优势与战略 - **“双芯”协同优势**:公司是国内唯一同时具备x86高端通用CPU和“类CUDA”DCU的全栈国密、双芯协同、大规模实现商用的芯片企业 [5] - **生态优势**:依托光合组织形成了“芯片-整机-应用”的闭环生态 [5] - **技术互联**:2025年9月发布HSL系统总线互联协议,实现xPU、IO、OS、OEM等厂商与海光CPU的“紧耦合”高速互联,旨在打通产业链全栈壁垒 [5] 未来业绩预测 - **营业收入预测**:预计2026、2027、2028年营收分别为237.44亿元、359.14亿元、493.63亿元,同比增长率分别为65.15%、51.25%、37.45% [5][7] - **归母净利润预测**:预计2026、2027、2028年归母净利润分别为46.62亿元、70.63亿元、98.24亿元,同比增长率分别为83.20%、51.50%、39.08% [5][7] - **每股收益预测**:预计2026、2027、2028年每股收益分别为2.01元、3.04元、4.23元 [7] - **估值水平**:以2026年4月9日收盘价227.00元计算,当前市值对应2026、2027、2028年预测市盈率分别为113倍、75倍、54倍 [5][7]
芯片龙头,反击英伟达
半导体行业观察· 2026-04-09 09:18
英特尔与SambaNova联合推出的异构推理架构 - 英特尔和SambaNova宣布推出已投入生产的异构推理架构,该架构将推理过程拆分为多个阶段,分别由不同的芯片处理:使用AI加速器或GPU进行预填充,使用SambaNova的SN50可重构数据流单元进行解码和生成令牌,并使用英特尔Xeon 6处理器来运行代理工具和进行系统编排[1] - 该平台旨在满足各种工作负载需求,从英伟达和其他新兴厂商手中夺取市场份额,计划于2026年下半年面向企业、云运营商和自主AI项目推出[1][2] - 该架构与英伟达Rubin平台思路类似,但关键区别在于新平台采用英特尔Xeon 6处理器,而非竞争对手的产品[1] 架构性能与优势对比 - 根据对比表格,该联合方案在部署万亿参数模型时,仅需256颗SambaNova SN50解码芯片,而使用英伟达Grog 3 LPU则需要2000颗以上芯片[2] - 该方案可接入现有数据中心,每个机柜仅需30千瓦功率,而英伟达方案需要新建液冷数据中心设施,功率超过1兆瓦[2] - 在硬件适应变化的高端工作负载方面,该方案利用率高,而英伟达方案利用率低[2] - 根据SambaNova内部数据,与基于Arm的服务器CPU相比,Xeon 6的LLVM编译速度提升超过50%;与竞争对手的x86处理器相比,其在向量数据库工作负载方面的性能提升高达70%[2] - 该架构的最大优势之一是SambaNova SN50和基于Xeon的服务器可直接兼容30千瓦的数据中心,覆盖了绝大多数企业数据中心的功率需求[2] AI工作负载演变与CPU重要性提升 - 智能体AI工作负载正在重塑数据中心计算需求,将性能瓶颈从以GPU为中心的推理转移到CPU密集型的编排和工作流管理[3] - 新兴的智能体AI系统将推理转变为分布式、多步骤过程,涉及规划、工具调用、验证和迭代推理,这种架构变化带来了巨大的CPU需求,使CPU容量成为维持系统吞吐量和成本效益的关键因素[3] - 在代理工作流中,CPU执行编排任务,如控制流管理、分支逻辑、重试以及多个代理和外部服务之间的协调,每次调用都可能产生额外的CPU、内存和I/O开销[5] - 当CPU资源不足时,GPU会处于空闲状态,等待预处理、工具执行或验证步骤完成,导致昂贵的加速器硬件利用率低下[5] 基准测试揭示的CPU瓶颈 - 在一个模拟金融异常检测的工作流程中,CPU操作占据了总运行时间的大部分,仅数据增强一项就比基于GPU的模型推理步骤耗时更长[5] - 在AI辅助代码生成的基准测试中,尽管使用了高核心数系统,基于CPU的沙盒执行仍然比GPU代码生成耗时略长,CPU阶段涉及子进程管理、测试执行和结果分析[6] - 这些发现表明,在智能体系统中,验证循环的时间可以与推理时间相媲美甚至超过推理时间,如果不相应地扩展CPU性能,仅提高GPU性能并不能提高整体吞吐量[6] 基础设施规模建议与影响 - 实验得出的基础设施规模建议强调保持CPU与GPU的平衡比例,目前的指导原则是CPU与GPU的比例应在1:1到1.4:1之间,相当于每个GPU大约需要86到120个CPU核心[6] - 较小的模型由于生成令牌的速度更快,因此需要额外的CPU容量来保持GPU的满负荷运行,而更强大的CPU则可以降低所需的比例[6] - 未来的高性能GPU可能会进一步增加对CPU的需求,随着编排复杂性的增加,可能会推高CPU与GPU的比例[6] - CPU资源配置不足会导致编排延迟、工具执行缓慢以及验证循环变慢,从而降低GPU利用率并增加运营成本,扩展CPU资源可确保数据准备、协调和验证的持续进行,使GPU能够以最高效率运行[7] - 随着智能体AI的发展,CPU将在推理基础设施中扮演日益重要的角色,部署智能体的组织必须重新考虑传统的以GPU为中心的扩展策略,转而设计能够提供充足CPU容量的均衡架构[7]
硅谷前沿访谈:CUDA之父复盘英伟达20年护城河,揭开万亿算力帝国的底牌
AI科技大本营· 2026-04-07 18:51
公司战略与平台演进 - 公司的核心优势已从单一的芯片领先,演进为一整套围绕训练、推理与AI工厂组织起来的生态级平台能力,其护城河在于将芯片、系统、软件和开发者拧成统一生态平台的底层逻辑[3] - 公司同时推进七款芯片和五种机架架构,目标是以前所未有的规模服务AI工厂,完成训练与推理,以推动下一代智能体AI市场[5] - 公司通过每年发布一个新平台来保持创新节奏,这种快速迭代能力是应对AI领域高速演进的关键[25] 新产品与架构整合 - 正式将LPU纳入体系,其基于SRAM可实现极快浮点计算,但单独运行万亿参数模型需要几十个机架,在成本和基础设施效率上无法支撑大规模部署[5] - 通过将GPU与LPU优势整合到同一系统,让GPU负责注意力计算,LPU负责专家模型部分的矩阵计算,使得原本需要几十个LPU机架的工作仅需两个机架即可覆盖[6] - LPU主要服务于下一代智能体的工作负载,包括万亿参数模型、几十万Token级上下文以及每秒千Token级别的服务速度,而聊天机器人、图像生成等大部分市场需求仍由成熟平台Vera Rubin承担[6] - 推出Vera CPU,强调其兼具强单核性能与多核满性能运行能力,以承担AI智能体时代的工具调用、代码编译等任务,使GPU能调度CPU共同交付完整的AI体验,公司计划将其作为独立CPU且仅提供一种SKU推向市场[7] - 通过共封装光学技术,将Spectrum-6 CPO模块与NVLink结合,显著提升带宽与功耗效率,使得在单个机架内构建由72颗GPU协同工作的“巨型GPU”系统成为可能,未来计划将NVLink扩展规模提升至1152颗GPU[31][32][33] 软件生态与CUDA成功之道 - CUDA成功的关键在于没有重新发明编程语言,而是建立在广泛使用的C语言之上并做最小必要扩展,降低了开发者学习门槛[8] - 保持向后兼容性是CUDA的基石,从GeForce 8800到Vera Rubin,确保开发者的代码在每一代新硬件上都能沿指数曲线变得更快,即使CUDA 1.0的代码在Vera Rubin上也有百万倍的性能提升[9] - 如今的CUDA已发展成一个庞大的库和生态平台,拥有超过1000个CUDA-X库和模型,涵盖从电子结构理论、SQL查询、向量搜索到量子计算模拟等多个领域,其中许多库来自开发者社区[10] - 公司内部软件工程师数量已远超硬件工程师,软件与内核工程师与芯片设计团队被组织在同一体系内协同工作,确保从芯片到整个软件栈的同步优化与迭代[17] - AI编码正在加速CUDA的采用,公司内部已有部分CUDA内核由AI工具生成,AI Agent也深度参与CUDA-X库的调用与开发,显著提升了开发效率[18][19] 开放平台与开发者策略 - 公司的目标是为开发者打造开放平台以提升其工作效率,而非追求“主导地位”,开发者可根据需求选择从底层CUDA编程、调用库到使用预训练模型等不同切入点[12][13] - 平台保持高度开放性,开发者无需锁定整套方案,可以只购买部分组件,甚至让智能体工作负载运行在别家CPU上,公司也开放了NVLink技术,允许其他CPU或XPU集成[13][14] - 公司不公开GPU指令集,对外提供的是CUDA-X软件栈,这使得优化工作可以从最底层的芯片、内核一直延伸到整个软件栈,实现真正的软硬件协同设计[15][16] - 对于LPU,公司明确最终目标是开放其编程环境,但第一代重点是与前沿AI实验室合作支持标杆模型,未来将通过CUDA或更通用的方式实现可编程性[20] 系统集成与供应链 - 将三种不同芯片整合的最大挑战在于制造和供应链,涉及CoWoS封装、内存封装以及最终的系统级集成工程[25] - 实现AI工厂大规模部署依赖全球供应链与制造能力的协同,公司已建立包括液冷连接器、NVLink连接器、冷板等在内的完整零部件生态系统[29] - 系统工程是关键,通过复用NVL72等已建立起的供应链体系、制造流程和认证标准,使得新推出的LPX机架和Vera Rubin机架在外观和基础设施要求上保持一致,便于客户组合与集成[30] - 公司已成功将超级计算机的工程方法扩展到吉瓦级数据中心规模,目前每月出货的数据中心GPU总功耗达数个吉瓦[29] 行业竞争与创新格局 - 在推理领域,公司认为无法依靠单一芯片取胜,需要LPU、GPU、CPU、NVLink、Spectrum、ConnectX、BlueField等七款芯片协同工作,才能实现高性能、高吞吐以及理想的每Token成本,从而经济高效地大规模服务新一代智能体模型[23] - 行业创新无处不在,公司的角色是吸收各领域的最佳想法并将其推向市场,以实现更高的性能、每瓦特性能及更具优势的Token成本,然后将其规模化[24] - 面对AI工作负载专业化带来的基础设施异构化趋势,公司需要在专用化与提供可编程平台之间寻找平衡,保持芯片的开放性与可重配置性,是模型和软件得以持续优化、探索不同计算模式的基础[34]
AMD苏姿丰:没有万能芯片
半导体芯闻· 2026-03-04 18:23
文章核心观点 - AI基础设施的下一个阶段是异构计算,没有单一芯片能处理所有工作负载,计算需求正变得多样化,需要针对不同工作负载优化的芯片[1][3][4] - AMD通过与OpenAI、Meta等大型科技公司建立深度、特殊的合作伙伴关系(包括巨额算力供应和基于业绩的认股权证),来加速交易、构建生态系统并把握AI基础设施领域的巨大机会[2] - 行业对AI基础设施的投资是持续且超前的,被视为对生产力和智力的投资,尽管处于早期部署阶段,但已能看到AI带来回报的迹象[1][7] AI芯片合作模式与战略 - AMD与OpenAI的合作涉及巨额算力供应及OpenAI低价购买约10%的AMD股份[2] - AMD与Meta的算力合作规模达6吉瓦,交易价值可能高达上千亿美元,同时AMD向Meta发行了基于业绩表现的认股权证以加速交易和生态系统构建[2] - 此类深度合作模式(算力+股权/权证绑定)目前仅适用于OpenAI和Meta这类特别合作伙伴[2] AI计算架构趋势 - AI基础设施正变得更加复杂和异构,需要处理训练、推理、大模型、中等模型等多种工作负载,因此计算多样性至关重要[4] - 行业趋势是结合标准产品与为特定工作负载定制的芯片(包括ASIC),以实现性能与能耗效率的最优化[4] - 不仅AMD,英伟达也可能通过获取Groq技术授权和招募人才,为OpenAI等客户推出融合不同架构的定制芯片[5] 供应链与市场动态 - AI所用CPU供应紧张,原因是市场规模远超3至6个月前的预测,供应链需要时间满足需求,AMD预计在2026年和2027年扩大供应能力[8] - 内存(DDR4、DDR5)涨价正在影响系统性定价,预计给个人电脑市场带来更大成本压力,下半年市场波动可能趋于温和但需持续观察[8] - 超大型科技企业对AI所需的CPU计算需求预测不足,导致供应短缺[8] 行业竞争与展望 - 中国市场竞争激烈,需肯定中国芯片供应商所取得的成就[8] - 企业客户对AI基础设施的投资具有长期连续性,被视为对生产力和智力的超前投资,目前仍处于早期部署阶段[7] - 每周、每月都能看到新的企业AI应用案例,展示了AI可以带来的回报,该过程涉及整个计算基础架构而不仅仅是GPU[7]
AMD苏姿丰称AI基础设施没有“万能芯片”,并回应内存涨价
第一财经· 2026-03-04 10:01
AI芯片行业合作与商业模式创新 - AMD与OpenAI及Meta建立了深度战略合作,合作模式包括巨额算力供应协议及股权绑定 例如与OpenAI的协议涉及后者低价购买约10%的AMD股份,与Meta的算力合作规模达6吉瓦,交易价值可能高达上千亿美元,同时AMD向Meta发行了基于业绩表现的认股权证 [5] - 公司认为这种深度合作伙伴关系非常重要,发行认股权证可以加速交易中的购买行为并加速生态系统构建,认股权证的权益兑现基于业绩,激励双方共同达成目标 [5][6] - 公司表示与OpenAI及Meta的合作是“十分特别的”,暗示此类深度绑定模式可能并非对所有客户开放 [6] AI基础设施发展趋势:异构计算与定制化 - AI计算所需的算力类型正在多样化,无论是训练还是推理、大模型还是中等模型,都需要不同类型的计算,AI基础设施将进入异构时代 [6] - 公司认为没有单一的芯片能把所有事情做到最好,从最大的训练集群到具体的推理工作负载,都需要连续的能力,效率来自性能与能耗比,需考虑每瓦特算力的价格 [6] - 计算需求中总会有ASIC的一席之地,公司希望兼顾灵活性与针对特定工作负载的定制能力,预计未来会有针对不同工作负载优化的多种芯片被应用 [7] - 行业趋势显示定制化需求上升,竞争对手英伟达据传也将为OpenAI等客户推出融合Groq技术的定制芯片 [7] 市场需求、供应链与竞争格局 - 公司表示与OpenAI的合作关系良好,双方正在积极规划第一个吉瓦的算力安装,MI450芯片是双方共同验证的,交易结构未变 [9] - AI基础设施投资可视为对生产力和智力的投资,企业正在超前投资并考虑回报,目前处于部署早期阶段,每周每月都能看到新的企业使用案例展示AI的回报 [9][10] - AI所用CPU供应紧张,原因是市场规模比3至6个月前的预测更大,供应链需要时间满足需求,即便是超大型科技企业对AI所需的CPU计算需求也预测不足 [10] - 公司称与供应链合作处于有利地位,能满足很大比例的需求,并将在2026年和2027年扩大供应能力 [10] - 用于消费级产品的DDR4、DDR5内存涨价正在影响系统性定价,预计将给个人电脑市场带来更大成本压力,预计2024年下半年市场波动可能更温和,但需持续观察内存市场变化 [10] - 公司肯定了中国市场竞争的激烈程度以及中国芯片供应商所取得的成就 [10]
黄海清:建议组建中国异构计算软件生态联盟,建立中国的类CUDA系统
新浪财经· 2026-02-02 00:12
行业政策与生态建设 - 上海市政协委员、上海熠知电子科技有限公司董事长黄海清博士,在上海市“两会”召开前夕提出建议,呼吁上海政府推进建立中国版的“异构算力”统一软件联盟生态 [1] - 该建议旨在打造一个类似于英伟达的中国版编程共享软件平台,并认为这一部署对整个产业而言非常重要 [1]
海光信息:系统总线互联协议(HSL)+助力国产AI产业算力协同与生态升级
经济观察网· 2026-01-30 17:12
公司定位与战略 - 公司是国产高端通用计算领域的领军企业,秉持开放兼容的发展策略,在安全性与稳定性方面有深厚技术沉淀 [1] - 公司长期致力于为国内计算产业提供核心技术支撑,业务布局深度契合国产算力产业自主可控、高效协同的发展方向 [1] - 公司聚焦高端计算芯片及相关技术研发,紧跟人工智能等新兴应用对算力的需求升级,积极探索突破异构计算体系下的互联瓶颈 [1] 行业背景与挑战 - 人工智能大模型等应用导致算力需求指数级增长,传统单一形态的处理器架构已难以满足多样化场景的性能需求 [2] - CPU、GPU、NPU等各类芯片组成的异构计算体系成为行业主流,但不同部件的高效协同是行业痛点 [2] - 中国工程院院士指出,CPU、GPU、加速卡存储与网络模块的协同效率直接决定异构系统整体性能的释放,统一高效的互联总线协议是解决问题的关键 [2] 核心技术突破:HSL协议 - 公司自主研发了系统总线互联协议,并于2025年9月在北京举办的研讨会上,面向GPU、IO、OS、OEM等产业全栈正式开放该协议 [2] - HSL协议具备高带宽、低延迟、全局地址空间一致性、全栈开放和灵活扩展五大核心特性 [2] - 相比传统PCIe接口,HSL协议实现多维度突破:性能上大幅降低数据传输延迟、提升带宽,支持芯片间高速直连,让AI超节点内GPU充分利用CPU内存空间,显著提升AI模型运行效率 [2] - 在开发扩展上,HSL协议简化编程复杂度,可灵活支持从单机多卡到大规模智算集群的弹性扩展,支持万卡级以上计算加速卡异构互联 [2] - 在生态协同上,HSL协议开放完整总线协议、提供IP参考设计及开放指令集,全面支持主流国产AI芯片,助力上下游伙伴高效连接,打破技术壁垒 [2] 协议进展与生态合作 - 2025年第四季度已正式发布HSL1.0规范,为生态伙伴提供标准化技术基础 [3] - 公司已与国内多家核心生态伙伴达成深度合作,涵盖GPU研发、服务器整机、操作系统等领域,形成完整产业生态 [3] 战略意义与未来展望 - HSL协议的研发与开放是公司技术实力的集中体现,也是践行国产算力自主可控使命的重要举措 [5] - 未来公司将持续投入协议迭代升级,优化性能、完善生态,推动国产CPU、GPU、NPU等核心部件深度协同,打破国外技术垄断 [5] - 从产业层面看,HSL协议的推广应用将推动国产AI算力生态规范化、规模化发展,为数字经济高质量发展提供强劲算力支撑 [5]
沐曦股份上市后首份业绩预告出炉!预计2025年亏损收窄50%左右 推出曦索X系列GPU品牌与产品线
新浪财经· 2026-01-27 23:29
2025年度业绩预告 - 公司预计2025年度实现营业收入16亿元至17亿元,同比增长115.32%至128.78% [1] - 公司预计2025年度归母净利润亏损6.5亿元至7.98亿元,亏损同比收窄43.36%至53.86% [1] - 公司预计2025年度扣非净利润亏损7亿元至8.35亿元,亏损同比收窄20.01%至32.94% [1] 业绩变动原因 - 收入显著增长源于公司加大市场开拓,产品及服务获下游客户认可与持续采购 [3] - 股份支付费用较上年同期减少,对利润产生正向影响,降低了亏损幅度 [3] 产品线与技术进展 - 公司致力于为异构计算提供全栈GPU芯片及解决方案,产品线覆盖曦思N系列(智算推理)、曦云C系列(通用计算)、曦彩G系列(图形渲染) [4] - 曦彩G系列相关产品已完成GPU IP设计和验证 [4] - 最新一代主力产品曦云C600系列性能介于英伟达A100和H100之间,预计2026年上半年正式量产 [4] - 下一代产品曦云C700系列性能对标英伟达H100,预计2026年下半年流片 [4] - 公司未来几年计划推出曦云C600系列、C700系列迭代产品,以及下一代云端大模型推理芯片和曦彩G系列产品 [4] 新品牌发布与业务布局 - 公司正式推出曦索X系列全新GPU品牌与产品线,旨在赋能AI for Science创新生态 [5] - 目前公司已完成在AI推理、AI训练、图形渲染、科学智能四大核心赛道的产品矩阵全覆盖 [5] - 曦索X系列GPU专为科学智能场景优化,首款产品曦索X206可支撑气候气象模拟、流体力学计算等传统计算任务及AI4S交叉学科研究 [5] - 公司于2025年1月20日全资设立了沐曦数智(上海)科技有限公司,注册资本1亿人民币,经营范围包括集成电路设计等 [5] 财务目标与股价表现 - 基于测算,公司达到盈亏平衡点的预期时间最早为2026年 [4] - 公司股价从上市首日高点895元/股降至2025年1月27日收盘价572.18元/股,较历史最高点下跌36.07% [6] - 2025年1月27日盘中股价创历史新低,为558.58元/股 [6]
【环球问策】英特尔宋继强:具身智能正在从预编程模式转向多智能体自主协作模式
环球网· 2026-01-26 15:16
文章核心观点 - 具身智能作为AI前沿热点,其核心在于将智能能力与实体设备深度融合,通过感知-决策-执行-反馈闭环主动改造物理世界,行业正从提升能力上限向筑牢可靠性底线过渡,并面临数据标准化等挑战 [1][8] 技术特征与架构 - 具身智能核心特征是物理闭环与主动交互,通过执行器产生物理改变并依据环境反馈优化决策,区别于单纯的信息处理类AI [3] - 行业需求多样化:工业场景要求可靠性与精度,消费场景注重功耗与成本平衡,商用场景追求灵活适配与快速响应 [3] - 单一硬件架构难以覆盖所有需求,异构计算(CPU、GPU、NPU、AI ASIC协同)成为技术基石,以实现能效比与性能的最优平衡 [3] - 应用架构正从预编程模式转向多智能体自主协作模式,系统需根据需求、业务和场景动态自主构建业务流并生成专用智能体 [4] - 智能体由扩散模型、大语言模型(LLM)、视觉语言模型(VLM)等多种AI组件构成,计算内核、数据量级与并行度差异显著 [4] - 英特尔提出混合编排层架构,通过统一系统基础设施隔离硬件多样性,向上提供稳定软件接口,以降低上层业务编程成本并支持多厂商、多架构的灵活组合 [4] 机器人技术路径与硬件支撑 - 针对具身机器人,行业尚未形成统一最优技术路径,当前主流是混合异构框架,融合前沿AI模型与传统运动控制技术 [5] - 英特尔提出三级架构:系统2(慢系统)通过VLM等大模型实现视觉理解与任务规划;系统1(Action Expert)将规划映射为控制指令,兼顾实时性与设备适配性;系统0通过传统模型预测控制(MPC)技术将控制频率提升至1000Hz级别,确保运动平滑精准 [5] - 三级架构分别对应GPU、NPU、CPU的异构计算优势,形成协同体系 [5] - 硬件关键支撑是英特尔第三代酷睿Ultra For Edge处理器,专为工业级应用与物理AI设计,具备180 TOPS的AI算力,采用Intel 18A制程工艺,能效比显著提升 [6] - 该处理器核心优势在于工业级可靠性,包括宽温工作范围、10年稳定供货周期,以及针对机器人场景优化的高实时性与确定性 [6] - 配合英特尔机器人AI套件与具身智能SDK形成完整解决方案,前者提供模块化参考设计与优化软件包,支持传统视觉模型与大模型高效运行;后者新增LLM任务规划、EtherCAT实时通信等关键能力,复用工业机器人领域成熟技术积累,大幅降低厂商开发成本 [6] 可信赖性与安全保障 - 可信赖性是具身智能从实验室走向产业落地的核心瓶颈 [7] - 英特尔从决策、执行、故障应对三个维度构建保障体系:决策层面采用神经符号AI混合控制模式,将领域知识与规则嵌入系统以校验神经网络决策,避免幻觉导致灾难性后果 [7] - 执行安全层面借鉴汽车行业思路,构建“主控系统-安全系统-备用系统”三级硬件架构,安全系统持续监控传感器与执行器状态以预判风险,备用系统在故障时能将机器人引导至最小风险状态而非简单停机 [7] - 英特尔联合学界与产业界发布《具身智能机器人安全子系统白皮书》,提出PMDF(监控-决策-故障处理-恢复)框架,为行业提供标准化安全设计参考 [7] 产业落地前景与挑战 - 具身智能正处于“提升能力上限”向“筑牢可靠性底线”的关键过渡阶段 [8] - 物流分拣、工厂备料搬运、标准化产品组装等半结构化场景将率先商用落地,因其任务明确、领域知识清晰,能在现有技术条件下可靠运行 [8] - 预计一两年内,部分厂商将在实际工厂中部署具身智能机器人,但要实现百万台级别的工业规模应用,仍需突破量产一致性、成本控制、数据标准化等多重挑战 [8] - 数据问题是重要制约因素,由于场景多样性、机器人本体差异、精度要求不统一,数据孤岛现象突出,行业尚未形成统一的数据采集与训练标准 [8] - 当前阶段可通过构建开放生态、推动数据交易等方式缓解数据荒问题,数据标准化需在实践中逐步推进 [8] - 随着产业规模扩大,依托成熟工业体系(如车企)提升零部件量产能力,将有效降低硬件成本,推动具身智能向更广泛的商用场景渗透 [8]