Workflow
异构计算
icon
搜索文档
RISC-V如何走向数据中心?谷歌最新分享!
半导体行业观察· 2025-12-23 09:18
文章核心观点 - 谷歌以自身从x86成功过渡到ARM架构的经验为蓝图,阐述了将RISC-V集成到其仓库级数据中心基础设施的愿景、机遇与挑战,强调标准化、强大的硬件、全面的测试和社区协作是实现RISC-V规模化应用的关键[1][2][3] 谷歌的异构计算演进路径 - 公司的数据中心架构始于通用x86平台,在2010年代中期开始尝试ARM架构,并于2022年推出Tau T2A ARM实例以及近期推出定制Axion ARM处理器[1] - 目前数据中心已混合部署x86、ARM及包括早期RISC-V组件在内的新兴架构,认为异构性和专业化是克服摩尔定律放缓、实现更高规模效率和性能的关键[1] RISC-V的机遇与标准化挑战 - RISC-V的开放性和定制潜力令人兴奋,但缺乏标准是一把“双刃剑”,需要像RVA23规范和即将发布的RISC-V服务器平台规范这样的基准来确保仓库级部署的兼容性[2] - 谷歌正通过RISC-V国际组织参与QoS和RVA23等标准的制定,并作为RISE项目的创始成员,加速Linux和LLVM的上游开发[3] 从ARM移植中汲取的经验 - 谷歌移植了超过3万个软件包,覆盖了包括YouTube、Spanner和BigQuery在内的主要工作负载,这些负载几乎占其计算资源的一半[2] - 移植过程通过集中协作、自动化和AI生成的变更来实现,为大量工作负载提供了自助服务,实际过渡比预期顺利,开发者担心的工具链崩溃问题大多只是配置、构建路径等“琐碎”小问题[2] - 少数技术问题包括浮点精度差异(通过标准化为float128解决)和一些极少的内存排序错误[2] 人工智能在架构迁移中的关键作用 - 谷歌将其Gemini AI模型应用于4万个ARM移植修改,对其进行分类以便未来自动执行更改[3] - 目前AI代理负责安全、渐进地进行部署,其过程往往难以被团队察觉[3] - 公司通过RISE和RISC-V International,利用Gemini计划的资助金资助学术界人士推进人工智能驱动的移植工作[3] 实现RISC-V仓库级规模的关键要素 - **高性能硬件**:需要一款“酷炫的汽车”——即高性能服务器级SoC,至少有64个核心,每个核心支持4GB以上的内存,并优先考虑性能、可靠性和可维护性[3] - **全面测试**:遵循内部“碧昂丝法则”(“如果你喜欢它,就应该测试它”),强调关键功能必须经过全面测试以简化多架构移植[3] - **社区协作**:需要“朋友们”——即强大的社区协作,以打造“开箱即用、编译运行”的强大软件生态系统[3] - **强制功能**:未来的RISC-V超路线图需要标准化规范,并强制包括分支记录(类似英特尔的LBR或ARM的BRBE)、侧信道加固加密和MMU支持等功能以确保安全[3]
AI算力新十年:技术革新、生态协同与商业闭环,共探「下一个寒武纪」之路丨GAIR 2025
雷峰网· 2025-12-13 20:05
文章核心观点 在算力成为基础设施的时代,产业各界正从芯片架构、软件生态、商业应用等多维度探索能够穿越周期、占据价值链顶端的技术路径与战略 核心在于通过软件定义、生态协同、应用驱动和系统级创新来突破硬件限制,构建自主可控的AI算力体系 [1][3][35] 技术路径与架构创新 - 算力芯片发展面临核心矛盾:摩尔定律放缓导致传统处理器迭代变慢,而生成式AI对算力的需求呈指数级增长 [7] - 应对矛盾的主流方向是推动“异构计算”,但带来了编程复杂度激增和软件兼容性差的新瓶颈 [7] - 反对指令系统碎片化,认为现有指令系统足以支撑架构创新,RISC-V应成为产业统一标准,其包容性可整合CPU、GPU及AI处理器特性 [9] - 计算芯片产业呈现螺旋式发展,未来将回归融合异构特性的CPU中心化架构 [9] - 在工艺受限背景下,需依靠新的技术路径超越国际领先者,国内创新企业路径呈现多元化特征 [32] - 数据中心AI芯片部分企业摒弃对单卡算力的盲目追求,转而构建更高效的系统,例如TPU路线通过打造大规模超节点、省去交换机和HBM,在集群层面追求更高性价比 [33] - 大算力芯片正在向三维架构变革,先进封装及其检测设备成为决定性能和良率的核心,光电合封被认为是下一代AI算力的基石,能以数量级优势提升集成度、降低功耗 [33] 软件生态的关键作用 - 软件生态对算力芯片产业具有决定性作用,生态是绕不开的命题,X86架构历经四五十年沉淀的软件生态壁垒极高 [7] - 用户选择的核心在于软件优化的积累,而非单纯硬件性能 [8] - 当前算力性能突破需跨学科交叉与软件深度优化双轮驱动,通过软硬件协同优化,在现有制程限制下实现算力效能最大化 [8] - 中国半导体受全球趋势及制程限制,必须通过软件定义算力,打破传统软硬件隔阂 [8] - 软件生态是GPU硬件行业的胜负手,其竞争已超出硬件性能本身 [16] - 软件层面需要深度拥抱开源软件生态,如DeepSeek,Qwen,ChatGLM3等,借助生态的力量充分释放硬件的算力 [17] - 破局国产算力技术生态需要拥抱开源,构建开放、统一的技术体系,避免“烟囱式”发展 [18] - 国产AI推理芯片的发展方向之一是软件生态兼容,以平衡算法迭代与算力利用率 [28] 产业发展趋势与挑战 - 2025年,AI芯片消耗将迎来重要转折,推理芯片消耗量或将超过训练芯片,源于企业端推理需求的爆发,例如谷歌日调用量已达43万亿Token,字节跳动近期或突破40万亿 [27] - 全球算力投资资本支出预计将超过4600亿美金,超过美国登月计划的总投入,中国市场中BAT等互联网大厂占据了68%以上的份额 [16] - AI商业化主战场包括AIGC在数字人、游戏、影视行业,今年国内产值预计超1000亿,全球数字内容生成市场规模已近500亿美金,加上AI编程领域、虚拟交互 [16] - 国产算力行业将迎来淘汰赛,由于系统级产品研发需海量资金投入,今年国内算力企业正全力冲击资本市场,预计未来一年A股和港股至少6家公司冲刺上市,资金技术储备不足、生态布局薄弱的企业或将加速出局 [17] - 大模型发展有从“百模大战”向“十模争锋”的收敛趋势 [12] - 模型发展正逐渐走向集约化路线,不是只比谁规模大,而是看谁能用最少的数据、最少的算力、最少的能耗做出好用的模型 [13] - 中国已成为大模型领域的开源生态领导者,HuggingFace Top10模型中,9个来自中国公司,在实际商业化场景中,中国开源模型生成的Token量已超过全球其他开源模型总和 [16] - 中国AI发展路径为“数据飞轮”模式:应用生产数据-数据训练算法-算法定义芯片-芯片赋能规模化应用,区别于美国通过政策强推技术突破的路径 [27] 企业实践与解决方案 - 燧原科技得益于丰富的商业化应用场景,产品迭代获得了坚实支撑,国民级爆款应用已经用到了燧原的算力 [17] - 鹏城实验室作为国家实验室定位“保底线”,致力于保障国产算力主权和模型的自主可控 [13] - 鹏城实验室发布了2000亿参数的大语言模型后,又推出了33B和2B参数的中小尺寸模型,并将2B参数模型全过程开源,包括所有数据和数据配比、权重和训练环节 [13] - 鹏城实验室正与气象、金融、文博、生态环境、智能制造等行业合作,推动大模型在典型场景中的示范应用 [13] - 摩尔线程提供了从Model Studio一站式平台、深度融合的MT-MegatronLM与DeepSpeed框架,到底层MUSA计算库及KuaE集群平台的全栈软件支持 [23] - 摩尔线程构建了贯穿训练前、中、后期的智能工具体系,包括SimuMax支持训练资源规划与时间估算,慢节点检测系统,分布式Profiling系统等 [23] - 对于特定大模型,千卡集群需耗时173天,而在万卡集群上,即便模型浮点运算利用率会从40%降至30%,训练时间也能被大幅压缩至23天 [21] - 大模型训练完成时间越短越好,最好不要超过1个月 [21] - 云天励飞已完成芯片架构升级,实现全流程国产工艺转型,构建起覆盖端边云的产品矩阵 [29] - 国产AI推理芯片的发展方向包括突破存储技术瓶颈支持3D memory技术,以及通过异构计算优化性价比,目标在未来三到五年内让百万Token成本降至1元以内 [28] 边缘与端侧算力创新 - 随着桌面级AI应用井喷,专为这些场景设计的LPU架构等应运而生,它们通过3D DRAM堆叠等技术,在有限功耗和成本下实现惊人的内存带宽 [33] - 在端侧AI芯片方向,存算一体与近存计算成为关键,例如将计算单元嵌入存储芯片的3D-CIM架构,或在LPDDR内存中集成处理能力的PIM方案,目标是在手机有限的面积和功耗预算内,流畅运行数10亿参数的大模型 [33]
CPU,为何“偷偷转型”?
36氪· 2025-12-13 12:10
行业里程碑与核心议题 - 2024年GPU销售额首次超越CPU,标志着半导体产业进入由加速计算主导的新周期[1] - 核心议题在于:随着GPU、NPU、ASIC等加速器接管大规模并行计算任务,传统CPU的角色与未来定位受到挑战[1] - GenAI计算重心的转移并未消除对主机处理器的需求,但彻底改变了对CPU性能指标的定义[1] CPU面临的挑战与效率瓶颈 - 传统以CPU为中心的架构在处理AI工作负载时效率低下,存在数据多次搬运的问题,导致昂贵的加速器硬件资源利用率受限,推高系统整体功耗与成本[2] - 现代CPU依赖的“推测执行”技术在处理主要由大规模向量和矩阵运算构成的AI负载时,容易出现预测失败,导致流水线频繁刷新,造成额外的能源浪费与延迟[2] 处理器行业的革新方向 - 第一层革新是微架构层面的“去推测化”,例如“基于时间的确定性执行模型”专利,它摒弃推测机制,采用静态调度策略,指令仅在数据就绪的确定时刻分发,以更低的晶体管开销和功耗实现高可扩展性[3] - 第二层革新是系统级架构的“专用化分流”,例如将网络排序、服务质量管理和数据预处理功能从CPU软件栈剥离,下沉至“网络附加处理单元”等专用硬件,实现数据路径的硬件加速[3] - 主流x86处理器通过集成AMX等专用加速指令集进行自我进化,优化对bf16和int8等低精度数据类型的处理能力,以提升自身处理矩阵运算的效率[4] AI时代CPU的市场需求与应用场景 - 尽管训练端需求高涨,但推理端市场对成本和能效敏感,为新型CPU提供了广阔空间,美国数据中心CPU需求预计将保持7.4%的复合年增长率[5][6] - 对于参数量在7B至13B之间的中小模型或单用户实时交互请求,现代服务器CPU已能提供足够吞吐量,利用公有云中大量利用率低于20%的闲置CPU资源进行推理,具有显著的总拥有成本优势[6] - AI大模型对内存容量的渴求重塑了CPU价值,CPU主内存通过CXL等高速互联技术与GPU共享,充当加速器的L4缓存,内存通道数量、带宽及互联速度成为比核心频率更关键的选型指标[7] - 在边缘计算和终端设备领域,异构协同需求超越单一芯片性能,CPU负责低延迟逻辑控制和实时交互,在语音转文字、复杂逻辑调度及实时运动控制等场景中响应速度优于GPU[7][8] 产业竞争格局与主要参与者 - 专注于AI专用架构的初创企业开始冒头,例如以色列公司NeuReality完成3500万美元A轮融资,总融资额达4800万美元,其NR1芯片被定义为“网络附加处理单元”,集成了Arm Neoverse核心及多个专用引擎,声称能将AI应用总拥有成本改善10倍[9] - 传统巨头进行战略调整与生态融合,英伟达于2025年9月宣布向英特尔投资50亿美元并开展基础设施合作,表明高性能x86 CPU作为异构集群通用底座和生态入口的战略价值依然重要[10] - Arm架构在服务器领域份额持续攀升,预计2025年将占据全球服务器出货量的21.1%,得益于AWS自研Graviton芯片及富士通等厂商的推动,富士通与Scaleway合作利用基于Arm的CPU平台构建高能效AI推理环境[10][11] - 市场呈现复杂生态:在核心AI训练集群中,为保证软件生态兼容性和稳定性,x86 CPU仍是首选;未来市场将是x86与Arm并存、通用CPU与专用AI CPU互补、CPU与加速器深度协同的阶段[11]
英伟达投资新思,背后原因曝光
半导体行业观察· 2025-12-04 08:53
合作背景与战略意义 - 工程领域已成为计算密集型问题,仿真、验证和建模工具对芯片、汽车、工业系统等现代产品至关重要[1] - 英伟达与新思科技宣布开展多年广泛合作,利用英伟达GPU、AI模型和数字孪生平台加速新思科技EDA、仿真和多物理场产品组合的开发[1] - 英伟达将以每股414.79美元价格向新思科技普通股投资20亿美元,以加强合作关系[1] - 合作旨在整合计算加速、AI辅助工程、数字孪生和求解器重构技术,覆盖从晶体管级设计到最终物理产品的所有工程环节[2] 技术合作细节与迁移计划 - 合作范围远超传统单一工具或工作流程的狭隘合作,涉及芯片设计、物理验证、光学仿真、分子建模、机械分析和电磁工具等多个领域[2] - 新思科技将利用英伟达的CUDA、AI框架、NeMo代理、NIM微服务和Omniverse平台优化其产品组合[2] - 目前已有"二十多个"应用程序实现了一定程度的GPU加速,但多物理场和电磁工作流程需要进行深度算法重写才能达到预期性能提升[4][5] - 技术迁移是一个持续多年的过程,预计将持续到2026年和2027年[5] - 计算光刻领域的合作已取得进展,台积电作为主要合作伙伴,仿真时间缩短了一个数量级[5] 精度要求与AI融合挑战 - 工程仿真领域存在AI友好型低精度计算与高精度双精度(FP64)要求之间的矛盾,许多领域如流体动力学、有限元模拟等需要双精度求解器保证精度[9] - 英伟达Blackwell硬件优先考虑AI量化格式而非增强64位计算能力,导致性能/功耗/成本权衡未遵循历史趋势[9] - 部分算法可通过数学重构在混合精度下运行而不损失精度,部分算法将完全使用FP64编码,未来AI模型成熟后可覆盖部分流程[9] - AI在工程工作流程中被定位为辅助层而非替代品,主要用于探索设计空间、生成边界条件、分析日志和自动化重复性任务,基于物理的求解器仍是生产工作流程基石[20] 市场机遇与行业影响 - 合作被视为开拓新市场机遇的关键,仿真和建模市场规模有望通过降低成本和速度门槛实现扩大[11] - 半导体行业仿真收入占比14%-15%,而其他大多数行业如航空航天、汽车、能源等仅占2%-4%,这些行业严重依赖物理原型和测试[12] - 如果仿真成本更低、速度更快,更多工程工作可转移至虚拟领域,这将显著增加对加速仿真的总体需求[12] - 合作将新思科技的客户资源深度与英伟达的硬件和软件平台结合,覆盖半导体、工业工程、汽车、航空航天和能源等广泛领域[14] 客户部署与商业模式 - 加速工作流程的部署方式尚未明确,可能包括本地部署、超大规模云服务或新思科技自有云平台[15] - 定价模式尚未确定,可能涉及永久许可、按使用量付费、混合套餐或云计量模式[15] - 对于无法获得高密度加速计算资源的客户,云部署被视为关键途径,英伟达将云部署视为向可扩展、按需模拟长期转型的一部分[15] 技术中立性与竞争格局 - 合作并非排他性,新思科技工具将继续支持CPU和其他硬件环境[17] - 但为CUDA深度重构求解器需要大量工程设计投入,可能在实际操作中导致对英伟达平台的偏好[17] - 新思科技强调其软件架构具有可移植性,历史上已根据客户需求将工具移植到x86、ARM和定制硬件[18] - 异构环境预计将持续存在,运行大型混合集群的团队需密切关注求解器性能随技术栈重写的演变[18] 战略定位与行业展望 - 对英伟达而言,这是对人工智能推理和训练之外新型计算需求的押注,旨在开拓生产实体产品和运行复杂模拟的行业市场[23] - 对新思科技而言,向加速计算和AI驱动工程转型是开拓新产品类别并重塑现有产品的机会,特别是增强多物理场仿真功能[25] - 合作致力于将仿真、验证和数字孪生技术推向只有借助大规模加速计算和AI才能实现的形态,主要基于英伟达的硬件和软件平台[25]
ICCAD 探馆直播!五大厂商共话AI算力的中国生态
半导体行业观察· 2025-11-14 09:44
文章核心观点 - AI算力已成为创新的核心驱动力 中国智能算力规模在2024年同比增长高达74.1% [1] - 产业面临“内存墙”、“工艺墙”、“互连墙”三重技术瓶颈 正加速推进Chiplet先进封装、异构计算、RISC-V架构革新及分布式集群等技术路径 [1] - 为应对从工具到架构、从算力融合到生态协同的多层挑战 行业将举办主题论坛探讨共建自主可控的AI算力生态 [1] 行业趋势与挑战 - AI训练、推理与部署的能耗和成本曲线全面上扬 [1] - Chiplet架构面临跨工艺、跨封装的系统验证、互联与标准化新难题 [6] - 算力呈现多元并存格局 涵盖CPU、GPU、NPU、FPGA、DPU及RISC-V等新兴架构 系统级实现Scale-Up与Scale-Out的智能协同成为关键课题 [6] 论坛活动与议题 - 活动形式包括主题圆桌论坛和ICCAD 2025展馆探访 直播时间为2025年11月20日14:00-16:00 [2][7] - 圆桌论坛将探讨四大议题:自主可控算力体系的突破起点、从Chiplet构建可演进算力架构、多元算力融合与AI生态协同、产业链协同创新以提升全球竞争力 [7] - 展馆探访将聚焦奇异摩尔、芯和半导体、达摩院玄铁、安谋科技Arm China和紫光云展台 展示最新行业趋势 ICCAD 2025预计汇聚8000+行业精英、2000+IC企业及300+上下游服务商 [7] 参与企业与技术维度 - 论坛汇聚芯和半导体、奇异摩尔、达摩院玄铁、安谋科技Arm China与紫光云五大代表企业 [1] - 讨论将覆盖EDA、IP、Chiplet、RISC-V与云服务五大技术维度 旨在解决从IP到云的协同创新闭环问题 [1][6] - EDA工具层关注AI辅助设计如何赋能从芯片到系统的全栈设计 确保国产AI算力自主可控 [6]
点火!市值蒸发3400亿后,“安防老炮”业绩重回双位数增长
市值风云· 2025-10-24 18:09
人工智能行业动态 - 人工智能领域的技术突破正以前所未有的力量重塑产业格局 [3] - 资本市场对AI反应热烈 英伟达市值突破万亿美元 AMD一年内股价翻番 [3] - AI概念股如寒武纪 浪潮信息 中际旭创等公司业绩与市值齐飞 [3] 特定公司表现 - 一家我国最早介入人工智能领域的科技巨头在AI狂欢中身影略显沉寂 [4] - 该公司市值从2021年初的6400亿巅峰缩水至3000亿出头 [4] - 该公司市值蒸发约3400亿 [4]
估值超210亿元,明星股东“云集”!知名芯片公司冲刺IPO上会,多家A股回应持股!
搜狐财经· 2025-10-18 16:56
IPO基本信息 - 上交所上市审核委员会定于2025年10月24日审议沐曦集成电路首发事项 [1] - 公司计划发行不超过4010万股A股普通股 [3] - 公司拟募集资金39.04亿元 [3] 公司概况与业务 - 公司于2020年9月成立于上海 并在多地建立了全资子公司暨研发中心 [3] - 核心成员平均拥有近20年高性能GPU产品端到端研发经验 [3] - 公司致力于为异构计算提供全栈GPU芯片及解决方案 应用于智算、智慧城市、云计算、自动驾驶、数字孪生、元宇宙等领域 [3] - 公司主要收入来源为训推一体芯片曦云C500系列的销售 [3] 财务与估值数据 - 公司最近一次外部股权融资对应的投后估值为210.71亿元 [3] - 2024年度公司营收为7.43亿元 亏损14.09亿元 [3] 募投项目 - 募集资金中24.59亿元将用于新型高性能通用GPU研发及产业化项目 [3] - 4.53亿元将用于新一代人工智能推理GPU研发及产业化项目 [3] - 9.91亿元将用于面向前沿领域及新兴应用场景的高性能GPU技术研发项目 [3] 股权结构与股东 - 创始人陈维良合计控制公司22.94%的股份表决权 为实际控制人 [4] - 股东包括私募大佬葛卫东及其旗下的混沌投资 以及经纬创投、和利资本、红杉资本等 [5] - 上市公司中山公用通过新能源基金对沐曦集成电路进行了早期投资 [5] - 上市公司闰土股份通过闰土锦恒出资2.2亿元 持有无锡同创致芯44%份额 同创致芯出资1亿元持有沐曦集成电路首次公开发行前股份170.85万股 持股比例为0.47% [5]
A股算力芯片龙头,三季报公布
财联社· 2025-10-15 20:22
财务业绩表现 - 第三季度营业收入40.26亿元,创单季度新高,同比增长69.6%,环比增长31.38% [2] - 前三季度累计营业收入94.9亿元,同比增长54.65% [2] - 第三季度归母净利润7.6亿元,同比增长13.04%,环比增长9.26%;前三季度净利润19.61亿元,同比增长28.56% [3] - 截至第三季度末经营性现金流量净额较年初大幅增长465.64% [3] - 前三季度研发投入合计增长35.38% [4] 业务运营与市场策略 - 业绩增长源于与整机厂商、生态伙伴深化合作,加速客户端导入,推动高端处理器产品市场版图扩展 [3] - 高端处理器国产化率在增量空间及存量替代方面加速明显,公司计划深化合作、拓展市场并寻找新机会以抢占市场份额 [8] - 第三季度末合同负债维持28亿元高水位,预付款项增至26.18亿元,存货环比增加约5亿元,显示上游备货积极 [8] 未来增长指引与激励计划 - 2025年限制性股票激励计划业绩考核目标聚焦CPU及DCU产品收入,以2024年营收91.62亿元为基数 [5] - 2025年、2026年、2027年营业收入目标值增长率分别不低于55%、125%、200%,对应营收142.01亿元、206.15亿元、274.86亿元 [6] - 同期触发值营收增长率目标分别为55%、90%、140% [6] 技术生态与行业前景 - 公司于9月正式开放CPU互联总线协议(HSL),旨在打通产业链协同堵点,提升算力效率及硬件资源利用率 [7] - HSL协议开放有助于推动行业统一标准制定,促进全栈产业生态发展 [7] - 分析师观点认为,基于HSL协议,海光CPU在“CPU+AI加速处理器”异构计算趋势下,有望类比英伟达架构,打开新市场空间并提升国内市占率 [7] 资本市场表现 - 公司股价收涨5.91%,报241.05元/股,最新市值超过5600亿元 [9]
安路科技DR1系列FPSOC荣获2025工博会“集成电路创新成果奖”
半导体芯闻· 2025-09-29 17:45
文章核心观点 - 安路科技自主研发的SALDRAGON1系列FPSOC®凭借突破性异构计算架构荣获2025中国国际工业博览会"集成电路创新成果奖" [1] - 该奖项由上海市集成电路行业协会和中国国际工业博览会评奖部共同组织评选 旨在推选技术领先且市场应用成果丰硕的集成电路产品 加快产业国产化进程 [3] - DR1系列产品通过异构硬核架构创新 高度呼应工博会"工业新质 智造无界"主题 为全球工业转型升级提供中国方案 [4][5] 产品技术特性 - DRAGON1家族集成FPGA可编程逻辑单元阵列 硬核处理器系统及运算加速引擎 采用单核64位RISC-V或双核ARM Cortex-A35高性能处理器 [7] - 产品配备专属MIPI高速视频接口 DDR3/DDR4高速存储接口 支持千兆以太网 配套自主开发嵌入式软件SDK和集成开发环境工具 [7] - 芯片具备94.464K FPGA逻辑单元 集成2x ARM Cortex-A35@1GHz处理器与NPU 实现8通道200KSPS同步并行采样能力 [12] 应用场景与解决方案 - 单目测距解决方案通过精准采集与高效处理图像数据 快速识别物体并精确计算距离 应用于行车记录仪 高级辅助驾驶及智能交通等领域 [8] - 人体关键点检测方案可实时检测人体姿态及关键点信息 适用于视频监控系统异常行为识别和人机交互界面手势控制 [10] - 多通道AD采集处理方案为核心处理器平台 应用于继电保护装置 电力监测设备 振动采集器及医学成像系统等领域 [12] - FPGA高清4K光纤工业相机方案通过MIPI解码和10GBASER-R万兆网传输 实现高速低延迟图像采集 满足精密加工对图像质量的严苛要求 [14] 市场进展与客户拓展 - DR1系列已成功导入超200个客户项目 推动新签订单数量显著增长 [19] - 在工业机器人 电力控制 医疗设备等传统领域基础上 正开拓边缘计算 汽车电子和低空经济等高价值新兴赛道 [19] - 打造完整汽车电子技术链 部分车规产品在国内主流车厂实现大批量商用 [19] - 搭载安路芯片的服务器已进入多家互联网头部企业 产品性能与稳定性获市场认可 [19] 生态合作与行业影响 - 与生态伙伴协同创新 在智能视觉感知 人机交互 工业数据采集和高端制造图像传输领域推出多场景解决方案 [8][10][12][14] - 方案展现公司在异构计算 智能感知 高速传输等领域的协同创新能力 [16] - 获奖体现业界对安路产品创新能力与应用价值的高度认可 [3]
新旧巨头联姻 英伟达斥资50亿美元入股英特尔
中国经营报· 2025-09-27 03:16
合作交易核心内容 - 英伟达以每股23.28美元的价格投资50亿美元(约合人民币355亿元)入股英特尔,成为其第二大股东,持股比例预计超过4% [1] - 双方将共同开发多代定制化的数据中心和个人计算产品,以加速超大规模计算、企业级及消费级市场的应用与工作负载处理 [1] - 在数据中心市场,英特尔为英伟达定制CPU芯片,集成到英伟达AI基础设施平台中;在个人计算市场,英特尔将推出配备英伟达GPU的PC系统级芯片 [1] - 合作声明公布后,英特尔股价一度涨幅超30%,市值飙涨约265亿美元 [1] 合作背景与行业动因 - 英伟达在数据中心AI加速卡市场份额超过80%,但在个人电脑市场,超过一半的PC未采用独立显卡,而英特尔的处理器在PC市场占有73%的出货量 [2][3] - 2023年全球数据中心加速卡市场规模达152亿美元,预计以29.8%年复合增长率扩张至2030年的800亿美元;2025年AI数据中心芯片市场将增至2070亿美元 [3] - 行业进入"增量放缓、存量竞争"阶段,异构计算成主流,GPU与CPU协同效能成为竞争核心;AI推理场景中专用方案渗透率从2022年18%升至2025年34% [3] - 英伟达自行开发Windows on ARM处理器不确定性高,绑定英特尔可直接将x86架构纳入产品体系;一台搭载8颗H100的服务器,5%~8%成本需支付给CPU厂商,定制化可提升利润率 [4] - 英特尔过去五年股价跌超30%,2024年亏损超100亿美元,引入英伟达可获得现金流并借助其CUDA生态重返AI战场 [4] 合作战略意义与市场机会 - 合作瞄准250亿~500亿美元市场机会,双方团队已秘密研发数月,即将推出的"x86 RTX SoC"把CPU与GPU集成封装,能效比将远超传统方案 [4][5] - 凭借英伟达CUDA生态在游戏与AI领域优势,英特尔有望为轻薄型与商用PC带来效能提升;合作可提升双方研发支出效率 [5] - 合作旨在提供比单一厂商产品更优的性能和效率,为云服务商在"自研"和"采购"之间提供新选择,可能延缓或改变其自研芯片进程 [5] - 到2028年,超过70%的PC将具备AI功能,英伟达与英特尔的领先地位将使独立软件供应商优先依照其标准进行软件开发,提高竞争对手建立替代生态系的难度 [6] 对竞争格局的影响 - AMD作为共同对手将面临巨大压力,英伟达与英特尔的联手可能提供高度优化的"CPU+GPU"打包方案,对单一产品线或生态较弱的AMD构成挑战 [6] - 业界认为合作是技术、生态和市场的深度融合,将推动芯片设计、封装和软件生态进一步整合,未来可能出现更多跨公司、跨架构的联合研发项目 [7] 股权结构与政策环境 - 美国政府以20.47美元/股收购4.333亿股英特尔普通股,股权占比为9.9%,若英特尔对其芯片代工厂股权降至51%以下,美国政府有权以20美元/股额外认购5%股权 [8] - 美国政府入股被批评为"突破市场边界",以低于市价18%的成本入股让现有股东承担损失,并可能通过政治诉求干预战略决策 [8] - 美国政府的政策走向"混合所有制+直接参与"模式,可能影响市场化效率、治理透明度并引发国际竞争对手反制 [9] - 借助政府资源,英特尔18A工艺已承接英伟达试产订单,若良率突破可能成为台积电替代选项;2025年全球芯片市场将达7167亿美元 [9]