算力下沉
搜索文档
爱芯元智登陆港交所,卡位边缘AI万亿蓝海
36氪· 2026-02-10 17:48
公司上市与市场定位 - 爱芯元智于2月10日登陆港交所,成为“中国边缘AI芯片第一股”,首日开盘股价达29.18港元,总市值突破170亿港元 [1] - 公司IPO首日开盘市值达到166亿港元,静态PS(市销率)超过30倍,接近地平线等龙头企业水平 [2] 行业趋势与市场空间 - AI产业逻辑正在转变,从云端大模型转向物理世界交互,AI的终极形态将落于物理世界 [1][3] - 物理AI驱动“算力下沉”,边缘和端侧AI推理芯片成为链接数字大脑与物理世界的关键桥梁 [2][5][6] - 传统云端部署存在延迟高、带宽成本高、数据隐私风险等弊端,无法满足物理AI的实时交互需求 [4][5] - 2024年全球边缘及端侧推理芯片市场规模为3793亿元人民币,预计到2030年将扩张至16123亿元,期间年复合增长率高达27% [7] - 边缘和端侧AI面对的是一个周期更长、更贴近实体世界的万亿级市场 [19] 公司核心技术优势 - 公司构建了“感知-计算一体”的专有技术平台,通过深度耦合缩短从感知到决策的反射距离 [9][10] - 在感知层面,公司利用爱芯通元NPU的算力,在AI-ISP信号产生之初介入处理,实现恶劣环境下的极限成像和高保真数据转换 [10] - 在计算核心层面,爱芯通元NPU采用多线程、异构多核设计,支持INT4、INT8和INT16等混合精度的动态调度,实现了Transformer和CNN架构的原生兼容,并在低功耗下保持毫秒级响应 [10] - 公司通过Pulsar2工具链与成熟SDK软件包,为开发者提供深度软硬件集成的标准化入口,实现算法模型的快速迁移与研发成果跨平台复用 [11] - 公司构建了市场洞察、产品开发与营销“三位一体”的标准化协同流程,能快速将市场需求反馈至技术研发和工程落地 [11] - 公司拥有稳定可扩展的全球供应链体系,能持续获得先进工艺技术和稳定产能保障 [12] 公司业务与财务表现 - 公司构建了以终端计算、智能汽车、边缘AI推理为核心的三大业务矩阵 [13] - 2022年至2024年,公司营收从0.5亿元人民币扩张至4.7亿元人民币,年均复合增速高达207% [13] - 2025年前三季度,公司收入录得2.7亿元人民币 [13] - 终端计算产品是公司业绩核心来源,截至2025年9月底,其SoC累计出货量突破1.57亿颗 [14] - 根据灼识咨询数据,公司是全球第五大视觉端侧AI推理芯片供应商,在中高端市场以24.1%的市占率位居全球首位 [14] - 2022至2024年,公司终端计算产品收入从0.45亿元扩张至4.48亿元,CAGR为216% [14] - 在智能汽车领域,公司已有三款车规级SoC(M55H、M57及M76H)进入商业化应用,定点多家汽车OEM及Tier 1供应商,并跻身中国第二大国产智驾SoC供应商 [15] - 在边缘AI推理领域,公司通过8850系列产品成为国内第三大供应商,市占率达12.2%;该系列SoC出货量从2023年的超2.1万颗增长至2024年的超10万颗 [15] - 2025年前三季度,智能汽车产品与边缘AI推理产品的销售收入同比增幅均超过250% [21] - 2025年前三季度,公司智能汽车产品和边缘推理产品的毛利率分别为43.3%和49.5% [17] - 公司分销出货占比从2022年的4.8%迅速攀升至2025年前三季度的60.3% [17] 研发投入与增长动力 - 2022至2024年,公司研发支出分别为4.46亿元、5.15亿元、5.89亿元人民币,2025年前三季度达4.14亿元,研发人员占比达到80% [18] - 公司业绩弹性未来主要来自智能汽车SoC产品的规模化出货及边缘AI应用生态的拓宽 [21] - 公司通过与全球Tier 1、OEM及AI生态伙伴合作,有望复制中国成功模式,加速海外市场拓展 [21] - 公司IPO引入多元化基石投资者,累计认购1.85亿美元,认购比例高达48.76% [21]
爱芯元智登陆港交所,卡位边缘AI 万亿蓝海
36氪· 2026-02-10 16:04
行业趋势与市场空间 - 人工智能的发展重心正从云端大模型向物理世界(物理AI)转移,端侧智能成为全球投资者关注的焦点[2] - 物理AI的落地面临实时性、带宽经济性和数据隐私三大挑战,这使得“算力下沉”成为必然选择,边缘和端侧AI推理芯片的重要性日益凸显[2][4] - 轻量化AI模型及开源LLM的发展为算力下沉提供了技术可行性,边缘和端侧AI芯片成为链接数字大脑与物理世界的关键桥梁[5] - 全球边缘及端侧推理芯片市场规模巨大,预计将从2024年的3793亿元人民币增长至2030年的16123亿元人民币,年复合增长率高达27%[7] - 相比拥挤的云端赛道,边缘和端侧AI面对的是一个周期更长、更贴近实体世界的万亿级蓝海市场[28] 公司技术与产品优势 - 公司是边缘AI芯片赛道的领军者,已实现规模化出货,并于2025年2月10日登陆港交所,成为“中国边缘AI芯片第一股”,开盘市值达166亿港元[2] - 公司构建了“感知-计算一体”的专有技术平台,通过爱芯智眸AI-ISP技术解决端侧设备在恶劣环境下的成像痛点,并将物理信号转化为高保真数据[12] - 公司的爱芯通元NPU采用多线程、异构多核设计,支持混合精度动态调度,在功耗受限环境下实现了远超传统GPU的效率,并原生兼容Transformer和CNN架构[14] - 公司通过Pulsar2工具链与成熟的SDK软件包,为开发者提供了深度软硬件集成的标准化入口,降低了客户的开发成本与准入门槛[15] - 公司建立了“三位一体”的标准化协同运营模式,将市场洞察、产品开发与营销有机整合,能快速响应市场需求并缩短商业周期[16] - 公司拥有稳定可扩展的全球供应链体系,能持续获得先进工艺技术和稳定产能保障[17] 业务布局与市场地位 - 公司构建了以终端计算、智能汽车、边缘AI推理为核心的三大业务矩阵[18] - 在终端计算市场,公司是全球第五大视觉端侧AI推理芯片供应商,其累计出货量已突破1.57亿颗(截至2025年9月底)[22] - 在竞争最激烈的中高端视觉端侧AI推理芯片市场,公司以24.1%的市占率位居全球首位[22] - 在智能汽车领域,公司是中国第二大国产智驾SoC供应商,已有三款车规级SoC(M55H、M57及M76H)进入商业化应用,并成功定点多家汽车OEM及Tier 1供应商[23] - 在边缘AI推理领域,公司是国内第三大供应商,市占率达12.2%,其8850系列SoC出货量从2023年的超2.1万颗增长至2024年的超10万颗[23] 财务表现与增长动力 - 公司营收从2022年的0.5亿元人民币快速增长至2024年的4.7亿元人民币,年均复合增速高达207%[20] - 2025年前三季度,公司收入录得2.7亿元人民币[20] - 终端计算产品是公司业绩的核心基本盘,其收入从2022年的0.45亿元扩张至2024年的4.48亿元,年复合增长率达216%[22] - 智能汽车和边缘AI推理业务成为新的增长曲线,2025年前三季度这两项业务的销售收入同比增幅均超过250%[29] - 公司产品结构持续优化,高毛利的智能汽车和边缘推理产品(2025年前三季度毛利率分别为43.3%和49.5%)拉动整体价值中枢上移[24] - 公司分销出货占比从2022年的4.8%迅速攀升至2025年前三季度的60.3%,表明产品通用性和品牌认可度获得市场认可[25] 研发投入与未来前景 - 公司长期保持高强度研发投入,2022至2024年研发支出分别为4.46亿元、5.15亿元、5.89亿元,2025年前三季度达4.14亿元,研发人员占比高达80%[30] - 高强度研发确保了公司在能效比等核心指标上的技术领先优势,并锁定了未来的代际优势与生态卡位[27] - 公司形成了研发驱动增长的良性循环:技术优势驱动多元赛道商业化变现,自我造血能力反哺研发,规模效应有望摊薄研发费用并改善盈利能力[27] - 公司IPO引入了多元化的豪华基石投资者阵容,累计认购1.85亿美元,认购比例高达48.76%,提供了产业背书并有助于稳定上市初期股价[29][31] - 公司未来增长弹性来源于智能汽车SoC的规模化出货、边缘AI应用边界的拓宽、高价值产品占比提升带动盈利改善,以及海外市场的拓展[29]
端侧AI落地路径:从算力下沉到场景闭环
21世纪经济报道· 2025-12-11 16:00
行业趋势:端侧AI的落地与结构性迁移 - 人工智能正经历从云端向终端设备的结构性迁移,2025年被AMD称为“AI智能体元年”的开端,AI正从对话助手演变为具备任务执行能力的生产力工具 [1] - 端侧AI落地需满足严苛条件:运行百亿参数级基座模型、加载企业专有知识库、支持多智能体协作、处理超长上下文并保障数据不出域 [1] - 端侧AI的真正落地不能仅靠算力堆砌,还需在硬件架构、应用场景和生态协同上形成完整闭环 [1] 核心挑战:端侧AI部署的障碍与需求 - 端侧AI部署面临三重障碍:算力不足、成本过高、生态割裂 [2] - 传统消费级PC受限于显存容量与内存带宽,难以承载主流开源大模型(如Llama 3 70B、DeepSeek-R1 70B等) [2] - 企业若选择专用AI服务器,需承担数十万元硬件投入、专用机房部署及持续运维成本,而云服务则在数据隐私、响应延迟和长期费用上存在硬伤 [2] - 在医疗、金融、制造等强监管行业,“数据不能出院”是不可逾越的红线 [2] 硬件架构创新:实现算力下沉的关键 - 端侧AI的落地路径是通过硬件架构创新,在桌面级设备中实现“完整推理闭环” [2] - 关键突破在于统一内存架构(UMA)与异构计算单元的整合 [3] - 端侧AI设备必须兼顾兼容性与实用性,符合主流AI PC规范的设备可无缝运行Office、Photoshop等主流生产力工具,同时支持AI加速,实现日常工作与智能推理一体化 [3] - 设备需支持ECC内存纠错、7×24小时高负载运行,并提供PCIe x16、USB4 V2等高速接口以便未来扩展 [3] - 部分产品采用模块化主板设计,支持快速拆装,便于维护升级 [3] - 硬件创新的核心是在极致小型化前提下,重构计算、存储与互联资源的分配逻辑,使桌面级设备具备接近服务器级的推理能力,同时保留消费电子的易用性与灵活性 [4] 应用场景闭环:从技术到业务的嵌入 - 端侧AI要产生实际价值,必须嵌入具体业务流程,形成“数据—模型—行动”的闭环 [5] - 产品定义的核心逻辑是“从先锋用户需求出发,向大众市场下沉” [5] - 早期采用者多为技术极客、超级个体户或行业先锋,其超前需求(如本地运行医生考试模型、自动制作播客并模拟人声)驱动软硬件协同优化 [5][6] - 医疗领域:某三甲医院测试的AI辅助诊断系统基于本地部署的GPT-OSS 120B模型,在美国医师执照考试中得分89分,达到执业水平,并能实时辅助年轻医生判读影像,本地部署满足“数据不能出院”的合规要求 [6] - 教育领域:高校正将“与AI协同工作”纳入通识教育体系,一台具备96GB共享显存的工作站可同时运行多个教学实例,支持全班并发操作,且数据完全隔离,形成“一人一机一模型”的新范式 [6] 软硬件生态与产业链协作 - 场景实现依赖于完整的软硬栈,自研操作系统提供企业级数据安全(如快照备份、全盘加密、RAID冗余),并内置AI相册、影视墙、P2P远程访问等功能,支持Docker容器化,使设备从“存储盒子”进化为“边缘智能服务器” [7] - 产业链协作模式正在升级,芯片厂商不再仅提供硬件,而是与整机厂商共同定义AI Agent平台,围绕具体行业痛点反向推动技术迭代,缩短从技术到应用的转化链路 [7] - 未来,端侧AI的规模化普及仍需突破模型压缩、量化效率与开源生态等瓶颈 [7]