Workflow
边缘计算
icon
搜索文档
AI 重塑网络结构,CDN 转型“分布式大脑”
财通证券· 2026-02-26 10:40
报告行业投资评级 - 投资评级:看好(维持)[2] 报告核心观点 - AI正重塑网络边界,“CDN+边缘预处理”正成为技术标配,网络进入Tokens时代,CDN将向“边缘预处理”转型,2026年Tokens消耗或增长10倍以上,将带来CDN增值服务业务的快速增长[4] - AI时代CDN服务商的价值重估:从静态缓存到智能计算,全球CDN市场预计从2025年的278亿美元增长至2034年的超过792亿美元,年复合增长率达12.3%,独立CDN服务商具备不可替代的结构性优势[7] - AI推理下沉,“CDN+边缘算力”重塑行业生态,CDN的全球边缘节点是天然算力平台,在智能驾驶、工业检测等新兴行业发展中,高清视频的上行流量以及算力需求将大幅提升[7] - 数据主权问题,CDN或将参与AI与创作者之间的价值交换,CDN作为网络安全的关键环节,可能进化成数据中间商,在频繁的数据交易中抽取服务费[7][49][50] - CDN行业的叙事逻辑正在重构:AI的兴起使服务商摆脱了低毛利的“带宽中介”属性,向具备高粘性的边缘云供应商转型,建议关注技术领先、商业化程度高的CDN服务商[7][69][71] 根据相关目录分别进行总结 1 CDN从静态缓存进入AI时代 - CDN发展已进入AI与计算的4.0时代,从1.0静态加速时代演进至4.0智能化“云-边-端”三级架构时代[11][13] - CDN位于网络服务产业链中游,上游为硬件设施厂商和电信运营商,中游为CDN服务商,下游为各行业应用企业[14][17] - CDN服务商的成本主要包括带宽成本、基础设施投入以及研发投入,上下游议价能力均较强,导致行业毛利率呈下降趋势,例如网宿科技CDN业务毛利率从2014年的43.58%下降到2024年的31.36%[17] - 全球CDN市场正因视频流媒体、游戏和AI需求而迎来增长,预计从2025年的278亿美元增长至2034年的超过792亿美元,年复合增长率达12.3%[19] - 2025年北美地区CDN市场规模为91亿美元位列全球榜首,亚太地区市场规模为68亿美元,预计将以15.7%的年复合增长率扩张,到2034年将超过252亿美元,是全球增速最快地区[19] - 2025年独立CDN厂商占据全球市场44.6%,云CDN厂商市占率为17.0%[19] - 北美主要厂商Cloudflare与Akamai存在差异化竞争:Cloudflare节点遍布330个城市,网络容量达449Tbps,2025年收入21.68亿美元,2022-2025年收入复合增速30.5%;Akamai节点超4400个,网络容量超过1Pbps,2025年收入42.08亿美元,2022-2025年收入复合增速5.2%[24] - 中国CDN市场由云服务商主导,2023年市场份额显示阿里云、腾讯云等综合云服务商占比较高,源于国内互联网生态头部集中且大厂趋向全栈自研[24][25] 2 AI推理下沉,“CDN+边缘算力”重塑行业生态 - 传统网络架构中,CDN负责缓存和分发,源站负责计算[28] - AI浪潮下,企业客户需求转向实时交互、AI推理、视频处理等计算密集型场景,智能驾驶、工业检测等行业的发展使得上行流量以及计算需求大幅提升[37] - 边缘计算成为刚需,部署边缘端模型进行预处理可大幅降低上行流量成本并缓解源站计算需求,在路侧智能驾驶、工业检测、AI游戏等行业是必须的[39] - CDN的全球边缘节点是天然边缘计算平台,CDN服务商正将计算能力下沉至边缘节点,使其成为具备实时处理能力的“微型数据中心”[42] - 主要独立CDN服务商已布局边缘算力:Cloudflare于2017年发布Workers边缘计算平台,2023年发布Workers AI边缘推理服务;Akamai于2022年收购Linode(IaaS平台),2024年发布Gecko边缘计算平台;网宿科技于2018年成立边缘计算实验室,2024年布局AI边缘智能解决方案[43] 3 AI重塑网络边界,“CDN+边缘预处理”正成为技术标配 - 网络进入Tokens爆发时代,2026年Tokens消耗或增长10倍以上,原因包括长程任务与自主运行Agents的普及,以及多模态技术(如自动驾驶、机器人)的发展[44] - Tokens时代,CDN将向“边缘预处理”转型,核心突破将基于对用户意图的理解进行精准预处理,并可能带来高并发、高上行回源流量等变化,提升网络安全、TCP优化等增值服务的购买率[47] - CDN服务商的网络结构天然适合处理AI推理、内容真实性、安全与防滥用等问题[48] 4 主要CDN服务商财务指标拆解 - Cloudflare通过订阅模式吸纳大量中小客户,主打高性能、低延时及安全服务,服务网站约431.2万个,按流量前5大客户包括chatgpt、claude等新兴AI公司;Akamai专注大型企业客户,服务网站约15.7万个,前五大客户主要为salesforce、intuit等传统软件客户[52] - 收入方面:2025年Cloudflare收入21.68亿美元,同比增长29.8%,毛利率74.5%,净利率-4.7%;Akamai收入42.08亿美元,同比增长5.4%;网宿科技2025年前三季度收入34.92亿元,同比下降3.3%[55][56][57][59] - 费用率方面:Akamai的研发费用率持续增长,Cloudflare和网宿科技表现出规模效应,销售费用率持续下降[64] - 业务构成方面:2025年前三季度,Akamai安全、分发、云计算收入分别占比53.0%、30.4%、16.6%;网宿科技2025年上半年安全、分发、云计算收入占比分别为27.5%、64.3%、5.4%[64][67]
宜鼎推出CXL AIC扩展卡
环球网资讯· 2026-02-25 15:14
公司产品发布 - 宜鼎国际宣布推出基于CXL架构的全新CXL AIC扩展卡,通过标准PCIe Gen 5 x8接口为系统额外扩展最高256GB内存容量,并提供高达32GB/s的带宽与极低延迟 [1] - 该扩展卡采用HHHL紧凑外形,专为空间受限的边缘计算环境打造,支持搭载两条标准高度或VLP规格的DDR5 RDIMM内存模组 [3] - 产品支持CXL 2.0 Type 3协议,可实现内存池化与资源共享,使系统能根据工作负载在多台主机间动态分配内存资源 [5] 产品技术规格与性能 - CXL AIC扩展卡基于PCIe Gen5 x8接口,提供最高32GB/s的额外带宽,并有效降低CPU与内存间的传输延迟 [5] - 产品支持最高256GB的内存扩展,用户可根据需求灵活搭载不同容量的DDR5 RDIMM模块 [7] - 针对小型边缘系统,可选配DDR5 RDIMM VLP内存模组,以节省机箱内部空间并提升部署灵活性 [7] 目标应用场景 - 该产品特别适用于对实时性与低延迟要求严苛的边缘计算场景,包括5G通信、高频金融交易、微型数据中心以及智能医疗影像等应用 [5] - 产品旨在帮助边缘服务器及系统突破硬件架构限制,应对边缘AI与实时计算场景日益增长的内存需求 [3] - 公司表示,边缘系统追求的是契合具体应用场景、兼顾小体积、低延迟与高能效的弹性扩展方案,而非大规模硬件堆叠 [7] 市场背景与行业需求 - 随着5G通信、AI推理与实时数据处理等应用快速发展,边缘系统面临传输延迟、流量波动与部署空间受限等多重挑战 [4] - 系统对内存容量与性能的需求持续攀升,但传统DIMM插槽数量受限于主板设计,逐渐成为内存扩展的瓶颈 [4] - PCIe作为边缘系统中成熟且通用的接口标准,正成为实现内存扩展的关键突破口 [4] 公司战略与产品布局 - CXL AIC扩展卡的推出体现了公司对AI边缘计算的深度布局,是基于对边缘AI应用场景深入理解的前瞻技术研发成果 [4][7] - 公司CXL产品线针对不同场景:CXL内存模块主要面向云端与大型数据中心;CXL AIC扩展卡则聚焦于空间受限的小型边缘服务器与边缘AI系统 [7] - 公司将持续整合自身在内存、存储、扩展模块及软硬件协同方面的优势,携手产业伙伴共同打造下一代系统架构 [8] 公司背景与市场地位 - 宜鼎国际是AI解决方案与工业级存储领导品牌,自2005年创立以来持续稳居全球工业存储设备市场份额首位,并跻身全球内存模组市场前十强 [9] - 公司在深化工业控制领域专业能力的同时,积极布局边缘AI技术创新,通过专业技术积累与应用场景洞察为客户定制解决方案 [9]
AI催生巨量Token消耗 算力租赁供不应求
每日经济新闻· 2026-02-24 20:37
AI应用与Token消耗激增 - AI应用正从聊天对话框走向物理世界,国内外大厂和应用(如Open Claw、Cowork)推动全民AI应用和桌面智能体热潮,加速用户从传统搜索转向聊天机器人并培养商业习惯,这一进程推升了推理量 [1] - AI大模型及应用发展带来更多内存和存储需求,导致Token消耗量持续增加,Open Claw等AI自动运行应用可快速消耗Token [3] - 2025年科技巨头日均Token使用量呈指数级增长:字节跳动豆包大模型2025年12月日均Token使用量突破50万亿,较上年同期增长超10倍,较2024年5月推出时增长达417倍;谷歌2025年10月各平台月处理Token用量达1300万亿(日均43.3万亿),一年前月均仅为9.7万亿 [4] 算力需求与成本压力 - AI算力需求持续增长,但数据中心能耗约束趋严,PUE成为衡量绿色算力的关键指标,政策要求新建大型及以上数据中心PUE需≤1.25,改造后存量数据中心PUE≤1.5 [1][11] - 算力需求增长及硬件价格上涨加剧算力租赁需求:算想科技GPU规模从2025年初2000卡迈入万卡规模;内存和硬盘价格上涨带动服务器价格比2025年初涨约30% [1][7] - 云服务厂商因芯片供应、电力散热等基础设施瓶颈及成本压力上调价格:亚马逊云2026年1月上调EC2机器学习容量块价格约15%;谷歌云自2026年5月1日起对AI与计算基础设施等服务调价;国内头部云服务商评估对专属AI集群或预留型算力产品进行结构性调价 [4][5] 算力租赁市场动态 - AI大模型训练和推理需求快速增长是存储行业复苏核心动力,高性能存储产品(如HBM)需求爆发式增长 [6] - 内存和GPU价格上涨促使更多AI公司从自建算力转向算力租赁:算力租赁新客户价格随行就市,较硬件市场价格上涨20%~30%;市场对算力需求增加,算力租赁基本处于供不应求状态 [7] - 行业巨头投资强化市场预期:英伟达2026年1月向算力租赁公司CoreWeave投资20亿美元,以加速其在2030年前增加超5GW AI计算能力,验证AI云基础设施高景气度 [8] 算力市场结构演变与边缘计算 - 算力市场存在结构性矛盾:大量“智算中心”由旧数据中心改造而来,单机柜功率提升后空间与电力配套严重浪费,许多项目无法有效运转 [9] - AI需求从模型侧训练算力转向应用端推理算力:训练算力需要英伟达H100/H200等高性能GPU,而推理算力可有更高性价比芯片选择,且不完全依赖数据中心,边缘算力服务器节点也可满足需求 [9] - 边缘计算市场高速增长:全球边缘及终端AI推理芯片市场规模2024年达3792亿元,预计2030年将扩增至16123亿元,年复合增长率达27.3% [10] - 算想科技聚焦边缘计算算力租赁,计划在人口密度大的城市周边布局算力节点,目标2026年达到5万卡GPU并织就覆盖全国的边缘计算网 [10] 绿色算力与液冷技术发展 - 数据中心能耗密度指数级跃升:高盛预测到2027年,AI服务器单机架功率密度将是5年前普通云服务器的50倍;电力供应成为AI扩展的关键瓶颈 [10][11] - 液冷方案是降低PUE、实现绿色算力的关键:相比传统风冷PUE普遍在1.5以上,液冷方案PUE可降低至1.1~1.2,催生液冷服务器需求爆发 [1][11] - 浸没式液冷是未来行业趋势,行业增长规模呈指数级;液冷冷却液(如氟化液、有机硅油)是数据中心散热核心材料 [11][12] - 硅油冷却液在性能、安全环保与成本等方面有相对优势,有望迎来规模化应用;国内企业如新安股份、润禾材料已推出硅基冷却液产品并实现销售 [2][12] - 新安股份与算想科技落地首个商用浸没式硅基液冷算力项目,单机柜功率密度达210kW,验证了硅基液冷材料在真实负载下的可靠性与经济性,为规模化复制提供样板 [12][13] - 算想科技液冷服务器占比当前不到5%,但预计后续将达到60%~70%,2026年将加大液冷服务器布局力度 [12]
新型光传输系统问世
环球网资讯· 2026-02-24 09:28
行业技术背景与挑战 - 随着计算范式从中心化云端向分布式边缘演变 边缘节点如基站 自动驾驶车辆 工业网关需要更高的海量实时数据处理能力[1] - 光通信作为数据传输的大动脉 其核心性能取决于激光质量 传统集成光源面临噪声大 线宽宽的问题 限制了传输精准度[1] - 支撑智能场景的海量数据在边缘节点间传输 但传统光通信设备体积庞大 能耗高昂 严重制约了边缘智能的广泛部署[1] 技术突破核心 - 研究团队在国际上率先研制出基于集成微光梳的轻量化相干光传输系统[1] - 团队利用自注入锁定技术 在微型芯片上雕刻出高品质光频梳 将激光线宽压缩至600赫兹以下 相干性远超高性能商用激光器[2] - 凭借该技术 单波长传输速率突破1Tbit/s 并在多芯光纤中实现了215.04Tbit/s的总传输速率[2] 系统微型化与性能 - 团队去除了传统庞大台式设备 采用只有硬币大小的集成芯片与半导体光放大器 实现了系统微型化[2] - 该芯片级系统体积仅为传统系统的百分之一左右[1][2] - 该微型化平台在10公里传输中稳稳承载了5Tbit/s的聚合容量[2] 技术应用前景 - 这种高容量 低功耗 微型化的传输系统将成为未来低空智能 具身智能 绿色数据中心等诸多前沿领域不可或缺的大动脉[3] - 该技术为我国在下一代高密度计算网络建设中构建核心优势提供了坚实的技术支撑[3] 边缘计算概念解析 - 边缘计算将计算能力从遥远的中央大脑下沉到身边的神经末梢 如手机 路灯传感器等[4] - 与云端计算相比 边缘计算反应速度飞快 并能就地处理大量琐碎数据 只将关键结果上传云端 极大减轻了网络和数据中心的压力[4]
酷睿200s全大核新品规格曝光 但游戏玩家用不了
新浪财经· 2026-02-23 12:16
Bartlett Lake-S系列产品规格与定位变更 - 英特尔已取消原计划面向消费级游戏市场的CPU上市计划,该系列将仅面向边缘计算与嵌入式领域供货 [1] - 该系列产品线分为三类:高端PQE系列基础功耗125W,中端PE系列设计功耗65W,入门PTE系列TDP为45W [2][3] - 全系列提供8核、10核、12核三种核心规格,均支持超线程技术,对应16、20、24线程 [3] 旗舰产品核心规格 - 旗舰型号为Core 9 273PQE,采用12核24线程纯性能核设计,基础频率3.4GHz [2] - 该处理器支持全部12个核心同时睿频至5.3GHz,单核最高可加速至5.9GHz [2] - 该型号配备36 MB三级缓存,并集成拥有32个执行单元的Xe LP核显 [2] 产品功能与市场支持 - 高端PQE系列全部型号标配vPro技术和ECC内存支持 [2][3] - 中端PE与入门PTE系列的部分型号不支持vPro与ECC内存 [3] - 英特尔不会为游戏玩家在LGA1700平台上提供官方支持,消费级市场的正式发布已取消,部分主板厂商可能通过BIOS更新提供兼容 [1][3]
酷睿200E参数曝光:12大核超强性能
新浪财经· 2026-02-23 11:10
产品规格与定位 - 英特尔酷睿200E系列处理器采用纯性能核设计,最高配备12颗P核,单核睿频达5.9GHz,兼容现有LGA-1700插槽,被视作该接口的收官之作 [1] - 该系列按功耗分为125W PQE系列、65W PE系列和45W PTE系列三档,全系覆盖8、10、12核版本且均支持超线程技术 [3] - 旗舰型号Core 9 273 PQE为12核24线程,配备36M L3缓存与32EU Xe-LP核显,基频3.4GHz、全核5.7GHz,单核睿频5.9GHz,频率追平上代i9-14900K [3] 市场策略调整 - 英特尔已调整上市计划,取消酷睿200E的消费级市场布局,将其仅面向边缘计算与嵌入式产品领域 [3] - 英特尔消费级处理器的研发重心已转向LGA-1851接口的Arrow Lake Refresh,以及桌面版Nova Lake-S系列,新一代游戏处理器将从这两大系列中落地 [3]
爱芯元智午后涨超19% 公司为全球第一大中高端视觉端侧AI推理芯片提供商
新浪财经· 2026-02-20 13:32
公司股价与交易动态 - 爱芯元智(00600)午后股价上涨19.60%,现报33.80港元 [1][5] - 当日成交额为2.23亿港元 [1][5] 核心业务进展 - 公司自研的面向高阶智能驾驶应用的旗舰芯片产品M97已于近日回片并顺利点亮 [1][5] - M97芯片是公司智能汽车业务迈向高端化的核心产品 [1][5] - M97是继M55H、M76H、M57系列后的全新一代智能汽车芯片 [1][5] - 该芯片凝结了公司在芯片设计和研发领域的核心创新成果 [1][5] 公司市场地位 - 爱芯元智是人工智能推理系统芯片的供货商,专注为边缘计算与终端设备AI应用打造高性能感知与计算平台 [1][5] - 据灼识咨询报告,按2024年出货量计算,公司已成为全球第一大中高端视觉端侧AI推理芯片提供商 [1][5] - 公司在全球视觉端侧AI推理芯片市场排名前五 [1][5] - 公司在中国边缘AI推理芯片市场位列第三 [1][5] - 公司在智能驾驶SoC领域为中国第二大国产供应商 [1][5]
AI催生巨量Token消耗、内存硬件紧缺 算力租赁热潮下 运营商加码布局液冷服务器
每日经济新闻· 2026-02-15 19:36
AI应用与Token消耗激增 - AI应用正从聊天对话框走向物理世界,国内外科技巨头通过红包大战和桌面智能体应用推广,加速用户向聊天机器人和智能体迁移 [1] - AI大模型及应用的发展带来内存和存储需求增加,导致Token消耗量持续快速增长 [3] - 截至2025年12月,字节跳动豆包大模型日均Token使用量突破50万亿,较上年同期增长超过10倍,相比2024年5月推出时增长达417倍 [4] - 截至2025年10月,谷歌各平台每月处理的Token用量达1300万亿(日均约43.3万亿),而一年前月均仅为9.7万亿 [4] 算力需求与成本连锁反应 - Token用量的指数级增长推升推理量,加速了Token消耗,并引发算力连锁反应 [2][4] - 云服务厂商开始上调价格,亚马逊云于2026年1月23日上调其EC2机器学习容量块价格约15%,谷歌云也宣布自2026年5月1日起对AI与计算基础设施服务进行价格调整 [5] - 国内高性能AI算力板块受芯片供应与电力、散热等基础设施瓶颈限制,实际成本压力持续上升,部分头部云服务商正评估对专属AI集群或预留型算力产品进行结构性调价 [5] - 若GPU资源持续紧缺,国产云平台可能适度跟进国际定价趋势,推动行业进入“价值导向”新阶段 [5] 算力租赁市场供不应求 - 内存和GPU价格上涨促使更多AI公司从自建算力转向算力租赁,算想科技购买的服务器价格比2025年初上涨约30%,算力租赁价格相应上涨20%~30% [7] - 市场对算力需求增加,算力租赁目前基本处于供不应求状态,只要有算力服务器基本不愁租 [7] - 英伟达于2026年1月26日宣布向AI云端运算企业CoreWeave投资20亿美元,以加速其在2030年前增加超过5GW AI计算能力的进程,验证了AI云基础设施的高景气度 [8] - AI大模型训练和推理需求的快速增长是存储行业复苏的核心动力,高性能存储产品需求爆发式增长,HBM成为AI服务器核心配套器件和头部厂商业绩增长支柱 [6] 边缘算力与算力结构演变 - AI价值主战场正在端侧与边缘侧全面展开,市场正从模型侧竞争走向应用端竞速,推理算力需求凸显 [9] - 推理算力可以有更高性价比的芯片选择,布局上不完全依赖数据中心,边缘算力服务器节点也可以满足市场需求 [9] - 全球边缘及终端AI推理芯片市场规模已于2024年达到3792亿元,预计至2030年将扩增至16123亿元,年复合增长率达27.3% [10] - 算想科技计划在人口密度大的城市周边布局算力节点,目标在2026年达到五万卡GPU,并织就一张覆盖全国的边缘计算网 [10] - 大量由旧数据中心改造的“智算中心”存在结构性矛盾,单机柜功率提升后,空间与电力配套严重浪费,许多项目无法有效运转 [9] 液冷技术成为绿色算力关键 - AI服务器功率密度激增,据高盛预测,到2027年,AI服务器单个机架的功率密度将是5年前普通云服务器的50倍,供电能力成为AI扩展的关键瓶颈 [10][11] - 国家政策对数据中心能耗约束趋严,新建大型及以上数据中心PUE需≤1.25,改造后存量数据中心PUE需≤1.5,推动绿色算力发展 [11] - 相比传统风冷PUE普遍在1.5以上,液冷方案PUE可降低至1.1~1.2,强劲驱动力正推动液冷市场实现数量级的规模扩张 [2][11] - 浸没式液冷服务器是未来行业趋势,行业增长规模呈指数级,浸没式液冷未来有非常大的发展空间 [11] 液冷产业链发展与商业化 - 在浸没式液冷技术路径上,氟化液、硅油、合成油多种介质并存,其中硅油冷却液从性能、安全环保与成本综合考虑有相对优势,未来有望迎来规模化应用 [2] - 算想科技目前液冷服务器占比不到5%,但预计后续占比将达到60%~70%,2025年公司在液冷服务器设计布局上取得技术突破平抑了部分成本,2026年将加大布局力度 [12] - 新安股份携手算想科技在杭州落地首个商用浸没式硅基液冷算力项目,采用高功率密度浸没式液冷架构,单机柜功率密度达210kW,该项目已正式投入运行 [12] - 该项目验证了硅基液冷材料在真实负载环境下的可靠性与经济性,为后续规模化复制提供了成熟样板,推动有机硅业务向算力基础设施等高附加值终端应用升级 [13] - 英伟达采用陶氏化学的有机硅冷却液,国内硅基冷却液赛道中,润禾材料、新安股份等企业已推出相关产品并实现销售 [12]
未知机构:CDN需求加速爆发逻辑梳理分享事件Cloudflare被很多-20260213
未知机构· 2026-02-13 10:40
涉及的行业与公司 * **行业**:内容分发网络行业[1] * **公司**:Cloudflare[1]、网宿科技[2]、Akamai[4]、谷歌云[2][5]、亚马逊AWS[5] 核心观点与论据 行业逻辑:AI驱动CDN需求爆发与价值重估 * **核心催化剂**:AI Agent的爆发是当前最强劲的催化剂,其数量和用户使用频率与CDN的需求量直接正相关[2][5] * **需求变化**:AI应用对数据传输的并发量和实时性要求呈指数级增长,AI Agent一次提问可能同时检索上百个网页、图片和视频[2] * **角色演变**:CDN与AI的关系已从简单的“加速管道”演变为深度共生的“战略伙伴”,并进一步升级为AI时代的“算力基石”[3][4] * **量价齐升**:AI带来的数据传输量激增推高网络成本,行业正从低价竞争转向价值回归,谷歌云和亚马逊AWS已在2026年1月上调相关服务价格[5] * **价值重估**:作为支撑AI实时交互的关键基础设施,提供高性能边缘计算服务的CDN厂商战略价值被重新认识,商业价值有望得到市场重估[5] 技术演进:从传输管道到边缘计算平台 * **功能扩展**:CDN正在从单纯的“传输管道”升级为集“计算、存储、传输、安全”于一体的边缘计算平台[4] * **节点升级**:CDN边缘节点演进为具备AI推理能力的分布式智能单元,例如网宿科技和Akamai将其节点升级为边缘AI平台[4] * **核心优势**:将AI计算任务卸载到边缘节点,能将端到端延迟控制在10毫秒以内,并减轻中心服务器负载[4] * **基础定位**:CDN通过全球边缘节点网络将算力下沉,是满足AI应用(如自动驾驶、工业机器人)毫秒级响应要求的关键[4] 市场动态:产品提价印证行业趋势 * **价格调整**:谷歌云率先将CDN互联服务价格翻倍[2];网宿科技将CDN产品标准服务组流量价格上调35%,快速回源通道流量价格上调40%[2] * **趋势信号**:主要云服务商上调数据传输和机器学习服务价格,打破了云服务价格“只降不升”的传统[5] CDN机房盈利模式 流量销售与服务费 * **流量差价**:通过规模化集采带宽,再以高于采购成本的价格转售给客户,赚取差价[6][7] * **按需定价**:根据客户需求量、带宽规格和服务等级制定差异化价格策略[7] * **加速服务费**:为客户提供内容分发加速服务并收取费用[7] * **缓存服务费**:为客户提供内容缓存服务以提升加载速度,并收取费用[8][9] * **安全服务费**:提供DDoS防护、WAF等安全服务,根据服务级别收取费用[10][11] 基础设施与增值服务 * **设备租赁**:将服务器、网络设备等租赁给客户,收取稳定的租赁费用[12] * **机房托管**:为客户提供机房空间、电力、网络等托管服务,收取机柜租金、电费等[13][14] * **边缘计算服务**:在CDN节点部署边缘计算能力,为客户提供数据处理、分析等服务并收费[14][15] * **数据分析服务**:分析网络流量和用户行为数据,为客户提供数据洞察服务并收费[16][17] 合作与广告分成 * **广告展示**:在加速的内容页面展示广告,按展示、点击或转化情况收取广告费用[18][19] * **合作分成**:与内容提供商、互联网企业合作,共同开展业务并按比例分享收益(如视频广告分成、游戏内购分成)[20]
爱芯元智 拓展智能汽车等市场
中国证券报· 2026-02-13 05:55
公司上市与募资 - 爱芯元智于2月10日在香港交易所主板上市,发行价为28.20港元/股,募集资金总额为29.61亿港元 [1] - 截至2月12日收盘,公司股价报24.12港元/股,已跌破发行价,总市值为142亿港元 [4] 业务聚焦与市场地位 - 公司是边缘计算AI芯片企业,核心业务为销售半导体产品及提供相关技术服务 [2] - 公司聚焦终端计算、智能汽车与边缘AI推理三大领域,产品已落地于智慧城市、智能交通、智慧家居、智慧制造及智能消费等多个场景 [2] - 公司采用无晶圆厂模式,专注于芯片设计和销售,旨在扩大视觉端侧AI推理SoC的生产规模,并拓展至智能汽车等成长型市场以及边缘计算等新兴市场 [2] - 根据灼识咨询数据,按2024年出货量计,爱芯元智在全球视觉端侧AI推理芯片市场排名前五 [2] - 2024年,公司的AI推理SoC出货量达930万颗 [2] 财务表现与收入构成 - 公司收入呈现快速增长态势:2022年收入为5023万元,2023年为2.30亿元,2024年为4.73亿元,2025年前三季度为2.69亿元 [5] - 公司同期经调整的净亏损为:2022年4.44亿元,2023年5.42亿元,2024年6.28亿元,2025年前三季度4.62亿元 [5] - 2025年前三季度,终端计算产品带来的营业收入为2.35亿元,占总营收的比重为87.2% [3] - 2025年前三季度,智能汽车产品带来的营业收入为1725.9万元,占总营收的6.4% [3] - 2025年前三季度,边缘AI推理产品带来的营业收入为1598.3万元,占总营收的5.9% [3] - 2025年前三季度收入增长主要归因于成功收购浙江华图微芯技术有限公司、终端计算产品的持续拓展以及智能车载SoC与边缘AI推理产品销售的快速增长 [5] 研发投入与战略收购 - 公司处于资金投入期,研发费用支出较大:2022年为4.46亿元,2023年为5.15亿元,2024年为5.89亿元,2025年前三季度为4.14亿元 [6] - 公司通过收购进行业务拓展与整合:2023年收购浙江芯昇电子技术有限公司的控制权,并于2023年10月31日取得其控股公司浙江华图的控制权实现并表 [5] - 目前,公司持有浙江华图99.04%的股权 [5] - 收购浙江芯昇后,公司扩大了产品组合,并通过吸纳人才、整合专业知识加速研发,实现了规模经济和运营效率的提升 [5] 行业趋势与募资用途 - 基于Transformer架构的AI大模型快速发展,但其庞大的计算与内存需求通常仅能部署于云端 [2] - 云端部署存在的延迟及隐私风险等问题,正推动行业向边缘推理架构延伸,催生出新的应用场景 [2] - 为使AI大模型能无缝整合到日常活动中,高效且经济的AI推理芯片(如NPU)变得不可或缺 [2] - 公司上市募集资金将用于:投资优化现有技术平台以提升产品性能与效率并推出新产品;投资研发项目以拓展业务范围;拓展销售;进行股权投资或收购以整合上下游资源;以及用于营运资金及其他一般公司用途 [6]