GLM套餐
搜索文档
太初元碁适配40+AI大模型,国产大模型爆发红利正向上游加速传导
观察者网· 2026-02-19 18:10
行业趋势:国产大模型进入密集爆发与“周更”时代 - 自2026年元旦以来,行业全面跨入“周更”时代,大模型迭代节奏已从季度级压缩至周级 [1] - 马年春节前后,国产大模型集中引爆,例如月之暗面发布Kimi K2.5,智谱GLM-5开源排名全球第一,阿里云千问Qwen3.5-Plus上线 [2][3] - 多模态大模型正成为算力消耗新引擎,国内AI应用收入Top30产品中多模态占比高达67% [4] 算力需求:模型爆发驱动上游需求激增 - 大模型密集发布背后是真金白银的算力投入,字节2026年AI芯片预算约850亿元,阿里巴巴未来三年在AI与云基础设施投入至少约3800亿元 [3] - 需求已开始向价格端传导,智谱宣布GLM套餐涨幅30%起,供需紧张信号清晰可见 [3] - 多模态应用落地显著拉升单次调用推理token量,火山引擎大模型推理日均Token调用量从2024年底的2万亿增长至2025年底的63万亿 [4] - 训练、推理、多模态算力需求全面扩张,为国产AI芯片打开市场空间 [4] 公司进展:太初元碁完成大规模模型适配 - 公司于2月18日完成智谱GLM-5.0、阿里千问Qwen3.5-397B-A17B等大模型的深度适配 [1] - 截至目前,已完成包括DeepSeek、Qwen、GLM、Intern-S1、文心等在内的40+AI大模型的即发即适配 [1] - 所有适配均在其自研T100加速卡上完成,覆盖大语言模型、向量模型、多模态理解与生成模型、OCR模型及科学多模态大模型等多个类别 [5][6] 生态竞争:软件定义硬件与CUDA壁垒松动 - 英伟达拥有400多万开发者积累的CUDA软件生态,但护城河正经历松动,例如有开发者仅用30分钟就将CUDA代码移植到AMD ROCm [7] - 软件定义硬件的趋势日益明显,AI模型自身正在反向瓦解硬件绑定的生态 [7] - 公司推出阶梯式工具链以降低开发门槛,包括SDAACopilot(小时级生成并通过3000个算子测试)、Teco-Triton、SDAAC及PCX虚拟指令集 [7] - 关键工具Teco-vLLM允许基于GPU开发的vLLM原生应用无需修改即可无缝迁移至公司硬件,实现零成本兼容AI主流任务 [8] 公司战略:国产算力的三个核心发力方向 - 第一是集群性能,需构建产品真正的集群性能以支持数万张算力卡互联并行工作,公司采用ScaleUP、ScaleOUT双层高速互联等技术构建高密度系统集成 [9] - 第二是推理性价比,以高性价比、低延迟和能效优化为核心设计推理产品是赢得市场份额的关键路径 [9] - 第三是生态建设,必须发展开发者社区、支持AI编译器,让用户无感地从CUDA生态迁移过来 [10] 资本动态:赛道估值重估与资本涌入 - 公司于2026年2月10日完成新一轮“A+轮”融资,由浦东科投、普丰资本、中科图灵参与 [10] - 资本将目光投向仍处成长期、走“超智融合”路线的公司,是对商业化落地初见成效企业的自然押注 [10] - 整个赛道估值重估正在同步发生,月之暗面、智谱、MiniMax等大模型厂商的估值近期均实现大幅跃升 [11]