Workflow
智谱(02513)
icon
搜索文档
春节后第二个交易日,港股高开高走,科网股集体上涨,智谱盘中跌超20%、MINIMAX跌超10%|开盘播报
每日经济新闻· 2026-02-23 09:58
市场整体表现 - 2月23日,香港恒生指数高开高走,收盘上涨1.46%,盘中涨幅一度扩大至2% [1] - 恒生科技指数表现更强,收盘上涨1.77%,盘中涨幅一度超过3%,报5368.750点 [1] 科网股表现 - 科网股集体上涨,网易上涨3.74%,报186.000港元 [3][4] - 快手-W上涨3.01%,报68.500港元 [3][4] - 京东集团-SW上涨2.60%,报106.500港元 [4] - 美团-W上涨2% [3] - 阿里巴巴-W上涨1.90%,报149.900港元 [4][5] - 腾讯控股上涨1.44%,报529.500港元 [3][5] - 哔哩哔哩-W上涨1.74%,报233.600港元 [5] - 京东健康上涨3.34%,报58.750港元 [4] 芯片股表现 - 芯片股走强,华虹半导体上涨4% [3] - 中芯国际上涨逾3% [3] 黄金股表现 - 黄金股走强,中国黄金国际上涨近7% [3] - 山东黄金上涨逾5% [3] 其他个股表现 - 携程集团-S上涨2.07%,报424.400港元 [5] - 腾讯音乐-SW上涨2.05%,报59.650港元 [5] - 比亚迪股份上涨1.83%,报97.200港元 [5] - 舜宇光学科技上涨1.49%,报57.800港元 [5] 人工智能概念股异动 - 智谱股价盘中大跌超过20%,截至发稿跌幅收窄至近13%,最新报571.000港元,下跌154.000港元 [5][6] - MINIMAX股价盘中大跌超过10%,截至发稿下跌10.21%,最新报871.000港元,下跌99.000港元 [5][6] - 智谱公司发布致歉信,承认GLM-5发布后存在透明度不够、灰度节奏太慢、老用户升级机制设计粗糙三大问题,并提出了处理和补偿方案 [6] - 致歉信提到,GLM-5发布后流量超出预期,公司扩容节奏未能跟上,导致GLM-5按照Max、Pro、 Lite的顺序逐步开放 [6]
港股大模型“双雄”智谱、MINIMAX大幅低开,智谱跌超13%,就GLM Coding Plan问题致歉
新浪财经· 2026-02-23 09:33
市场行情表现 - 港股市场中被视为大模型的“双雄”公司智谱与MINIMAX股价出现大幅低开 [1][4] - 智谱(代码02513)最新价为625.000,股价下跌幅度为13.79% [2][5] - MINIMAX(代码00100)最新价为873.000,股价下跌幅度为10.00% [2][5] 核心事件与原因 - 股价下跌的直接消息面原因与智谱公司发布的一封致歉信有关 [2][5] - 该致歉信针对其旗下人工智能程序订阅套餐“GLM Coding Plan”的改版问题 [2][5] - 公司承认此次改版主要存在三个方面的错误:规则透明度不够、GLM-5灰度节奏太慢、老用户升级机制设计粗糙 [2][5] - 智谱公司已公布针对此事件的处理和补偿方案 [2][5]
AI大牛股智谱重磅发布!四大创新来袭 多家国产芯片“入列”
新浪财经· 2026-02-23 08:33
公司核心产品发布 - 智谱于2月22日正式发布下一代基础模型GLM-5,旨在推动编程范式从“氛围编程”转向“智能体工程” [1][12] - GLM-5在前代GLM-4.5的智能体、推理与编程能力基础上,采用稀疏注意力机制以大幅降低推理成本,同时保持长上下文能力无损 [1][12] - 该模型在真实世界编程任务中展现出前所未有的能力,在处理端到端软件工程挑战方面超越了此前所有开源基线 [1][3] - 在主流的开放基准测试中实现了SOTA性能,并在ArtificialAnalysis.ai、LMArena文本与代码等主要榜单中均达到SOTA水平 [3][14] 四大技术创新 - **引入DSA稀疏注意力机制**:全新架构极大降低了训练与推理成本,使模型能根据Token重要性动态分配注意力资源,算力开销大幅削减 [3][16] - 得益于DSA机制,模型参数规模成功扩展至744B(7440亿),同时训练Token规模提升至28.5T(28.5万亿) [3][16] - **构建全新异步RL基础设施**:实现了“生成与训练”的深度解耦,将GPU利用率推向极致,支持大规模智能体轨迹探索,大幅提升RL后训练效率 [4][16] - **提出全新异步Agent RL算法**:使模型能够从多样化的长周期交互中持续学习,针对动态环境下的规划与自我纠错能力进行深度优化 [4][17] - **全面拥抱国产算力生态**:GLM-5原生适配中国GPU生态,已完成深度优化,全面兼容华为昇腾、摩尔线程等七大主流国产芯片平台 [4][17] 市场反应与商业化 - GLM-5发布后,其专门为AI编程场景推出的付费订阅服务GLM Coding Plan上线即售罄,需求火爆 [7][19] - 由于供不应求,公司宣布上调GLM Coding Plan套餐价格,中国区涨价30%,海外版涨价超100% [1][10][21] - 此次提价使公司成为国内首家对大模型商业化服务进行提价的AI原生企业 [10][21] - 在海外市场走红,在Coding与Agent能力上取得开源SOTA表现,在真实编程场景的使用体感逼近Claude Opus4.5 [10][21] 股价表现 - 2月20日,公司股价单日大涨42.72%,报725港元/股,股价再创新高 [1][11] - 公司总市值达3232亿港元,上市43天股价累计涨幅已超500% [1][11] 运营挑战与用户补偿 - GLM-5发布后流量超出预期,公司扩容节奏未能跟上,同时遭受灰产号池和黄牛党冲击,恶意占用了大量资源 [8][19] - 公司不得已将GLM-5按照Max、Pro、Lite的顺序逐步向不同套餐用户开放 [8][19] - 目前Max用户已全面开放,Pro用户在高峰期可能限流,Lite用户将在节后非高峰期逐步灰度开放 [9][20] - 针对受影响的Lite和Pro用户,公司承认规则透明度不够、灰度节奏太慢等问题,并支持用户自主申请退款 [6][17][21]
无视海外“AI恐慌” 中国市场狂炒AI赢家
智通财经网· 2026-02-23 07:46
文章核心观点 - 中美市场对人工智能的投资情绪出现显著分化 美国投资者因担忧现有商业模式被颠覆而抛售相关股票 中国投资者则聚焦于AI的增长机遇和降本潜力而大举追捧AI概念股 [1] - 中国市场情绪高涨 新上市AI公司股价飙升 新模型发布和技术突破成为重要估值催化剂 [4][5] 市场情绪与投资逻辑分化 - 美国市场陷入“AI恐慌交易” 投资者抛售软件公司和财富管理机构 [1] - 中国市场大举追捧人工智能概念股 投资者将AI新进展视为催化剂 [1][6] - 投资逻辑存在根本差异 美国投资者焦虑于丰厚利润池面临竞争威胁 中国投资者专注于AI能带来的帮助和市场渗透机遇 而非其颠覆性 [1][3] 中国AI概念股市场表现 - MiniMax和智谱AI成为投资者宠儿 两家公司股价在2月均翻倍 [1] - 智谱AI自1月在香港上市后股价一度飙升524% MiniMax大涨488% [4] - 其他近期上市的中国AI相关股票表现强劲 芯片设计商壁仞科技自1月2日上市以来涨幅超80% 澜起科技自2月9日挂牌以来飙升逾98% [4] - 纯AI概念股正从传统互联网巨头手中抢夺资金 [1] 估值驱动因素 - 新模型发布和融资数据推动了估值重估 中国AI估值存在上行空间 [5] - 智谱AI发布的最新大语言模型GLM-5在基准测试中超越竞品 成为全球开源模型榜首 这是中国AI实验室有史以来取得的最高排名 [5] - 美国AI公司的高估值产生光环效应 OpenAI接近以超过8500亿美元估值融资逾1000亿美元 Anthropic在2月初以3800亿美元估值融资300亿美元 [4] - 市场预期DeepSeek将发布下一代模型 且其成本竞争力可能加速用户采纳 可能提振整个板块 [5] 行业影响与市场结构 - 每一项AI新进展被视为催化剂 不仅利好开发者 也惠及新工具的使用者 例如字节跳动推出视频制作应用引发影视传媒股集体上涨 [6] - 中国市场参与者与全球投资者的分歧反映出中国AI格局在结构上的独特性 [6] - 全球范围内构建大模型的上市公司稀缺 使得MiniMax和智谱AI等公司受到投资者青睐 [4]
“全球大模型第一股”道歉!称“挨打要立正”
搜狐财经· 2026-02-22 23:57
公司动态与致歉声明 - 智谱AI于2月21日发布致歉信,承认GLM-5发布后存在三大问题:GLM Coding Plan透明度不够、GLM-5灰度节奏太慢、老用户升级机制设计粗糙 [1][8] - 公司提出全面补偿方案,包括为受影响用户退款、为所有用户延长15天使用期,并为误升级用户提供“一键回滚”至老套餐权益的服务 [7][15][18] - 公司承诺未来涉及用户核心权益的调整将提前说明并给出“选择期” [22] GLM-5模型发布与市场反应 - 智谱AI于2月12日发布新模型GLM-5,该模型在Coding与Agent能力上取得开源SOTA表现 [5] - GLM-5发布后需求激增,访问量突破规划上限,导致服务出现排队、延迟及卡顿,公司虽进行扩容但仍供不应求 [5][6] - 为应对算力需求,公司启动“算力合伙人”招募计划,寻求与芯片厂商、算力伙伴及推理服务商合作 [5] 业务运营与用户策略调整 - GLM-5模型参数规模是GLM-4.7的两倍以上,定位为效果逼近Claude Opus 4.5的“大杯”模型 [6][9] - 公司采用分层使用策略:日常简单任务建议使用GLM-4.7,GLM-5按高峰期3倍、非高峰期2倍计算消耗 [6][10] - 为提升透明度,公司已优化使用看板刷新频率至10分钟,并在购买页明确展示Lite、Pro、Max各套餐的详细使用限额 [11][12] 财务状况与市场表现 - 智谱AI面向全球开发者的模型业务(GLM Coding Plan)年度经常性收入(ARR)已超过1亿元人民币(约1400万美元) [5] - 截至2月20日最新交易日,公司股价单日暴涨42.72%至725港元,市值突破3200亿港元 [2] - 当日成交额为32.41亿港元,成交量为526.69万股,换手率为2.38% [3]
国联民生证券:Token需求在“通胀” 短期观察大模型厂商提价与需求带来的边际改善
智通财经· 2026-02-22 21:33
核心观点 - 大模型产业的定价逻辑正发生根本性转变,计量单位从传统互联网的“免费流量”转变为“Token消耗”,Token成为可计量、有成本的生产资料 [1][3][4] - 智谱GLM Coding Plan涨价(涨幅“至少30%”)是这一转变的关键信号,反映了模型厂商正将“算力稀缺”通过分层定价和订阅化产品转化为毛利与现金流 [1][2][4] - Token需求呈现结构性“通胀”,即单位用户和单位时间内的Token消耗量快速上升,这由应用从简单问答转向复杂任务、从单轮交互转向多轮Agent执行、以及推理强度上升等因素驱动 [1][5][6] - 行业短期关注提价与需求增长带来的边际改善,中期关注企业席位与订阅留存,长期则看好AI安全与治理工具带来的新增市场 [1][7] 行业定价逻辑的颠覆性变化 - 传统互联网软件依赖近乎零的边际成本,通过免费获取用户规模后变现,而大模型服务的每一次推理都需消耗GPU、显存、带宽与电力,具有真实的、可计量的成本 [3][4] - 行业计量单位从流量(DAU/时长)转向Token(推理消耗),Token在越来越多场景中成为用户完成生产任务的刚需“燃料” [3][4][6] - 云计算时代已教育市场接受“按量计费”,大模型厂商正借鉴此模式,将服务明确为资源和SLA的交付 [3] - 当需求增长导致算力资源紧张时(如智谱曾因用户增长进行“限量发售”),涨价成为比无差别限流更优的需求筛选与体验保障机制,并有助于模型厂商改善盈利模型 [4] 近期涨价事件与产业信号 - 智谱于2月12日宣布上调GLM Coding Plan订阅价格,涨幅“至少30%” [2] - 此次涨价并非孤立事件,同期海外云厂商也纷纷提价,例如Google Cloud在北美涨价幅度达100%,在欧洲与亚洲同步上调,AWS价格也上调约15% [2] - 综合来看,Token需求的“通胀”不仅利好云端算力提供商,也增强了模型厂商自身的定价权 [2] - 智谱的涨价行为发生在行业仍处“模型价格战”的背景下,更具标志性意义,表明头部厂商开始尝试扭转“规模越大亏损越多”的困境 [3][4] Token需求“通胀”的驱动因素 - **应用场景深化**:用户使用模型从简单“问答”转向实际“干活”,如重构代码、改写文件、生成文档和跑测试等,编程场景的长上下文、多轮迭代、大量输出特征导致Token消耗快速增长 [5] - **交互模式演进**:从“单轮”交互发展到“Agent多轮”协作,Agent会主动规划、检索、执行、反思,多次调用模型,使得Token消耗按步骤累加,智谱GLM-5与MiniMax-WP的M2.5模型均重点面向此类场景 [5] - **推理强度上升**:用户为获得更高成功率与更少返工,倾向于进行更深度思考与更长链路推理,这显著提高了输出与中间过程的Token消耗,用户愿意“多烧Token换效率” [6] 产业链各环节的投资关注点 - **云厂商与算力基础设施**:AI拉动的IT支出与基础设施投入仍处上行周期,云侧将受益于GPU算力、存储与网络I/O等“伴随型消耗”的持续增长 [7] - **大模型厂商**:关键在于能否在编程、Agent、企业流程等高投资回报率场景中维持订阅留存与企业席位扩张,将“Token用量”稳定转化为“省人省时省返工”的交付价值,从而具备穿越开源与价格战周期的能力 [7] - **安全治理与运行时防护工具**:随着企业将AI深度嵌入工作流,数据泄露、代理越权等风险将推动“AI安全平台/治理平台”成为刚需,长期看好“AI防火墙”相关的新增市场 [7]
AI进化速递丨智谱发布GLM-5技术报告
第一财经· 2026-02-22 21:05
公司业务与运营状况 - 华工科技的联接业务订单已排期至2026年第四季度,显示需求强劲且能见度高 [1] - 公司为满足需求,其AI高速光模块产线正以24小时满负荷状态运转 [1] 行业技术动态 - 阿里云Coding Plan已支持千问3.5、GLM-4.7、Kimi-K2.5等多个主流AI模型 [1] - 智谱公司公开发布了GLM-5的技术报告,披露了全部技术细节 [1]
“全球大模型第一股”智谱道歉!
广州日报· 2026-02-22 20:09
公司股价与事件概述 - 公司股价在2月20日暴涨超过40% [2] - 次日公司就GLM Coding Plan服务问题发布致歉信 [2] GLM-5发布后暴露的问题 - 规则透明度不足:为应对GLM-5更高的算力消耗,公司设计了分层使用策略,将高峰期消耗提升至3倍、非高峰期2倍,但未向用户清晰说明,导致用户抱怨消耗变快 [6] - 灰度节奏太慢:GLM-5发布后流量远超预期,叠加灰产号池和黄牛党恶意占用资源,公司扩容节奏滞后,不得不分阶段开放服务,导致大量Pro和Lite用户无法正常使用 [6] - 老用户升级机制粗糙:部分老用户在2月12日至16日期间误升级到新套餐,权益受损 [7] 用户服务现状与补偿方案 - Max用户已经全面开放 [6] - Pro用户虽已开放,但高峰期可能会因集群负载较高遇到限流 [6] - Lite用户将会在节后非高峰期逐步灰度开放 [6] - 针对受影响的Lite和Pro用户,公司支持自主申请退款 [6] - 包括Max用户在内的已使用GLM-5的用户及继续选择公司的用户,公司统一为其延长15天使用期 [6] GLM-5的技术表现与市场需求 - GLM Coding Plan是公司专门为AI编程场景推出的付费订阅套餐服务 [8] - GLM-5在代码能力、智能体表现等关键领域的开源模型评分中取得SOTA表现,在真实编程场景的使用体感逼近Claude Opus 4.5,擅长复杂系统工程与长程Agent任务 [8] - 新模型的强劲表现致使需求暴增,超出了公司的承载能力 [8] 算力挑战与合作计划 - 由于全球范围内对GLM-5的需求激增,并发访问量突破了既有规划的上限,导致服务出现排队、响应延迟及卡顿现象 [8] - 尽管公司已经多次对国产芯片集群进行扩容,并限量发售了GLM Coding Plan套餐,但依然无法彻底解决当前供不应求的局面 [9] - 公司于2月16日发布了全网寻找“算力合伙人”的计划 [8] - 计划旨在联合芯片厂商、算力伙伴与推理服务商等,共建更高并发、更低延迟的推理网络 [11] - GLM-5已完成与华为昇腾、摩尔线程、寒武纪、昆仑芯、沐曦、燧原、海光等7家主流国产芯片平台的深度推理适配与算子级优化 [11] 行业观察 - 公司的事件并非孤例,去年Anthropic的Claude 3.5发布时,也曾因流量爆表而被迫对Pro用户实施限额 [8] - 大模型从实验室走向市场的过程中,服务能力和商业化运营能力,正变得与技术实力同等重要 [8]
智谱发布GLM-5技术细节:工程级智能,适配国产算力
华尔街见闻· 2026-02-22 19:20
模型能力与定位的转变 - 模型核心思路从比拼参数规模转向比拼系统工程能力,标志着从“追赶”到搭建自有技术体系的转变 [2] - 模型能力实现从“Vibe Coding”(根据指令生成代码片段)到“Agentic Engineering”(自主规划、拆解、执行并完成复杂系统任务)的概念升级 [3] - 模型重点评估指标从单题得分转向工程级智能,包括处理200K上下文、完成跨文件软件工程、长周期任务规划与修正以及多轮交互一致性等复杂能力 [4] - 在衡量长期决策能力的Vending-Bench 2基准测试中,GLM-5在开源模型中排名第一,性能接近Claude Opus 4.5 [4] 核心技术创新:稀疏注意力与训练效率 - 采用创新的DeepSeek稀疏注意力机制,模型拥有7440亿参数,但激活参数为400亿,训练了28.5万亿个token [6] - DSA机制能动态判断关键token,在200K长上下文下将注意力计算量降低1.5至2倍,且实现了无损的性能,未牺牲精度 [7][8][9] - 对强化学习体系进行彻底改造,采用生成与训练解耦的异步架构,大幅提升训练吞吐量,解决了持续数小时的真实软件工程任务的学习稳定性问题 [11][13] - 技术创新实现了在同等算力下支持更长上下文、同等成本下获得更高推理能力、同等硬件下运行更大模型的效果 [12] 国产算力生态深度适配 - GLM-5实现了对国产GPU生态的原生深度适配,已兼容华为昇腾、摩尔线程、海光、寒武纪、昆仑芯、天数智芯、燧原等芯片 [14] - 适配重点在于解决国产芯片的软件栈难点,是面向多种国产算力平台的系统级优化,而非简单的“能跑” [14] - 通过软硬协同极致优化,GLM-5在单台国产算力节点上的性能可媲美由两台国际主流GPU组成的集群,在长序列处理场景下部署成本大幅降低50% [14] 完整的国产AI工程体系形成 - 技术路径形成完整闭环:从模型架构创新、训练效率优化、内存与通信压缩、低精度对接到国产芯片深度适配 [15] - 标志着中国AI产业优势从应用层开始进入架构创新、算法工程、训练系统、芯片适配、推理框架的全栈优化阶段 [15] - 技术报告详细披露训练流程、工程权衡与消融实验,关注GPU利用率、长尾延迟、KV cache复用等工业级系统问题,体现了技术成熟度 [18] - 此次突破的核心意义在于首次展示了中国AI在“体系能力”上的竞争力,实现了从做大模型到打通自有算力适配的跨越 [15][18]
新模型太火?智谱发致歉信、公布补偿方案
南方都市报· 2026-02-22 18:49
公司核心事件与致歉 - 智谱AI于2月21日就GLM-5发布后GLM Coding Plan存在的问题发布致歉信,承认存在透明度不够、灰度节奏太慢、老用户升级机制设计粗糙三大问题 [2] - 公司提出“挨打要立正”的态度,并公布了相应的处理和补偿方案 [2] 产品发布与市场反应 - 公司于2月12日发布新模型GLM-5,该模型在Coding与Agent能力上取得开源SOTA表现 [2] - GLM-5发布后流量超出预期,导致公司扩容节奏未能跟上,不得不将GLM-5按照Max、Pro、Lite的顺序逐步开放 [2][4] - 截至2月20日最新交易日,公司股价暴涨42.72%至725港元,市值突破3200亿港元 [2] 业务模式与财务表现 - GLM Coding Plan是公司重押的业务模式,其面向全球开发者的模型业务年度经常性收入已超过1亿元人民币,约合1400万美元 [3] - 由于全球需求激增,访问量突破规划上限,导致服务出现排队、延迟及卡顿,公司已对国产芯片集群进行扩容并限量发售套餐,但仍供不应求 [3] 价格与套餐调整 - 公司自2月12日起对GLM Coding Plan套餐价格体系进行结构性调整,取消首购优惠,保留按季按年订阅优惠,套餐价格整体涨幅自30%起,已订阅用户价格保持不变 [2] 技术细节与用户策略 - GLM-5的参数规模是GLM-4.7的两倍以上,定位是效果逼近Claude Opus 4.5的“大杯”模型 [4] - 公司设计了分层使用策略:日常简单任务优先用GLM-4.7,GLM-5按高峰期3倍、非高峰期2倍的消耗计算 [4] - 公司承认未提前向用户算清GLM-5的消耗账目是其失误 [4] 运营挑战与应对措施 - GLM Coding Plan近期遭受灰产号池和黄牛党冲击,恶意占用了大量资源 [4][9] - 公司启动“算力合伙人”招募计划,向芯片厂商开放核心技术接口以联合优化GLM-5,并与算力伙伴及推理服务商共建更高并发、更低延迟的推理网络 [3] - 数据看板刷新频率已从1小时优化至10分钟 [8] 用户补偿与退款方案 - 针对受影响的Lite和Pro用户,公司支持自主申请退款,退款遵循2026年1月1日至2月21日期间“智谱全部请客”的原则 [5][9] - 退款窗口将在节后一周内开启,截止至2026年3月6日 [10] - 老用户将退还2026年1月1日至今及剩余天数的全部金额,新用户将全额退还当前订阅周期内全部实付金额 [11] - 包括Max用户在内的已用上GLM-5及选择继续使用的用户,将统一获得15天使用期延期 [12] 用户升级问题处理 - 针对2月12日至16日期间从老套餐误升级到新套餐的用户,公司将提供一键回滚服务,发放同档位、同周期的老套餐权益并取消新套餐续费 [13] - 回滚产生的差额将由公司承担,遵循“钱多退,少不补”原则 [14] - 处理预计在节后1-2周内通过短信或邮件通知用户完成 [15] 未来承诺 - 公司保证未来涉及用户核心权益的调整,一定会提前说明并给出“选择期”,不让用户被动接受 [16]