开源模型
搜索文档
神秘模型霸榜全球模型服务平台 知情人士:该模型是智谱即将发布的GLM-5︱一探
第一财经· 2026-02-10 20:39
行业动态 - 全球模型服务平台 OpenRouter 上线了一款代号为 "Pony Alpha" 的匿名模型,引发全网关注 [1][1] - 据平台合作方 Kilo Code 透露,Pony Alpha 是"某个全球实验室最受欢迎的开源模型的专项进化版" [1][1] - 市场推测 Pony Alpha 更有可能是 DeepSeek-V4 或者智谱即将发布的新一代模型 GLM-5 [1][1] 公司进展 - 第一财经记者从知情人士处获悉,智谱目前有相关保密项目在推进中 [1][1] - 该神秘模型被指是智谱即将发布的新一代模型 GLM-5 [1][1] - 智谱(2513 HK)在资本市场表现强劲,其股价于 2 月 10 日再创新高 [1][1] - 公司市值一度突破 1500 亿港元 [1][1] - 该市值已接近其 IPO 市值的 3 倍 [1][1]
知情人士:神秘模型是智谱即将发布的GLM-5
第一财经· 2026-02-10 17:18
记者|朱斌 编辑 |瑜见 据该平台合作方Kilo Code透露,Pony Alpha是"某个全球实验室最受欢迎的开源模型的专项进化版"。这意味着,Pony Alpha更有可能是DeepSeek- V4或者智谱即将发布的新一代模型GLM-5。 第一财经记者从知情人士处获悉,智谱目前有相关保密项目在推进中,该神秘模型,是智谱即将发布新一代模型GLM-5。 在资本市场表现上,智谱(2513.HK)今日股价再创新高,市值一度突破1500亿港元,这一市值已接近其IPO市值的3倍。 近日,全球模型服务平台OpenRouter上线了一款代号为"Pony Alpha"的匿名模型,引发全网关注。 ...
深度讨论 OpenClaw:高价值 Agent 解锁 10x Token 消耗,Anthropic 超越微软之路开启
海外独角兽· 2026-02-05 20:18
文章核心观点 高价值AI Agent在2026年初已展现出远超预期的效果,开始直接接管复杂任务并嵌入核心工作流,对现有SaaS形态与人机分工方式构成实质性冲击[3][4] 文章从底层视角探讨了Agent的价值边界、基础设施机会、Token消耗爆炸性增长及商业模式变化等重要问题[4] 一、高价值Agent的产品形态与市场影响 - **OpenClaw的核心巧思在于预装Claude Skills生态**,这类似于早期智能手机预装应用超市来降低用户门槛[4][10] 其设计实现了**个人化基础上的长程任务执行**,可7x24小时持续运行,并从工具变为主动Agent[8] 通过**IM Gateway嵌入用户日常沟通流**,实现了“移动指挥,本地执行”的混合场景[8][10] - **OpenClaw与Manus代表了两种发展路径**:OpenClaw是去中心化、高度可配置的路线,能利用分散硬件资源(如个人闲置的Mac Mini)[11] Manus是中心化、“交钥匙”体验的路线,已积累大量高价值用户场景数据,构成认知壁垒[11][12] 两者可能不是取代关系,而是动态演化[11] - **Anthropic的产品策略瞄准高价值场景**,其Claude Code Cowork和Claude in Excel可能打开“10倍微软”的市场[4][14] Claude Code的核心理念是“Code is everything,Bash is all you need”,直接利用命令行执行任务[15] Cowork是其自然延伸,依赖于Opus 4.5能力的飞跃[15] - **Excel是生产力的放大和延伸**,覆盖人群比Coding更广[16] Claude in Excel的核心逻辑是利用Agent通过代码直接操作数据,绕过传统软件复杂的UI交互[16][17] 这种模式可能对试图切分Excel数据分析功能的SaaS公司(如Airtable)构成比微软更大的冲击[20] 但标准传输格式(如.xls)和Human-in-the-loop的校验机制依然重要,这意味着Agent会以插件形式嵌入成熟生态[18] 二、商业模式与定价逻辑的转变 - **高价值Agent的定价逻辑脱离传统SaaS**,开始向“数字员工”价值靠拢[21] 市场已出现定价在**1000至2000美元/月**的高价值Agent服务,有团队人均Token消费已达到**500美元/月**[21] - **Agent的收入来源发生根本性转移**,从切分企业营销或IT预算,转向切分企业庞大的**工资(劳动力)预算**[22] - **高价值Agent必须由真正的行业专家主导**,因为他们具备极深的行业Know-how,能做好Context Engineering并评估AI产出质量[22] 三、Token消耗的爆炸性增长与行业影响 - **2026年Token消耗量预计将有10倍甚至更多的增长**[23] Long-horizon task、Proactive Agents以及多模态是主要驱动力[23] - **开源模型“下限达标”是Token消耗暴涨的重要动力**[24] 智谱GLM-4.7的发布标志着开源模型首次真正触达了在Coding和Agentic场景中的“可用下限”[25] 这将使厂商有机会通过开源模型建立独立的盈利闭环,并倒逼闭源厂商加速冲击能力上限[27] - **Token消耗量是衡量AI-native程度的核心指标**,使用Token的比例越大说明越AI Native[28][29] 传统Chat模式与Agentic模式消耗的Token量级差异巨大,后者是前者的**百倍甚至千倍**[31] 已有单用户Token日均消耗达到**十亿(billion)级别**的案例,未来单人控制的Agent消耗**100亿(10B)甚至更高量级Token**将不再是难事[31] - **Token价值开始出现分化**:模型“压缩”使得小参数模型的Token价值快速逼近大模型;专用推理芯片(如Cerebras)下的Token概念也与英伟达GPU场景不同[33] - **硬件供应可能成为制约瓶颈**,在Agent爆发的驱动下,预计未来一年内GPU将再次进入“买不到”的紧缺状态[37] 四、Agent基础设施的缺失与机会 - **现有互联网基础设施对Agent处于“敌对”状态**,因为数字世界原是为人类设计[38] Agent面临跨平台任务执行困难、网络安全产品未适配、执行长程任务脆弱等问题[38] - **Infra的缺失催生巨大确定性新机会**,包括“构建Agent的Infra”和“给Agent用的Infra”[40] 例如专门为Agent优化的浏览器环境(如BrowserUse)、专用网络和支付系统[40] - **高阶Infra需求是“主动对齐”**,即Agent能主动构建用户数字分身,理解其思维习惯和隐性知识[42] - **Agent沙盒(Sandbox)的演进推高了CPU使用量**,但因其进入门槛低、CPU供应充足且定价无溢价,并未构成高壁垒的独立机会[42][43] 五、隐私与安全范式的转移 - **用户正进入“隐私换效率”的时代**,为了让Agent更好地理解上下文并自动执行任务,愿意让渡极高权限[44] 例如让AI直接操作股票账户,或赋予Agent读取本地所有文件的权限[44] - **当前Agent生态处于类似互联网早期的“田园时代”**,用户为便利而“裸奔”,安全威胁(如恶意软件、钓鱼攻击)预计会大幅增加[47] 行业可能需要经历严重的安全事故才能真正重视安全[47] 六、软件行业的未来:被吞噬还是退化为工具? - **激进派观点认为“软件将被吞噬”**:当Agent能直接操作数据和API时,为人类设计的复杂UI及中间业务逻辑封装将变得毫无意义[48] 传统软件开发中的精细化分工(前端、后端、测试、UI)将失去存在基础[48] 像腾讯TAPD这类项目管理工具或许将不再被需要[49] - **保守派观点认为“软件将退化为工具和数据库”**:软件具备100%准确性、绝对稳定性和流程固化能力,这是概率性Agent无法替代的[52] 在企业里,软件会更多地由Agent通过代码来驱动和操作[52] - **软件的未来壁垒在于“本体论”**:对于To B业务,需要定义清楚企业内部的组织逻辑、隐私边界和业务上下文;在To C领域,则是如何理解个人隐私[52] 七、实现Agent泛化的三种推演路径 - **思路1:人群分层渗透**,针对不同人群出现三种平行产品形态[54]:面向硬核技术人员的Claude Code[54];面向知识工作者的Manus[54];以及最具爆发潜力、以OpenClaw为代表的IM Bot,试图利用社交网络效应实现大众化破圈[55] - **思路2:关于普及形态的争论**:“电脑派”认为Agent普及是从精英向大众缓慢渗透的过程,用户需要学习[56];“手机派”认为Agent必须像智能手机一样做到“零门槛”,可能需要等待科技巨头打造OS级别的深度封装Agent[57][58] - **思路3:屏幕只是过渡,实体机器人才是未来** 目前的屏幕内Agent是为不完美的数字基建“填坑”的临时方案[58] Agent的终极形态必须是进入物理世界,解决实际的交互与体力劳动问题[59]
月之暗面Kimi发布并开源K2.5模型
人民网· 2026-02-02 09:21
公司产品发布 - 月之暗面公司发布了新一代开源模型Kimi K2.5,该模型在HLE、BrowseComp、DeepSearchQA等多项agent评测中均取得全球开源模型的最佳成绩,是公司目前最智能的模型 [1] - Kimi K2.5基于原生多模态架构设计,支持视觉与文本输入,将视觉理解与推理、编程、Agent等能力全部集成到一个模型中 [1] - 公司创始人表示,团队重构了强化学习的基建,并专门优化了训练算法,以确保模型能达到极致的效率和性能 [1] 产品技术特性与创新 - 在Kimi K2.5更新中,研发团队推出“Agent集群”功能,模型可自主创建“分身”智能体,按需组成不同角色团队并行工作 [1] - 在大规模搜索等场景下,Agent集群相比单Agent执行,可以大幅提升复杂任务处理效率 [1] - 公司同时推出新的编程产品Kimi Code,该产品不仅能够直接在终端运行,还能与VSCode、Cursor、Zed等主流编辑器集成 [1] - 借助K2.5的多模态优势,开发者可以直接输入图片和视频进行编程辅助,旨在简化编程流程,降低技术门槛 [1]
深度|从 OpenClaw 们自掏腰包补贴,看中国模型又一个全球时刻
Z Potentials· 2026-02-01 21:38
文章核心观点 - 以Kimi K2.5为代表的中国开源大模型,凭借顶级的性能与极高的性价比,首次在全球范围内对闭源模型形成了系统性、结构性的挑战,这标志着AI行业竞争格局正在发生根本性变化,从单纯的技术性能比拼转向生态与基础设施选择的竞争 [7][22][26] 关键事件:海外头部应用自掏腰包补贴集成Kimi K2.5 - 全球爆红的AI Agent应用OpenClaw首次自掏腰包补贴用户,使其能免费使用中国的Kimi K2.5模型及Kimi Coding能力,这被视为一次公开的战略押注 [1][3] - 不止OpenClaw,包括“开源版Claude Code”Open Code、以及GitLab联合创始人创立的Kilo Code等当红编程工具,均宣布通过补贴方式吸引用户使用Kimi K2.5模型 [4][5] - 这些生态关键玩家用流量和免费补贴作为“选票”,表明对Kimi K2.5的认可,某种行业共识正在形成 [14][15] 性能表现:跻身全球第一梯队 - **代码能力**:在权威匿名评测机构LMarena的代码能力榜单上,Kimi K2.5是开源模型中的第一名,总体排名第7,仅次于Claude和Gemini的最新闭源模型 [19][20] - **多模态能力**:在Vision Arena榜单中,Kimi K2.5是排名第一的开源模型,总榜位列第六,稳定超越一批同代闭源对手 [20] - 模型在基准测试和开发者主观体验中表现一致,证明其实际工作能力强,而非仅擅长基准测试 [17][18] - 全球最大API中转站OpenRouter的调用排行榜显示,Kimi K2.5上线第二天已跻身全球前三,仅次于Claude Sonnet 4.5与Gemini 3 Flash,这是开发者“用脚投票”的结果 [15] 行业影响:引发对开源模型价值的重估 - 海外技术与投资圈将Kimi K2.5的发布视为“开源AI的重要里程碑”,认为它首次在综合能力上正面挑战了OpenAI、Anthropic与Google等公司的闭源护城河 [22] - 风险投资家Chamath Palihapitiya将其概括为“Kimi K2.5时刻”,指出开闭源之争已上升为企业乃至国家层面的“基础设施选择” [23][25] - 开源模型凭借顶级性能、完全透明(权重可审计、代码可修改)以及未来通过专用芯片将成本降低90%的潜力,正在重塑由闭源模型长期主导的竞争格局 [22][25] - 开源模型不再只是“可用选项”,而是在部分关键场景中开始逼近甚至重塑竞争格局 [21] 公司层面:Kimi的全球崛起与商业模式转变 - Kimi公司海外收入已超越国内收入,在新模型K2.5发布后,全球付费用户规模实现了约**4倍**增长 [27] - 公司正在从一家“被中国市场定义的模型公司”,转向以全球开发者和企业客户为核心增长引擎的基础设施产品公司 [27] - 市场对Kimi的认知从“技术观察”和“低估”转向“主动选择”,其传播主要发生在代码仓库、开发者社区和产品工作流中,逐渐从“备选方案”变为某些场景下的“默认选项” [28] - 当模型性能足够强、成本足够低时,其扩散不再依赖自身营销,而是通过生态自行蔓延 [29] 市场反应与认知变化 - 市场认知被认为滞后于模型真实能力约**3-4周**,从DeepSeek到Kimi的剧本正在重演 [9] - 一线开发者反馈认为,以Kimi K2.5的成本获得如此强的能力“简直让人不敢相信”,并提醒美国AI公司“公开市场是残酷的” [10] - Notion联合创始人发帖称“市场还没反应过来Kimi K2.5的价值和颠覆性” [7] - 模型竞争正跨越“参数与性能”的单一维度,进入生态与入口的新战场 [28]
速递|初创公司Arcee AI低成本六个月训练,发布4000亿参数开源大模型Trinity
Z Potentials· 2026-01-30 10:56
文章核心观点 - 行业普遍认为AI模型市场将由大型科技公司主导,但初创公司Arcee AI持不同观点,并发布了名为Trinity的4000亿参数开源基础模型,旨在成为美国永久开源的前沿替代品 [1][7][9] Arcee AI及其Trinity模型概述 - Arcee AI是一家仅有30人的初创公司,发布了名为Trinity的永久开源通用基础模型,采用Apache许可证 [1] - Trinity模型参数量达到4000亿,是美国企业有史以来发布的最大规模开源基础模型之一 [1] - 根据基准测试,其碱模型性能可与Meta的Llama 4 Maverick 400B及清华大学的Z.ai GLM-4.5等前沿开源模型相媲美 [1] - 该模型专为编码和智能体等多步骤任务设计,但目前仅支持文本处理,更多模态功能正在开发中 [4] 模型开发历程与资源投入 - Arcee AI在六个月内,以总计2000万美元的成本,使用2048块英伟达Blackwell B300 GPU,训练完成了包括Trinity在内的所有模型 [5] - 这笔训练经费约占公司目前约5000万美元总融资额的40% [5] - 公司最初为大型企业客户提供模型定制服务,后因客户增长和避免依赖,决定开发自有模型 [6] - 开发自有模型是一个重大决定,全球进行过如此规模和水平模型预训练并发布自有模型的公司不超过20家 [7] 模型系列与商业策略 - Trinity模型系列包括:4000亿参数的Trinity Large,260亿参数的Trinity Mini,以及60亿参数的Trinity Nano [5] - 所有Trinity模型均可免费下载,最大的版本将提供三种变体:Trinity Large Preview(轻度指令后训练)、Trinity Large Base(基础模型)、TrueBase(剔除所有指令与后训练) [9] - 公司最终将提供其通用模型的托管版本,API定价具有竞争力,预计六周内推出 [9] - Trinity Mini的API定价为每百万输入/输出令牌0.045美元/0.15美元,同时提供限速免费层级,公司仍销售模型微调和定制化服务 [10] 市场定位与竞争差异 - Arcee AI旨在打造能打动开发者与学者的基础LLM,并希望吸引美国企业放弃选择来自中国的开源模型 [4] - 公司认为赢得市场的唯一途径是拥有最佳的开放权重模型,以赢得开发者的支持 [4] - 与Meta的Llama不同,Trinity采用Apache许可,承诺永久开源,而Llama的许可证由Meta控制并附带商业和使用限制,不被部分开源组织认可为真正的开源 [8] - Arcee AI的存在是为了提供美国所需的、永久开源、采用Apache许可、前沿级别的替代品 [9]
Hugging Face曾拒绝英伟达5亿美元投资:不想看单一巨头脸色
搜狐财经· 2026-01-29 20:38
核心事件与公司立场 - 英伟达于去年年末向Hugging Face提出5亿美元的投资意向 但该公司拒绝了这笔交易[1] - 该交易本可将Hugging Face的估值推高至70亿美元 超过其过去十年融资总额[3] - 公司拒绝的主要原因是希望避免出现单一主导投资者来左右其决策[3] - 公司联合创始人兼首席执行官克莱姆·德朗格表示 开源模型有助于推动AI民主化 对抗权力集中 并认为权力集中是AI领域最大的风险[4] 商业模式与财务状况 - 公司运营一个托管250万个公开AI模型和70余万个公开数据集的平台 用户可自由下载[3] - 平台拥有全球1300万用户 致力于推广面向开发者免费开放的开源模型[3] - 采用“免费增值”商业模式 约3%的客户(通常为大型企业)会为额外功能付费[4] - 公司2025年已实现盈利 但因投资数据集 今年第一季度出现亏损[4] - 公司累计融资4亿美元 2023年估值为45亿美元 目前账面上仍留存半数资金[4] - 公司并不追求收入最大化 而是鼓励开发者为文本、图像和视觉模型提供开源替代方案[4] 行业定位与竞争格局 - Hugging Face的模式与OpenAI、谷歌、Anthropic等硅谷主流玩家背道而驰 后者专注于构建闭源专有模型[3] - 公司正处于一场关于人工智能应如何构建、共享与拥有的地缘政治和商业博弈的中心[3] - 公司联合创始人兼首席科学官托马斯·沃尔夫认为 DeepSeek等中国企业的崛起正成为Hugging Face的利好 证明了开源模型的威力[4] - 2022年 公司曾推出多语言AI模型BLOOM 但此后为控制成本、避免与平台托管的模型竞争 已逐步退出自研模型领域[5] - 公司转而投资机器人、数据集和科学研究AI领域 并于去年以未公开金额收购了机器人公司Pollen[5] 公司治理与人才战略 - 公司员工可在全球任何地方远程办公 在美国、英国、法国和瑞士设有办公室[5] - 这种通过Slack沟通的全球化布局 让部分前员工感到在重大战略决策上被边缘化[5] - 近几个月已有员工因感觉自身工作与快速变化的公司优先级不符而离职[5] - 公司给研究人员的年薪通常在10万至20万美元之间 远低于科技巨头顶尖AI研究员的百万美元级别 但基本与初创公司持平[5] - 作为薪酬的补偿 公司为研究人员提供了明确的使命——对抗硅谷霸权 并允许他们追求感兴趣的研究方向[5] - 与大型科技公司不同 Hugging Face允许员工公开谈论工作 但这也导致员工不断收到挖角邀请[6] - 公司首席伦理科学家玛格丽特·米切尔曾拒绝年薪超百万美元的工作机会 以坚守公司“反硅谷”的理念[6]
刚刚,创智+模思发布开源版Sora2,电影级音视频同步生成,打破闭源技术垄断
机器之心· 2026-01-29 18:26
文章核心观点 - 上海创智学院OpenMOSS团队与模思智能联合发布了中国首个高性能开源端到端音视频生成模型MOVA,实现了“音画同出”,并选择全栈开源,旨在打破当前顶尖音视频生成技术普遍闭源造成的技术垄断,推动开源社区发展 [1][2][4][55] 产品发布与定位 - 模型名称为MOVA,是端到端音视频生成模型,能生成长达8秒、最高720p分辨率的视听片段 [1] - 模型在多语言口型同步、环境音效契合度上展现了极高的工业水准,生成效果具有身临其境的真实感 [1][3] - 在Sora 2和Veo 3等顶尖技术走向闭源的背景下,MOVA选择将模型权重、训练代码、推理代码及微调方案全栈开源 [2][4] 技术架构与创新 - MOVA是一个规模约320亿参数的模型,采用MoE架构,推理时激活180亿参数 [19] - 模型采用异构双塔架构,结合了14B参数的Wan 2.2 I2V作为视频骨干网络和1.3B的文本到音频扩散模型作为音频骨干网络,并通过双向桥接模块实现模态融合 [22][24] - 为解决音视频时间轴对齐问题,团队设计了Aligned ROPE机制 [24] - 训练策略上采用三阶段由粗到细的策略:360P训练、360P退火训练及720P训练,并引入了Dual Sigma Shift创新 [31][32][33] - 在推理中引入了双重Classifier-Free Guidance公式,允许用户在文本引导和音画同步间调整权重,并内置LUFS响度归一化算法确保音频质量 [42][44] 性能表现 - 在口型同步任务中,开启Dual CFG模式后,MOVA-720p的LSE-D得分为7.094,LSE-C得分为7.452,展现出优势 [48] - 在语音准确度指标cpCER上,MOVA也取得了最佳结果 [48] - 在人为主观竞技场评估中,MOVA的ELO评分达到1113.8,显著高于基线模型,并对战OVI和级联系统的胜率超过70% [49] 数据处理与工作流 - 构建了一套三阶段精细化数据处理管线,处理720p分辨率、24fps帧率、8.05秒时长的视频片段,并通过细粒度标注提升模型泛化能力 [28] - 设计了三阶段Agent工作流,通过视觉解析、提示词重构和双重条件生成,提升首帧一致性与指令遵循能力,降低用户素材门槛 [36][38][40][41] 行业意义与生态影响 - MOVA补全了音视频生成基础模型的开源拼图,改变了“领先技术不开源”的现状 [4][54][55] - 其360p版本面向较低硬件门槛,使音视频生成不再仅限于GPU集群 [56] - MOVA已成为昇腾首个支持的开源多模态音视频一体生成模型,获得了全栈算力支撑 [56] - 模思智能正快速构建其多模态基础模型版图,从语音识别到音视频生成,环环相扣 [57] 研发模式与人才培养 - MOVA是上海创智学院与模思智能在“研创学”模式下的成功实践,融合了学术深度与产业落地敏锐度 [59] - 学生在千卡级规模的工业级基模训练中承担核心任务,积累了解决大规模训练、数据处理、模型设计等硬核工程问题的实战经验 [59] - 这一模式重塑了AI顶尖人才培养路径,为未来AGI竞争储备力量 [60]
MoltBot作者被Claude刁难后:MiniMax M2.1是最优秀的开源模型
量子位· 2026-01-29 13:03
文章核心观点 - 开源AI智能体项目Moltbot(原名Clawdbot)凭借其强大的自主编程与任务执行能力,在开发者社区引发巨大热潮,展示了个人持久化智能体的巨大潜力和市场需求 [1][12][36] - 项目创始人Peter Steinberger认为,该项目的成功揭示了AI智能体开发的新范式:通过构建面向智能体的开发体系,个人开发者能以前所未有的效率创造个性化工具,这可能导致传统应用生态发生根本性变革 [31][37][49] - 尽管面临安全挑战、品牌更名压力以及商业化诱惑,创始人目前更倾向于以社区和非营利模式推进项目发展,旨在让工具人人可及,并推动相关技术研究 [55][56][58] 开发者社区反响与用例 - 开发者解锁多种创新玩法:有开发者设置Moltbot在其睡眠时自动编写工具优化工作流,智能体甚至自主开发了语音功能,令开发者感到惊喜 [2][3] - 实用价值被充分挖掘:有从业者将Moltbot与Notion、Toggl、谷歌搜索控制台及谷歌分析打通,实现自动撰写博客、记录工时、生成并发送定制化数据报告等功能 [4] - 项目热度极高,带动硬件需求:非科技圈人士也因该项目前往苹果店购买Mac Mini,项目在GitHub上的星标数增长曲线呈“一条笔直向上的直线” [23] 云服务商跟进与竞品动态 - 主流云服务商迅速上线支持:阿里云轻量应用服务器提供了Moltbot应用镜像(版本v2026.1.25),最低配置为每月56元,提供2 vCPU、2 GiB内存 [7][8] - 腾讯云轻量应用服务器Lighthouse同步上线了Clawdbot应用模板,提供一键安装,帮助开发者快速搭建和观测智能体 [8] - 竞品涌现:市场出现一站式AI业务搭建工具等竞品,其团队刚刚完成了1000万美元种子轮融资 [9][10] 项目创始人与开发理念 - 创始人背景:Peter Steinberger曾运营软件公司13年并在4年前出售公司,经历低谷后于去年四月重燃热情进入AI领域 [15][16] - 开发动机:项目始于个人兴趣与学习需求,核心宗旨是“图个开心”,旨在通过实践探索AI智能体的可能性 [23][34] - 关键洞察:给智能体足够权限后,其解决问题的聪明程度令人惊讶,例如能通过识别文件头、调用外部API等方式处理未预设的语音消息 [29][30] 技术实现与行业影响 - 开发秘诀:关键在于打造一套让智能体以最优方式做软件开发的体系,并按照模型的思维方式进行“面向智能体的开发” [27][31][32] - 效率革命:熟练掌握工具并理解模型逻辑后,个人开发效率极高,“现在一个人能做出的东西,抵得上去年一整个公司的开发成果” [37] - 模型兼容性:项目设计初衷之一是实现所有模型(包括本地模型)的兼容,将其作为巨大的实验场 [37] 模型能力对比与品牌更名 - 模型各有优势:Anthropic的Opus在拟人交互上领先,交互方式极具人类感;OpenAI的模型更稳定可靠;Codex在处理大型代码库和开发效率上更高 [38] - 被迫更名:因品牌混淆风险,应Anthropic要求将项目名从Clawdbot改为Moltbot,更名过程遭遇账号被恶意抢注等挑战 [39][40] - 本地运行体验:创始人在512G顶配Mac Mini上运行本地模型如MiniMax M2.1,认为这是当下最优秀的开源模型之一,但单台设备体验不足,未来需要多台协同 [43][45] 行业未来展望 - 应用生态变革:智能体的普及可能使一大批应用程序被淘汰,人与服务的交互将简化为与智能体的自然对话,大多数应用将退化为API [49][50] - 用户门槛降低:非技术背景用户(如设计公司从业者)也能通过对话让智能体完成开发工作,公司已用其搭建了25个网络服务 [50][51] - 本地与云端模式:本地智能体需求将推动行业变革,例如帮助企业绕开繁琐的官方API审批流程;但并非所有人都会为运行智能体而购置硬件 [45][46] 项目现状与未来规划 - 安全挑战凸显:项目最初为可信环境设计,现被用于非信任环境,暴露出大量安全隐患,创始人正面临梳理上百个安全问题的压力 [54][55] - 筹备组建团队:因个人精力已达极限,创始人开始筹备组建团队,并希望吸引开源贡献者参与项目维护 [55][59] - 组织与商业化倾向:相比成立公司,创始人更倾向于成立非营利组织;采用MIT等宽松开源协议,核心策略是把开源版本做得足够好以削弱商业化改版的动力 [56][58]
青云科技20260128
2026-01-29 10:43
公司概况与业务现状 * 公司为青云科技,在A股市场定位为AI智算或AI基础设施厂商[4] * 公司创始人技术背景深厚,曾为IBM云实验室联合创始人及首席架构师[4] * 核心产品包括容器平台、全系列存储产品以及AI基础设施产品[4] * 主要业务线为云计算、容器计算和智算[4] * 运营全球排名前二的容器平台社区,并提供公有云、私有云和混合云服务[4] * 运维开源社区Kubernetes,专注于容器平台[4] * 客户积累深厚,涵盖大量金融行业客户、能源类客户、制造业客户以及科研机构[4] 2025年财务表现与2026年展望 * 2025年公司收入有所下滑[2] * 收入下滑主要原因是主动放弃了垫资业务以及硬件占比较高的集成类业务[7] * 尽管收入下滑,但毛利率有所好转[2][7] * 预计2026年收入将回升[2] * 收入回升的驱动因素包括新增客户增加、原有客户维系良好、产品认可度提高后客户愿意接受更理性的价格,以及计算业务用户数增长非常快[7] AI智算业务发展 * AI智算领域收入占比不大,2025年仅为几千万级别[5] * 但该领域增长迅速,目前在手订单已经超过去年同期水平[2][5] * 公司理念是“全力服务AI”,致力于集成所有能力服务AI时代[2][5] * 自有算力卡数量有限,包括4,090H20及一些H100机器,总量不到100台,不到千卡[6] * 主要通过提供虚拟化服务,并与国内知名超算中心或智算中心合作进行联合运营来扩展算力资源[2][6] 技术趋势与市场机遇 * 多Agent时代将增加对CPU的需求[2] * 开源模型能力相比两年前有显著提升,已非常好用,推动了CPU和GPU的销售收入增长[9] * 开源模型能力提升使得小型代理能够高效开发并落地,例如合同审批等工具,推动了CPU业务增长[9][10][11] * 个人小工具也会占用大量机器资源,部署在云上更为方便[9][11] * 未来各类应用程序可能都会被大模型重新设计,应用中的众多代理将运行在云上沙盒中,进一步增加对CPU和GPU的需求[9][11] * 预计2026-2027年,GPU的消耗量仍然较大[2][12] * 预计到2028年左右,当各类应用程序被Agent重做后,CPU业务量将呈指数级增长[2][12] 产品与服务策略 * 面对多Agent时代,青云公有云可以既提供超算也提供智算服务,为用户提供快速开发环境和生产环境,实现瞬间扩容[8] * 通过秒级计费形式提高资源利用效率[9] * 通过沙盒技术确保各家公司的知识产权安全性,实现强隔离性[9] * 针对AI Agent沙箱环境,采用按需计费模式,包括秒级计费和按小时计费[13] * 目前上线的一小时费用为0.17元人民币,有一核和两核配置可供选择[13] * 存储部分按容量计费[13] * 多Agent时代对多核处理器有需求,具体核心数取决于业务场景[13] 行业竞争与定价策略 * 云行业面临涨价压力,主要受能源问题、硬件成本上涨以及服务能力提升带来的成本增加等因素影响[3][14] * 公司内部尚未决定涨价,仍采用现有定价模式以吸引新客户并巩固基础客户群[3][15] * 密切关注行业内其他公司的涨价趋势[3] * 将行业内公司分为三类:超大规模云厂商、与自身类似的中小型云平台厂商、以及更小的厂商[15] * 认为自身拥有全栈能力,在产品上线、迭代和响应客户需求方面速度更快[15] 其他观察 * 春节期间云服务需求是否增加尚不确定,但存在可能性[17] * 近期由于一些代理商落地,接触了许多CPU客户并在洽谈合作[17] * 预计Deepseek可能像去年春节一样发布新模型,这可能带动一定程度上的需求增长[17]