编程模型
搜索文档
MiniMax上线M2.5编程模型,股价一度涨超20%
第一财经资讯· 2026-02-12 14:49
公司动态 - MiniMax于2月12日宣布上线最新旗舰编程模型MiniMax M2.5,模型界面已可选择调用 [1] - 该模型被描述为智能体场景原生设计的生产级模型,其编程与智能体性能对标国际顶尖模型Claude Opus 4.6 [1] - 模型支持PC、App、跨端应用的全栈编程开发,尤其适配Excel高阶处理、深度调研、PPT等生产力场景 [1] - M2.5模型激活参数量为100亿,在显存占用和推理能效比上有优势,推理速度超过国际顶尖模型 [1] 市场反应 - 2月12日盘中,MiniMax股价涨幅一度超过20% [1] - 公司总市值超过1800亿港元 [1] 行业竞争 - 在智谱正式上线聚焦编程与智能体的新模型GLM-5后,MiniMax随即宣布上线其最新旗舰编程模型,显示出行业技术迭代与竞争加速 [1]
MiniMax上线M2.5编程模型,股价一度涨超20%
第一财经· 2026-02-12 14:43
公司产品发布与性能 - 公司于2月12日正式上线最新旗舰编程模型MiniMax M2.5,用户可在模型界面选择调用[1] - 该模型是为智能体场景原生设计的生产级模型,其编程与智能体性能对标国际顶尖模型Claude Opus 4.6[1] - 模型支持PC、App、跨端应用的全栈编程开发,尤其适配Excel高阶处理、深度调研、PPT等生产力场景[1] - 模型激活参数量为100亿,在显存占用和推理能效比上有优势,推理速度超过国际顶尖模型[1] 市场反应与公司表现 - 在产品发布的2月12日盘中,公司股价涨幅一度超过20%[1] - 公司总市值超过1800亿港元[1] 行业竞争动态 - 在智谱公司于2月12日正式上线聚焦编程与智能体的新模型GLM-5之后,公司随即宣布上线同类新模型,显示出行业竞争激烈[1]
MiniMax上线M2.5编程模型 股价一度涨超20%
第一财经· 2026-02-12 14:39
公司产品发布 - MiniMax于2月12日宣布上线最新旗舰编程模型MiniMax M2 5 该模型已在模型界面开放调用[3] - 该模型是为智能体场景原生设计的生产级模型 其编程与智能体性能对标国际顶尖模型Claude Opus 4 6[1] - 模型支持PC App 跨端应用的全栈编程开发 尤其适配Excel高阶处理 深度调研 PPT等生产力场景[1] - M2 5模型激活参数量为10B 在显存占用和推理能效比上有优势 推理速度超过国际顶尖模型[1] 市场反应 - 2月12日盘中 MiniMax(00100 HK)股价涨幅一度超过20%[1] - 2月12日盘中 MiniMax总市值超过1800亿港元[1] 行业动态 - 在智谱公司正式上线聚焦编程与智能体的新模型GLM-5后 MiniMax随即宣布上线其最新旗舰编程模型[3]
MiniMax M2.5正式上线,直接对标Claude Opus 4.6
每日经济新闻· 2026-02-12 14:28
公司产品发布 - MiniMax于2月12日正式上线最新旗舰编程模型MiniMax M2.5 [2] - 该模型是全球首个为Agent场景原生设计的生产级模型 [2] - 其编程与智能体性能直接对标国际顶尖模型Claude Opus 4.6 [2] 产品性能与参数 - M2.5模型激活参数量为10B(百亿) [2] - 模型在显存占用和推理能效比上优势明显 [2] - 模型支持100 TPS(每秒事务处理量)的超高吞吐量 [2] 应用场景与兼容性 - 模型支持PC、App及跨端应用的全栈编程开发 [2] - 在Excel高阶处理、深度调研、PPT等Office核心生产力场景中均处于行业领先地位 [2]
Kimi K2宣布更新:上下文长度扩展至256K,带来更快的API
凤凰网· 2025-09-05 13:51
产品更新 - 公司推出Kimi K2模型最新版本 提升在真实编程任务中的表现[1] - 模型Agentic Coding能力增强 在公开基准测试和真实编程任务中均展现更好性能[1] - 上下文长度从128K扩展至256K 为复杂长线任务提供更好支持[1] 技术参数 - 提供高速版API 支持高达60-100 Token/s的输出速度[1] - 开放平台已上架kimi-k2-0905-preview模型API 上下文升级到256K[1] 商业策略 - 新版API定价与之前0711版本保持相同[1]
马斯克编程模型限时免费,反应速度快,叫板GPT-5
36氪· 2025-08-29 14:36
产品发布 - xAI推出擅长编程的推理模型Grok Code Fast 1 API调用名为grok-code-fast-1 [1][3] - 模型支持256K上下文窗口长度 主打快速响应和价格经济 [3] - 模型在用户读完思考轨迹第一段前已调用数十种工具 并采用快速缓存优化技术 缓存命中率通常超过90% [3] 定价策略 - 输入tokens定价为0.2美元/百万tokens 约合1.43元人民币 [3] - 输出tokens定价为1.5美元/百万tokens 约合10.70元人民币 [3] - 缓存输入tokens定价为0.02美元/百万tokens 约合0.14元人民币 [3] - 价格低于GPT-5和Gemini 2.5 Pro数倍 略高于Qwen3-Coder但每秒tokens数更高 [3] 技术能力 - 尤其擅长TypeScript Python Java Rust C++和Go编程语言 [3] - 能在极少数督下完成从零到一项目构建 代码库问题解答和错误修复 [3] - 采用全新模型架构 构建包含丰富编程内容的预训练语料库 [6] - 后训练阶段使用反映真实世界拉取请求和编程任务的高质量数据集 [6] - 掌握grep 终端和文件编辑等常用工具使用 [6] 性能表现 - 在SWE-Bench-Verified完整子集测试中得分达70.8% [6] - ToyBench总体结果位居第5位 落后于GPT-5 Claude Opus 4 Gemini 2.5 Pro和DeepSeek Reasoner [9] - 总体得分62.67% 成本为-0.95美元 优于部分竞品 [10] 应用案例 - 用户可在不到一天时间内用Cursor完成战斗模拟器原型搭建 [4] - 不到一分钟即可完成从构思到设计模型 移动端响应式设计表现出色 [7] - 生成UI在桌面端和移动端都表现良好 无需太多调整 [7] 市场推广 - 限时7天免费使用 支持GitHub Copilot Cursor Cline Roo Code Kilo Code opencode和Windsurf等平台接入 [10]
通义千问推出「甜品级」编程模型Qwen3-Coder-Flash
快讯· 2025-08-01 07:31
产品发布 - 公司推出新编程模型Qwen3-Coder-Flash 全称为Qwen3-Coder-30B-A3B-Instruct [1] - 新模型定位为"甜品级"编程模型 [1] 产品特性 - 具备卓越的Agentic能力 [1] - 拥有仓库级长上下文理解能力 [1] - 支持多平台使用 [1]
通义千问推出开「甜品级」编程模型Qwen3-Coder-Flash
快讯· 2025-08-01 06:55
阿里巴巴通义千问Qwen3-Coder-30B-A3B-Instruct模型 - 新编程模型全称为Qwen3-Coder-30B-A3B-Instruct,在性能和效率方面表现出色 [1] - 该模型拥有卓越的Agentic能力,包括代理式编程(Agentic Coding)、浏览器使用(Agentic Browser-Use)、工具调用(Tool Use)等领域 [1] - 在代理式编程等领域超越当前顶级开源模型,仅略逊于顶配版Qwen3-Coder-480B-A35B-Instruct及Claude Sonnet-4、GPT4.1等领先闭源模型 [1]