公司技术进展与产品规划 - Kimi K2 Thinking模型当前版本优先考虑绝对性能而非token效率,推理时间较长的问题将在后续优化 [3] - 公司正在研究K2的视觉-语言版本,因获得正确的视觉-语言数据和训练需要时间,故先发布纯文本模型 [1][4] - 公司开源了混合线性注意力架构Kimi Linear,其KDA模块在预训练和强化学习阶段均优于采用RoPE的完整MLA,且更快、更经济,很可能以某种形式出现在K3中 [1][5] - 公司在模型中采用了未经其他厂商测试的优化器Muon,并已通过所有扩展测试,对研究成果充满信心 [7] - 公司未来将增加模型上下文长度,此前已尝试过100万个token的上下文窗口,但因服务成本过高未推广,未来会重新考虑 [11] - 公司已发布小型模型Kimi-Linear-48B-A3B-Instruct,未来可能训练更多模型并添加功能 [11] 产品性能与市场反馈 - Kimi K2 Thinking在HLE基准测试中得分较高,但在实际应用中的通用能力仍需提升,公司正努力改善以充分发挥智能作用 [4] - 模型采用INT4原生设计提升推理速度,其Turbo API会更快,推理token数量取决于模型训练方式 [4] - 模型独特的直接文风是后训练数据和评估的重要组成部分,获得用户认可 [5] - 有用户反馈Kimi已成为主要测试模型,但生产环境会切换到美国本土模型,部分企业因地缘风险担忧限制使用 [8][9] - 公司提供基于API请求次数的编程订阅方案,用户反映资源消耗偏高,公司承诺尽快找到更好方案 [12] 公司战略与行业互动 - 公司强调拥抱开源,认为对AGI的追求应带来团结而非分裂,开放安全对齐技术栈有助于微调开源模型时保持安全性 [2] - 公司暂无开发AI浏览器计划,认为做出更好模型无需套用新的Chromium壳,将专注于模型训练并更新kimi.com集成最新功能 [2][11] - 公司以开源作为消除企业部署顾虑的途径,希望建立更加信任的环境 [9] - 公司联合创始人调侃OpenAI,提及“Sam价值万亿美元的数据中心”及OpenAI烧钱问题,强调自有方式和节奏 [2] - 公司通过RedditAMA活动直面全球开发者尖锐提问,显示中国AI创新能力获得国际认可 [13]
罕见,月之暗面杨植麟、周昕宇、吴育昕回应一切:打假460万美元、调侃OpenAI
36氪·2025-11-11 12:25