闭源模型
搜索文档
全球都用上中国免费大模型后,美国AI该怎么办?
观察者网· 2025-11-13 21:00
全球AI格局与中美策略对比 - 当前全球AI格局存在一个“奇怪的悖论”,美国最大的AI模型是闭源且收费的,而中国最大的AI模型却是开源且免费的[3] - 随着ChatGPT兴起,OpenAI率先进行闭源,引发一众美国AI企业纷纷效仿,仅开源上一代模型,导致其开源模型性能与最先进闭源模型存在较大差距[4] - 海外开源支持者认为开源能推动技术民主化发展且具备巨大成本优势,闭源模型拥护者则认为其安全性更高且更为先进[5] 中国开源AI模型的崛起与影响 - 中国AI行业已形成普遍共识拥抱开源生态,DeepSeek、阿里通义千问Qwen、智谱、Kimi、Minimax等中国模型六小龙纷纷拥抱开源,性能稳居头部梯队[5] - 中国开源模型在性能上持续突破:MiniMax-M2模型在全球权威测评榜单中总分位列全球前五、开源第一[6];Kimi K2 Thinking模型在跑分上超越GPT-5登顶排行榜,开发成本仅460万美元[6];智谱Glm-4.6模型在AI编程性能榜单上与GPT-5、Claude模型并列第一[6] - 阿里的Qwen模型累计下载量在10月已超美国Meta公司的Llama,成为全球最受欢迎的开源大模型[7] - 国外头部AI编程产品Windsurf的最新模型SWE-1.5基于智谱GLM-4.6定制开发,而Windsurf刚在5月被OpenAI以30亿美元收购[7] 行业领袖观点与全球影响 - 谷歌前CEO埃里克·施密特担心由于成本问题,大多数国家最终可能会使用中国的AI模型,因为它们是免费的[1][3] - 英伟达CEO黄仁勋表示中国在AI领域的实力与美国只有几纳秒之差,并称中国的开源是全球进步的催化剂[5][8] - 中国开源模型的蓬勃发展正在重塑全球AI竞争格局,越来越多国家或因“开源、安全、成本低廉”的优势转向中国开源模型[8] - 包括爱彼迎等硅谷大厂公开表示正在使用中国的开源大模型,并称赞其物美价廉[5];大量日本企业采用Qwen开源模型构建自己的应用,Qwen已成为日本AI技术最重要的底座之一[6]
杨植麟回复:Kimi K2训练用的H800!但“只花了460万美元”嘛…
量子位· 2025-11-11 19:11
文章核心观点 - Kimi K2 Thinking模型以显著低于行业水平的训练成本(传闻约460万美元)实现了卓越性能,其开源策略和工程创新正在引发硅谷开发者和企业从闭源模型向该模型的迁移潮 [1][5][13][14] 训练成本与行业影响 - 传闻Kimi K2 Thinking训练成本约为460万美元,低于DeepSeek V3的约560万美元,但公司澄清此非官方数据,并指出训练成本因包含大量研究和实验而难以精确计算 [1][13] - 低成本高性能的开源模型引发市场对闭源巨头高估值的反思,并可能推动对月之暗面公司的价值重估 [14][15] 技术架构与工程创新 - 模型架构继承并优化了DeepSeek等开源成果,将MoE层专家数量从256个增至384个以扩大知识容量,同时将每次推理激活参数量从约370亿降至320亿以降低推理成本 [16] - 词汇表从129K扩大至160K,并减少了MoE前的密集前馈网络块,进一步优化计算效率 [16] - 采用自研MuonClip优化器,在15.5万亿token的训练过程中实现了零训练崩溃,无需人为干预重启 [18] - 采用量化感知训练方案,实现原生INT4精度推理,在提升推理速度约2倍的同时将性能损失降至最低 [21] 市场反响与性能表现 - 硅谷投资人Chamath Palihapitiya将其新公司AI负载迁移至Kimi K2,原因是其性能更强且价格便宜得多 [6] - 云端开发平台Vercel CEO内部测试显示,Kimi K2比闭源模型快5倍,准确率高50% [8] - Claude Code用户相互传授将模型切换为Kimi K2的设置方法 [9] 公司未来规划与产品路线 - 下一代K3模型可能采用实验性混合注意力机制KDA,在同等条件下性能优于采用RoPE的模型,且速度更快、效率更高 [24] - 将很快推出类似Claude Code的Kimi Code产品,视觉语言模型正在开发中 [27] - 承认K2 Thinking思考过程过长、效率较低,下一版会将简化思考过程写入奖励函数 [27] - 曾尝试1M上下文窗口但因服务成本过高而搁置,未来会重新考虑更长的上下文窗口 [27]
Kimi K2 Thinking突袭,智能体&推理能力超GPT-5,网友:再次缩小开源闭源差距
36氪· 2025-11-07 11:07
产品发布与定位 - 月之暗面发布并开源Kimi K2 Thinking模型,主打“模型即Agent”概念,是公司迄今能力最强的开源思考模型[1] - 模型具备边思考边使用工具的能力,无需人工干预即可执行200-300次连续工具调用[1] - 该版本上线后成为热议对象,被认为再次缩小了开源模型与闭源模型的差距[3] 核心技术参数 - 模型采用1TB参数规模,激活参数为32B,并采用INT4量化而非FP8精度[5] - 支持256K上下文窗口,采用更多专家、更少注意力头、更多思考的设计[5] - 通过测试时扩展技术同时扩展思考Token和工具调用轮次,实现更强的Agent和推理性能[8] - 采用量化感知训练和对MoE组件应用INT4纯权重量化,使模型支持原生INT4推理,生成速度提升约2倍[26] 性能基准测试表现 - 在人类最后的考试中,Kimi K2 Thinking在允许使用工具的情况下取得44.9%的SOTA成绩[9] - 在BrowseComp基准测试中取得60.2%的成绩,显著超过人类平均智能29.2%的水平[18] - 在²-Bench Telecom智能体工具使用基准中达到SOTA,成绩从K2 Instruct的73%提升至93%[15] - 在HLE、BrowseComp和SEAL-0等评测基准中均刷新SOTA,超越GPT-5、Claude Sonnet 4.5等闭源模型[10] 智能体与工具调用能力 - 模型可借助上百轮的“思考→搜索→浏览网页→思考→编程”动态循环,持续提出并完善假设、验证证据、进行推理[20] - 具备将模糊开放式问题分解为清晰可执行子任务的能力,展现出“刨根问底”的钻研特性[20] - 官方示例显示模型通过23次推理和工具调用成功解决博士级别数学问题[13] 编程与开发能力 - 在SWE-Multilingual、SWE-bench验证集和LiveCodeBench等编程测试中与最强闭源模型表现相当[21] - 处理HTML、React及组件丰富的前端任务时性能明显提升,能将创意转变为功能齐全、响应式的产品[23] - 在Agentic Coding场景中能灵活融入software agents,处理复杂多步骤的开发工作流,如复刻Word文字编辑器[23] 通用能力升级 - 创意写作能力显著提升,能将粗略灵感转化为清晰动人且意图明确的叙述,保持长篇内容的风格连贯性[25] - 学术研究领域在分析深度、信息准确性和逻辑结构方面均有提升,擅长处理学术论文和技术摘要[25] - 回应个人或情感类问题时更富同理心,能提供细致入微的观点和切实可行的建议[25] 部署与生态建设 - 模型代码和权重遵循最宽松的MIT协议,已上线kimi.com和最新版Kimi手机应用[10] - API可通过Kimi开放平台访问,项目地址和技术博客已公开[38] - INT4量化设计对推理硬件兼容性更强,特别对国产加速计算芯片更友好[27]
硅谷大佬带头弃用 OpenAI、“倒戈”Kimi K2,直呼“太便宜了”,白宫首位 AI 主管也劝不住
36氪· 2025-11-04 18:50
行业趋势:从闭源模型向开源模型迁移 - 硅谷正从昂贵的闭源模型转向更便宜的开源替代方案,这一结构性转变在Reddit上引发热议[1] - 知名企业家Chamath Palihapitiya证实其团队已将大量工作负载从亚马逊Bedrock迁移至Groq平台上的中国模型Kimi K2,原因是性能显著更优且成本远低于OpenAI和Anthropic[1][5] - 行业专家David Freeberg指出AI领域正在进行全面的架构重构,目前处于每token成本优化的初期阶段,未来成本和能耗可能降低10倍至1万倍[4] 中国开源AI模型的竞争优势 - Kimi K2是由月之暗面开发的混合专家模型,总参数量达1万亿,激活参数量为320亿,已被Vercel、Cline、Cursor、Perplexity和GensparkAI等应用接入[1] - DeepSeek 3.2 EXP模型将API成本降低高达50%,每百万次输入收费28美分,每百万次输出收费42美分,而Anthropic的Claude模型收费约3.15美元,价格是DeepSeek的10到35倍[3] - 目前所有领先的开源大模型都来自中国,包括DeepSeek、Kimi和阿里巴巴的通义千问Qwen,美国在开源模型领域落后于中国[8] 模型迁移的技术挑战与成本考量 - 尽管开源模型成本优势明显,但模型迁移需要几周甚至几个月时间,因为不同模型需要经过微调与工程适配才能在同一个系统正常工作[2][6] - 企业面临复杂决策困境:是立即承受切换过程的麻烦,还是等待其他模型迎头赶上,任务越复杂这个问题越难解决[6] - 最终选择开源模型的核心是成本考量,用户选择平台纯看价格,这与上一代互联网选择云服务商的逻辑一致[14] 开源模型在美国的部署模式 - Groq接入中国模型的做法是获取模型源代码,在美国本土进行部署和分支开发,由美国人在美国数据中心操作[2][13] - 服务模式上,Groq把开源模型部署在自有基础设施上,通过开放API实现"token进、token出"的服务[2][14] - 企业喜欢这种部署方式因为可定制性强,且能将数据留在自己的基础设施里更安全[15] 行业竞争格局与地缘政治因素 - 高性能闭源模型都是美国的,高性能开源模型都是中国的,形成了中美在AI领域的技术路线差异[9] - Meta为Llama模型投入了数十亿美元,但Llama 4发布后评价不尽如人意,有消息称Meta可能放弃开源转向闭源[8] - OpenAI名字中的"Open"原本意味着开源,但现在已转向闭源,苹果在AI领域落后后推出了开源模型Open ELM[9] 能源成本对AI发展的影响 - 能源企业负责人预测电价未来五年可能翻倍,这将对AI使用成本产生重大影响[10] - 科技公司可能面临公关危机,如果电价上涨被归咎于AI能耗增加[10] - 提出了两个解决方案:让科技公司按更高费率缴纳电费进行交叉补贴,或在数据中心周边家庭安装储能设备[11]
硅谷大佬带头弃用OpenAI、“倒戈”Kimi K2,直呼“太便宜了”,白宫首位AI主管也劝不住
36氪· 2025-10-28 18:39
行业趋势:从闭源模型向开源模型迁移 - 硅谷正从昂贵的闭源模型转向更便宜的开源替代方案,这一结构性转变引发热议[1] - 知名企业家Chamath Palihapitiya证实其团队已将大量工作负载从亚马逊云科技Bedrock迁移至Groq平台上的中国模型Kimi K2,原因是性能更优且成本显著更低[1][5] - 行业观点认为性能和成本正在改写AI堆栈游戏,有评论称OpenAI可能未预见到这种情况的发生[2] 成本优势:中国开源模型的竞争力 - DeepSeek 3.2 EXP模型将API成本降低高达50%,收费标准为每百万次输入28美分,每百万次输出42美分[3] - Anthropic的Claude模型同类服务收费约3.15美元,价格是DeepSeek新模型的10到35倍[3] - 成本考量是切换到开源模型的核心原因,Palihapitiya表示既付不起3美元一个输出token的费用,也承担不起后续其他成本[2][11] - 多家初创公司正在测试或已投入使用DeepSeek模型,主要原因就是价格优势明显[3] 技术部署与运营模式 - Groq接入中国模型的做法是获取模型源代码,在美国本土数据中心进行部署和分支开发,由美国人操作[2][13] - 服务模式通过开放API实现"token进、token出",与OpenAI、ChatGPT等闭源模型模式相同但成本更低[2][14] - 企业可以选择在自有基础设施上运行模型,确保数据留在自己基础设施内,增强安全性[15] - 模型切换存在技术挑战,需要几周甚至几个月时间进行微调与工程适配,不同模型间的优化调整无法直接迁移[2][6] 中美AI产业竞争格局 - 当前所有领先的开源大模型都来自中国,包括DeepSeek、Kimi和阿里巴巴的通义千问Qwen[8] - 美国在闭源模型、芯片设计、芯片制造、半导体制造设备及数据中心环节领先,但开源模型领域落后于中国[8] - 高性能闭源模型都是美国的,高性能开源模型都是中国的,形成明显的地域技术路线分化[9][10] - Meta为Llama模型投入数十亿美元,但Llama 4发布后评价不尽如人意,有消息称Meta可能放弃开源转向闭源[8] 模型性能与技术特点 - Kimi K2是由月之暗面开发的混合专家大型语言模型,总参数量达1万亿,激活参数量为320亿[1] - DeepSeek 3.2 EXP模型搭载DSA功能,能加快大型任务的训练与推理速度[3] - 多家知名平台已接入Kimi K2模型,包括Vercel、AI编码助手Cline和Cursor、Perplexity和GensparkAI应用[1] 能源成本与未来发展 - 能源行业预测电价未来五年可能翻倍,这将使AI成本问题转化为能耗问题[10] - 未来架构革新可能让成本和能耗降低10倍到1万倍,对模型能耗需求和每token成本产生重大影响[4][5] - 提出交叉补贴方案,让科技公司按更高费率缴纳电费,由拥有数千亿现金流的科技巨头承担成本压力[11]
硅谷大佬带头弃用 OpenAI、“倒戈”Kimi K2!直呼“太便宜了”,白宫首位 AI 主管也劝不住
AI前线· 2025-10-28 17:02
硅谷AI模型使用趋势转变 - 硅谷正从昂贵的闭源模型转向更便宜的开源替代方案,这一趋势在Reddit上引发热议[2] - 知名投资人Chamath Palihapitiya透露其团队已将大量工作负载从Bedrock迁移至Groq平台上的中国模型Kimi K2,原因是性能显著更优且成本远低于OpenAI和Anthropic[2][6] - 多家知名技术平台如Vercel、Cline、Cursor、Perplexity和GensparkAI已宣布接入Kimi K2模型[2] Kimi K2模型技术特点 - Kimi K2是由月之暗面团队开发的混合专家大型语言模型,总参数量达1万亿,激活参数量为320亿[2] - 该模型采用Groq平台部署,通过开放的API实现"token进、token出"的服务模式[3] DeepSeek模型成本优势 - DeepSeek 3.2 EXP模型将API成本降低高达50%,收费标准为每百万次输入28美分,每百万次输出42美分[5] - 相比之下,Anthropic的Claude模型同类服务收费约3.15美元,价格是DeepSeek新模型的10到35倍[5] - 该开源模型已在亚马逊云科技和谷歌云平台上可用,多家初创公司正在测试或已投入使用[5] 模型迁移的技术挑战 - 将工作负载从一个模型切换到另一个模型需要几周甚至数月时间,因为模型需要经过微调与工程适配才能在同一个系统正常工作[3][7] - AI模型迭代速度快,用户面临是否承受迁移麻烦或等待其他模型迎头赶上的复杂博弈[7] 中美AI开源领域竞争格局 - 当前高性能闭源模型主要来自美国,而高性能开源模型主要来自中国,形成结构性竞争[11] - 中国在开源AI模型领域投入力度大,代表作品包括DeepSeek、Kimi和阿里巴巴的通义千问Qwen[10] - 美国在闭源模型、芯片设计、芯片制造、半导体制造设备和数据中心等其他技术环节保持领先[10] 开源模型部署与安全考量 - Groq接入中国模型的做法是获取模型源代码,在美国本土数据中心进行部署和分支开发,由美国人操作[3][16] - 企业可将开源模型部署在自有基础设施上,实现数据本地化,避免数据传回中国的风险[15][18] - 模型安全通过社区竞争循环保障,各大安全公司和云服务商积极测试寻找漏洞[18] AI发展面临的能源挑战 - 能源企业负责人预测未来五年电价可能翻倍,这将直接影响AI运营成本[12] - 科技公司可能面临更高的电费费率,通过"交叉补贴"方式承担数据中心能耗成本[13] - 成本问题将逐渐转化为能耗问题,对科技巨头构成潜在公关危机[12]
张亚勤院士:AI五大新趋势,物理智能快速演进,2035年机器人数量或比人多
机器人圈· 2025-10-20 17:16
AI产业规模与代际演进 - 人工智能时代产业规模预计将比前一代(移动互联时代)至少大100倍[5] - 移动互联时代产业规模比PC互联时代至少大10倍[5] AI技术发展的五大新趋势 - 趋势一:AI技术从鉴别式、生成式走向智能体AI,过去7个月智能体AI任务长度翻倍且准确度超过50%[7] - 趋势二:预训练阶段规模定律放缓,更多工作转移至训练后阶段如推理和智能体应用,前沿模型智力上限仍在提升但迭代速度放缓[7] - 趋势三:物理智能和生物智能快速发展,VLA模型推动智能驾驶规模化落地,预计2030年10%车辆将具备L4功能[7] - 趋势四:AI风险快速上升,智能体出现使AI风险至少增加一倍[8] - 趋势五:AI产业新格局形成,呈现基础大模型+垂直模型+边缘模型架构,后两者未来发展空间更大[8] 大模型发展格局预测 - 预计2026年全球基础大模型约8-10个,中国占3-4个,美国占3-4个[8] - 中国大模型发展具独特性,表现为更快算法、更高效率、更低价格[8] - 未来开源模型将成为主流,开源与闭源模型比例预计为4:1[8] 成本与算力动态 - 过去一年推理成本降低10倍,但智能体复杂性使算力需求上涨10倍,形成乘数效应[7] 长期产业机遇 - 新一代人工智能是原子、分子和比特融合,是信息智能、物理智能和生物智能融合[3] - 具身智能快速爆发,预计2035年机器人数量有望超过人类[8]
当着白宫AI主管的面,硅谷百亿投资人“倒戈”中国模型
环球时报· 2025-10-15 11:24
行业格局转变 - 全球AI行业格局正从美国主导的不计成本追求极限参数的上半场,转向由性价比、商业效率和生态价值主导的新阶段[3] - 中国AI的地位从过去的追赶者提升为与美国并驾齐驱的竞争者,两者形成两种价值机制在同一舞台上并行的比拼[5][7] - 制胜关键不再仅体现为参数更多、模型更大,更在于能以更低的成本、更快的速度稳定服务用户[7] 中国AI模型表现 - 以DeepSeek、Kimi和Qwen为代表的中国开源模型矩阵,在多项关键性能指标上实现了对Meta的Llama系列的全面反超[5] - Kimi K2版本K2-0905在全球知名AI编程评测平台Roo Code上获得超过94%的评分,成为首个在该平台突破90%评分的开源模型[4] - Kimi K2在全球公认的LMSys Chatbot Arena上登顶开源第一,被誉为全网领先的开源文本模型[7] - DeepSeek在复杂的推理任务上超越了OpenAI的o1-preview版本,并成功将高端技术推向商业场景[7] 市场应用与生态突破 - 中国模型在Anthropic限制API服务后迅速填补市场空白,在高价值领域抢占用户市场[3][4] - 硅谷知名投资人查马斯将其公司的大量工作需求从亚马逊旗下AI平台转向中国模型Kimi K2,理由是性能强且比OpenAI和Anthropic便宜太多[1][3] - Cursor、Perplexity、Vercel等全球知名开发平台及应用相继宣布接入中国模型[4] - 中国在开源能力、成本效率与生态落地上实现弯道超车,展现出巨大的市场应用潜力[4][7]
专家:2035年机器人数量或比人多
21世纪经济报道· 2025-10-04 13:41
AI产业规模与代际演进 - 新一代人工智能是原子、分子和比特的融合,是信息智能、物理智能和生物智能的融合 [1] - 移动互联时代产业规模比PC互联时代至少大10倍,人工智能时代产业规模将比前一代至少大100倍 [1] AI产业发展五大新趋势 - 第一大趋势是从鉴别式AI到生成式AI,并走向智能体AI,过去7个月智能体AI的任务长度翻倍、准确度超过50% [3] - 第二大趋势是预训练阶段的规模定律(Scaling Law)放缓,更多工作转移至训练后阶段如推理和智能体应用,推理成本降低10倍,但智能体复杂性使算力上涨10倍 [3] - 第三大趋势是物理智能和生物智能快速发展,如VLA模型规模化落地智能驾驶,预计2030年10%的车辆将具备L4功能 [3] - 第四大趋势是AI风险快速上升,智能体出现后让AI风险至少增加一倍 [4] - 第五大趋势是AI呈现新的产业格局,形成基础大模型+垂直模型+边缘模型局面,未来更大发展在于垂直模型和边缘模型 [4] AI模型产业格局与预测 - 预计2026年全球基础大模型约有8至10个,其中中国有3至4个,美国有3至4个 [4] - 中国在发展大模型方面呈现独特性,表现为更快的算法、更高效率、更低的价格 [4] - 未来开源模型将成为主流,开源与闭源模型之间的比例预计约为4:1 [4] 具身智能发展预测 - 具身智能将快速爆发,预计到2035年机器人数量有望超过人类数量 [4]
为 OpenAI 秘密提供模型测试, OpenRouter 给 LLMs 做了套“网关系统”
海外独角兽· 2025-09-23 15:52
公司概况与市场定位 - OpenRouter是一家成立于2023年初的模型路由平台,为用户提供统一的API Key来调用各类大语言模型[6] - 公司定位为大语言模型的聚合器和市场,可被视为Stripe与Cloudflare的结合体,提供统一的控制面板来编排、发现和优化所有智能需求[31] - 截至2025年8月,平台已接入超过470个模型,用户可通过OpenRouter管理所有模型的账单[31] - 2025年6月,公司完成4000万美元融资,投后估值达5亿美元,投资者包括a16z和Menlo Ventures[6] 业务模式与核心价值 - 核心业务是模型路由,根据用户的提示词自动或按指定条件(如价格、时延)将请求路由至最合适的模型和供应商[6] - 解决了API调用的三大痛点:缺少统一市场与接口、API不稳定、成本与性能难以平衡[7][9] - 通过接入大量模型(包括同一开源模型的多个供应商)实现自动故障转移,增强了API稳定性[9] - 可将简单任务分配给低成本模型,复杂任务交给高性能模型,帮助用户实现成本与性能的最佳平衡[9] 运营数据与增长表现 - 平台token用量经历高速增长,从2025年初的4050亿增长到8月的32100亿,增长约8倍[6] - 周请求量从年初的4050亿tokens增长到9月的49000亿,增长超过12倍[2] - 闭源模型在平台上占据主导地位,消耗了约70%–80%的token[48] - 开源模型是增长最快的类别,常承担“优化最后一公里”的角色,用户为降低成本或优化特定场景会从闭源转向开源[50] 技术优势与运营策略 - 通过智能负载均衡将请求发送到最适合的供应商,使模型运行时间比直接连接供应商平均提升5%到10%[37] - 整个路由过程仅增加约20到25毫秒的延迟,所有服务部署在离用户服务器很近的边缘节点[37] - 采用token作为核心衡量单位,避免了因模型价格快速下降对排名产生的干扰,并能体现时间维度和实际使用价值[38][40] - 创建了各种路由通道,让用户对模型访问方式保持完全控制,同时提供大量分析数据帮助用户发现有效模型[34][37] 行业影响力与合作伙伴 - 发布的模型用量报告在业内和社交媒体上引发广泛讨论,成为开发者和投资人群体的必读内容[3][10] - 马斯克曾多次引用OpenRouter数据宣传Grok Code,称其调用量突破1万亿次,为平台带来巨大曝光[15] - OpenAI在模型正式发布前会用其他名字在OpenRouter上秘密上线,用于收集开发者反馈,例如GPT-4.1曾以Quasar Alpha名称测试[40][41] - 拥有专门运行开源基准测试的社区,积累了大量小众但有价值的基准测试,为模型提供商提供真实、客观的反馈[43][46] 未来发展方向 - 战略目标是成为智能体(Agent)的最佳推理层,为所有模型添加记忆、网页搜索等有状态的智能体能力[3][57] - 致力于避免供应商锁定,让开发者始终拥有选择权,可以自由切换到更智能的模型[60] - 计划在个人账户层面实现三大功能:开箱即用的记忆功能、更智能的模型选择建议、更深入的响应分析[55][56][57] - 未来可能与其他公司合作或自行构建工具,确保开发者不会感到被束缚,保持对智能体运作方式的控制[57][60]