Workflow
闭源模型
icon
搜索文档
中美大模型分歧下,企业们也站在选择路口
财富FORTUNE· 2025-11-22 21:09
祥峰投资东南亚与印度区执行董事Chan Yip Pang认为,公司选择路线时要基于使用目的——是将它用 于内部生产力的提升,还是用于原生AI应用程序的构建? 如果是前者,企业要测试AI解决方案是否真的能够提高生产力,那么通常会采用闭源模型,这样可以 迅速获取投资回报率。但随着时间推移,费用会逐渐增加,在一个时间点公司会为了降低成本转向开 源。 如果是为了开发AI应用并将其作为服务销售的初创公司,选择开源模型是更好的选择,因为开源模式 能够让公司完全掌控技术栈,成本可控,且不必依赖大模型背后的巨头。相比之下,闭源模型随时可能 涨价,甚至改变模型特征,而用户公司对此毫无还手之力。 来自金融科技领域的Dyna.AI总经理兼投资者关系负责人Cynthia Siantar指出,她所在的领域受到严格监 管,监管者不会问公司的大模型是开源还是闭源,而是会问如何做出决策的?公司需要对此给出解释, 这时开源模型的优势就会凸显。 Amplify AI Group首席执行官Will Liang的客户大多来自金融服务行业,他表示,如果AI是用于关乎公司 竞争优势和机密的事项,大多情况下开源模式是更安全的选择,因为公司可以亲自部署并严 ...
谷歌前CEO公开发声,英伟达黄仁勋果然没说错,美国不愿看到的局面出现了!
搜狐财经· 2025-11-15 03:45
中美AI产业战略对比 - 美国AI企业普遍采用闭源、收费的商业模式,以维持市场地位和利润空间[3] - 中国AI企业选择开源、免费的路径,通过建立生态来占领市场和定义标准[7][9] - 美国闭源策略导致高昂的使用成本,例如API调用费用可达每月数千美元,限制了全球推广[5][6] 中国开源模型的全球影响力 - 中国开源模型在全球开发者社区中日益受欢迎,性能强大且免费[7] - 阿里通义千问Qwen在Hugging Face的累计下载量已于今年10月超越Meta的Llama,成为全球最受欢迎的开源大模型[9] - 国际企业如日本的众多公司以及美国Windsurf(被OpenAI以30亿美元收购)均采用中国模型如Qwen和智谱GLM进行开发[9] 美国AI产业面临的挑战 - 美国各州出台约50套新AI法规,例如加州的《前沿人工智能透明法案》,要求高算力模型提交透明报告,违规罚款可达全球年收入的1%,增加了运营成本[10] - 高昂的能源成本制约发展,英伟达H100或Blackwell GPU集群单次大模型微调耗电可抵一座中型城市一周用量[12] - 闭源策略和监管内耗使美国企业失去全球开发者支持,竞争优势逐渐消失[12][18] 中国AI产业的优势与进展 - 中国拥有充足的电力供应,多地政府对超大规模数据中心提供补贴,使边际电力成本趋近于零[12] - 中国AI企业展示出高效的开发能力,例如DeepSeek实验室的模型以低成本媲美顶尖性能,Kimi K2 Thinking模型开发成本仅460万美元且跑分超越GPT-5,智谱GLM-4.6在Code Arena榜单与GPT-5并列第一[14] - 从政府补贴到企业投入,形成完整的产业生态和良性循环[15][16] 行业领袖的警告与市场现实 - 谷歌前CEO埃里克·施密特指出“奇怪的悖论”,即美国模型闭源收费而中国模型开源免费,并预测大多数国家可能使用中国AI模型[1] - 英伟达CEO黄仁勋警告中国将赢得AI竞赛,并指出中国已能自主制造大量AI芯片,美国芯片限制政策反而加速了中国自主研发[18] - 美国芯片厂商在华市场份额从95%降至0%,对整个美国AI产业链造成冲击[18]
谷歌前CEO施密特:大多数国家最终可能使用中国AI模型
凤凰网· 2025-11-14 17:05
全球AI模型格局与成本影响 - 谷歌前CEO埃里克·施密特担忧多数国家因成本问题最终将采用中国的AI模型[2] - 美国顶尖AI模型为闭源而中国顶尖模型为开源 造成地缘政治问题[2] - 开源AI模型免费且允许任何人公开使用和共享软件 闭源模型则需付费[2] - 绝大多数资金不充裕的政府和国家将采用中国模型 主因是免费而非性能更优[2] 开源与闭源模型的行业观点 - 开源支持者认为开源能推动技术以民主化方式快速发展 因任何人可修改和分发代码[2] - 闭源模型拥护者认为代码不公开使其安全性更高[2] - 今年以来DeepSeek、阿里通义千问Qwen3等中国模型备受追捧 引发对美国竞争优势的担忧[2] 行业领袖对AI发展的立场 - 英伟达CEO黄仁勋和法国AI创业公司Mistral CEO阿瑟·门施均为开源模型支持者[3] - 黄仁勋在世界政府峰会上呼吁各国致力于建设主权AI 即国家对AI技术、数据及基础设施的控制与治理[3]
全球都用上中国免费大模型后,美国AI该怎么办?
观察者网· 2025-11-13 21:00
全球AI格局与中美策略对比 - 当前全球AI格局存在一个“奇怪的悖论”,美国最大的AI模型是闭源且收费的,而中国最大的AI模型却是开源且免费的[3] - 随着ChatGPT兴起,OpenAI率先进行闭源,引发一众美国AI企业纷纷效仿,仅开源上一代模型,导致其开源模型性能与最先进闭源模型存在较大差距[4] - 海外开源支持者认为开源能推动技术民主化发展且具备巨大成本优势,闭源模型拥护者则认为其安全性更高且更为先进[5] 中国开源AI模型的崛起与影响 - 中国AI行业已形成普遍共识拥抱开源生态,DeepSeek、阿里通义千问Qwen、智谱、Kimi、Minimax等中国模型六小龙纷纷拥抱开源,性能稳居头部梯队[5] - 中国开源模型在性能上持续突破:MiniMax-M2模型在全球权威测评榜单中总分位列全球前五、开源第一[6];Kimi K2 Thinking模型在跑分上超越GPT-5登顶排行榜,开发成本仅460万美元[6];智谱Glm-4.6模型在AI编程性能榜单上与GPT-5、Claude模型并列第一[6] - 阿里的Qwen模型累计下载量在10月已超美国Meta公司的Llama,成为全球最受欢迎的开源大模型[7] - 国外头部AI编程产品Windsurf的最新模型SWE-1.5基于智谱GLM-4.6定制开发,而Windsurf刚在5月被OpenAI以30亿美元收购[7] 行业领袖观点与全球影响 - 谷歌前CEO埃里克·施密特担心由于成本问题,大多数国家最终可能会使用中国的AI模型,因为它们是免费的[1][3] - 英伟达CEO黄仁勋表示中国在AI领域的实力与美国只有几纳秒之差,并称中国的开源是全球进步的催化剂[5][8] - 中国开源模型的蓬勃发展正在重塑全球AI竞争格局,越来越多国家或因“开源、安全、成本低廉”的优势转向中国开源模型[8] - 包括爱彼迎等硅谷大厂公开表示正在使用中国的开源大模型,并称赞其物美价廉[5];大量日本企业采用Qwen开源模型构建自己的应用,Qwen已成为日本AI技术最重要的底座之一[6]
杨植麟回复:Kimi K2训练用的H800!但“只花了460万美元”嘛…
量子位· 2025-11-11 19:11
文章核心观点 - Kimi K2 Thinking模型以显著低于行业水平的训练成本(传闻约460万美元)实现了卓越性能,其开源策略和工程创新正在引发硅谷开发者和企业从闭源模型向该模型的迁移潮 [1][5][13][14] 训练成本与行业影响 - 传闻Kimi K2 Thinking训练成本约为460万美元,低于DeepSeek V3的约560万美元,但公司澄清此非官方数据,并指出训练成本因包含大量研究和实验而难以精确计算 [1][13] - 低成本高性能的开源模型引发市场对闭源巨头高估值的反思,并可能推动对月之暗面公司的价值重估 [14][15] 技术架构与工程创新 - 模型架构继承并优化了DeepSeek等开源成果,将MoE层专家数量从256个增至384个以扩大知识容量,同时将每次推理激活参数量从约370亿降至320亿以降低推理成本 [16] - 词汇表从129K扩大至160K,并减少了MoE前的密集前馈网络块,进一步优化计算效率 [16] - 采用自研MuonClip优化器,在15.5万亿token的训练过程中实现了零训练崩溃,无需人为干预重启 [18] - 采用量化感知训练方案,实现原生INT4精度推理,在提升推理速度约2倍的同时将性能损失降至最低 [21] 市场反响与性能表现 - 硅谷投资人Chamath Palihapitiya将其新公司AI负载迁移至Kimi K2,原因是其性能更强且价格便宜得多 [6] - 云端开发平台Vercel CEO内部测试显示,Kimi K2比闭源模型快5倍,准确率高50% [8] - Claude Code用户相互传授将模型切换为Kimi K2的设置方法 [9] 公司未来规划与产品路线 - 下一代K3模型可能采用实验性混合注意力机制KDA,在同等条件下性能优于采用RoPE的模型,且速度更快、效率更高 [24] - 将很快推出类似Claude Code的Kimi Code产品,视觉语言模型正在开发中 [27] - 承认K2 Thinking思考过程过长、效率较低,下一版会将简化思考过程写入奖励函数 [27] - 曾尝试1M上下文窗口但因服务成本过高而搁置,未来会重新考虑更长的上下文窗口 [27]
Kimi K2 Thinking突袭,智能体&推理能力超GPT-5,网友:再次缩小开源闭源差距
36氪· 2025-11-07 11:07
产品发布与定位 - 月之暗面发布并开源Kimi K2 Thinking模型,主打“模型即Agent”概念,是公司迄今能力最强的开源思考模型[1] - 模型具备边思考边使用工具的能力,无需人工干预即可执行200-300次连续工具调用[1] - 该版本上线后成为热议对象,被认为再次缩小了开源模型与闭源模型的差距[3] 核心技术参数 - 模型采用1TB参数规模,激活参数为32B,并采用INT4量化而非FP8精度[5] - 支持256K上下文窗口,采用更多专家、更少注意力头、更多思考的设计[5] - 通过测试时扩展技术同时扩展思考Token和工具调用轮次,实现更强的Agent和推理性能[8] - 采用量化感知训练和对MoE组件应用INT4纯权重量化,使模型支持原生INT4推理,生成速度提升约2倍[26] 性能基准测试表现 - 在人类最后的考试中,Kimi K2 Thinking在允许使用工具的情况下取得44.9%的SOTA成绩[9] - 在BrowseComp基准测试中取得60.2%的成绩,显著超过人类平均智能29.2%的水平[18] - 在²-Bench Telecom智能体工具使用基准中达到SOTA,成绩从K2 Instruct的73%提升至93%[15] - 在HLE、BrowseComp和SEAL-0等评测基准中均刷新SOTA,超越GPT-5、Claude Sonnet 4.5等闭源模型[10] 智能体与工具调用能力 - 模型可借助上百轮的“思考→搜索→浏览网页→思考→编程”动态循环,持续提出并完善假设、验证证据、进行推理[20] - 具备将模糊开放式问题分解为清晰可执行子任务的能力,展现出“刨根问底”的钻研特性[20] - 官方示例显示模型通过23次推理和工具调用成功解决博士级别数学问题[13] 编程与开发能力 - 在SWE-Multilingual、SWE-bench验证集和LiveCodeBench等编程测试中与最强闭源模型表现相当[21] - 处理HTML、React及组件丰富的前端任务时性能明显提升,能将创意转变为功能齐全、响应式的产品[23] - 在Agentic Coding场景中能灵活融入software agents,处理复杂多步骤的开发工作流,如复刻Word文字编辑器[23] 通用能力升级 - 创意写作能力显著提升,能将粗略灵感转化为清晰动人且意图明确的叙述,保持长篇内容的风格连贯性[25] - 学术研究领域在分析深度、信息准确性和逻辑结构方面均有提升,擅长处理学术论文和技术摘要[25] - 回应个人或情感类问题时更富同理心,能提供细致入微的观点和切实可行的建议[25] 部署与生态建设 - 模型代码和权重遵循最宽松的MIT协议,已上线kimi.com和最新版Kimi手机应用[10] - API可通过Kimi开放平台访问,项目地址和技术博客已公开[38] - INT4量化设计对推理硬件兼容性更强,特别对国产加速计算芯片更友好[27]
硅谷大佬带头弃用 OpenAI、“倒戈”Kimi K2,直呼“太便宜了”,白宫首位 AI 主管也劝不住
36氪· 2025-11-04 18:50
行业趋势:从闭源模型向开源模型迁移 - 硅谷正从昂贵的闭源模型转向更便宜的开源替代方案,这一结构性转变在Reddit上引发热议[1] - 知名企业家Chamath Palihapitiya证实其团队已将大量工作负载从亚马逊Bedrock迁移至Groq平台上的中国模型Kimi K2,原因是性能显著更优且成本远低于OpenAI和Anthropic[1][5] - 行业专家David Freeberg指出AI领域正在进行全面的架构重构,目前处于每token成本优化的初期阶段,未来成本和能耗可能降低10倍至1万倍[4] 中国开源AI模型的竞争优势 - Kimi K2是由月之暗面开发的混合专家模型,总参数量达1万亿,激活参数量为320亿,已被Vercel、Cline、Cursor、Perplexity和GensparkAI等应用接入[1] - DeepSeek 3.2 EXP模型将API成本降低高达50%,每百万次输入收费28美分,每百万次输出收费42美分,而Anthropic的Claude模型收费约3.15美元,价格是DeepSeek的10到35倍[3] - 目前所有领先的开源大模型都来自中国,包括DeepSeek、Kimi和阿里巴巴的通义千问Qwen,美国在开源模型领域落后于中国[8] 模型迁移的技术挑战与成本考量 - 尽管开源模型成本优势明显,但模型迁移需要几周甚至几个月时间,因为不同模型需要经过微调与工程适配才能在同一个系统正常工作[2][6] - 企业面临复杂决策困境:是立即承受切换过程的麻烦,还是等待其他模型迎头赶上,任务越复杂这个问题越难解决[6] - 最终选择开源模型的核心是成本考量,用户选择平台纯看价格,这与上一代互联网选择云服务商的逻辑一致[14] 开源模型在美国的部署模式 - Groq接入中国模型的做法是获取模型源代码,在美国本土进行部署和分支开发,由美国人在美国数据中心操作[2][13] - 服务模式上,Groq把开源模型部署在自有基础设施上,通过开放API实现"token进、token出"的服务[2][14] - 企业喜欢这种部署方式因为可定制性强,且能将数据留在自己的基础设施里更安全[15] 行业竞争格局与地缘政治因素 - 高性能闭源模型都是美国的,高性能开源模型都是中国的,形成了中美在AI领域的技术路线差异[9] - Meta为Llama模型投入了数十亿美元,但Llama 4发布后评价不尽如人意,有消息称Meta可能放弃开源转向闭源[8] - OpenAI名字中的"Open"原本意味着开源,但现在已转向闭源,苹果在AI领域落后后推出了开源模型Open ELM[9] 能源成本对AI发展的影响 - 能源企业负责人预测电价未来五年可能翻倍,这将对AI使用成本产生重大影响[10] - 科技公司可能面临公关危机,如果电价上涨被归咎于AI能耗增加[10] - 提出了两个解决方案:让科技公司按更高费率缴纳电费进行交叉补贴,或在数据中心周边家庭安装储能设备[11]
硅谷大佬带头弃用OpenAI、“倒戈”Kimi K2,直呼“太便宜了”,白宫首位AI主管也劝不住
36氪· 2025-10-28 18:39
行业趋势:从闭源模型向开源模型迁移 - 硅谷正从昂贵的闭源模型转向更便宜的开源替代方案,这一结构性转变引发热议[1] - 知名企业家Chamath Palihapitiya证实其团队已将大量工作负载从亚马逊云科技Bedrock迁移至Groq平台上的中国模型Kimi K2,原因是性能更优且成本显著更低[1][5] - 行业观点认为性能和成本正在改写AI堆栈游戏,有评论称OpenAI可能未预见到这种情况的发生[2] 成本优势:中国开源模型的竞争力 - DeepSeek 3.2 EXP模型将API成本降低高达50%,收费标准为每百万次输入28美分,每百万次输出42美分[3] - Anthropic的Claude模型同类服务收费约3.15美元,价格是DeepSeek新模型的10到35倍[3] - 成本考量是切换到开源模型的核心原因,Palihapitiya表示既付不起3美元一个输出token的费用,也承担不起后续其他成本[2][11] - 多家初创公司正在测试或已投入使用DeepSeek模型,主要原因就是价格优势明显[3] 技术部署与运营模式 - Groq接入中国模型的做法是获取模型源代码,在美国本土数据中心进行部署和分支开发,由美国人操作[2][13] - 服务模式通过开放API实现"token进、token出",与OpenAI、ChatGPT等闭源模型模式相同但成本更低[2][14] - 企业可以选择在自有基础设施上运行模型,确保数据留在自己基础设施内,增强安全性[15] - 模型切换存在技术挑战,需要几周甚至几个月时间进行微调与工程适配,不同模型间的优化调整无法直接迁移[2][6] 中美AI产业竞争格局 - 当前所有领先的开源大模型都来自中国,包括DeepSeek、Kimi和阿里巴巴的通义千问Qwen[8] - 美国在闭源模型、芯片设计、芯片制造、半导体制造设备及数据中心环节领先,但开源模型领域落后于中国[8] - 高性能闭源模型都是美国的,高性能开源模型都是中国的,形成明显的地域技术路线分化[9][10] - Meta为Llama模型投入数十亿美元,但Llama 4发布后评价不尽如人意,有消息称Meta可能放弃开源转向闭源[8] 模型性能与技术特点 - Kimi K2是由月之暗面开发的混合专家大型语言模型,总参数量达1万亿,激活参数量为320亿[1] - DeepSeek 3.2 EXP模型搭载DSA功能,能加快大型任务的训练与推理速度[3] - 多家知名平台已接入Kimi K2模型,包括Vercel、AI编码助手Cline和Cursor、Perplexity和GensparkAI应用[1] 能源成本与未来发展 - 能源行业预测电价未来五年可能翻倍,这将使AI成本问题转化为能耗问题[10] - 未来架构革新可能让成本和能耗降低10倍到1万倍,对模型能耗需求和每token成本产生重大影响[4][5] - 提出交叉补贴方案,让科技公司按更高费率缴纳电费,由拥有数千亿现金流的科技巨头承担成本压力[11]
硅谷大佬带头弃用 OpenAI、“倒戈”Kimi K2!直呼“太便宜了”,白宫首位 AI 主管也劝不住
AI前线· 2025-10-28 17:02
硅谷AI模型使用趋势转变 - 硅谷正从昂贵的闭源模型转向更便宜的开源替代方案,这一趋势在Reddit上引发热议[2] - 知名投资人Chamath Palihapitiya透露其团队已将大量工作负载从Bedrock迁移至Groq平台上的中国模型Kimi K2,原因是性能显著更优且成本远低于OpenAI和Anthropic[2][6] - 多家知名技术平台如Vercel、Cline、Cursor、Perplexity和GensparkAI已宣布接入Kimi K2模型[2] Kimi K2模型技术特点 - Kimi K2是由月之暗面团队开发的混合专家大型语言模型,总参数量达1万亿,激活参数量为320亿[2] - 该模型采用Groq平台部署,通过开放的API实现"token进、token出"的服务模式[3] DeepSeek模型成本优势 - DeepSeek 3.2 EXP模型将API成本降低高达50%,收费标准为每百万次输入28美分,每百万次输出42美分[5] - 相比之下,Anthropic的Claude模型同类服务收费约3.15美元,价格是DeepSeek新模型的10到35倍[5] - 该开源模型已在亚马逊云科技和谷歌云平台上可用,多家初创公司正在测试或已投入使用[5] 模型迁移的技术挑战 - 将工作负载从一个模型切换到另一个模型需要几周甚至数月时间,因为模型需要经过微调与工程适配才能在同一个系统正常工作[3][7] - AI模型迭代速度快,用户面临是否承受迁移麻烦或等待其他模型迎头赶上的复杂博弈[7] 中美AI开源领域竞争格局 - 当前高性能闭源模型主要来自美国,而高性能开源模型主要来自中国,形成结构性竞争[11] - 中国在开源AI模型领域投入力度大,代表作品包括DeepSeek、Kimi和阿里巴巴的通义千问Qwen[10] - 美国在闭源模型、芯片设计、芯片制造、半导体制造设备和数据中心等其他技术环节保持领先[10] 开源模型部署与安全考量 - Groq接入中国模型的做法是获取模型源代码,在美国本土数据中心进行部署和分支开发,由美国人操作[3][16] - 企业可将开源模型部署在自有基础设施上,实现数据本地化,避免数据传回中国的风险[15][18] - 模型安全通过社区竞争循环保障,各大安全公司和云服务商积极测试寻找漏洞[18] AI发展面临的能源挑战 - 能源企业负责人预测未来五年电价可能翻倍,这将直接影响AI运营成本[12] - 科技公司可能面临更高的电费费率,通过"交叉补贴"方式承担数据中心能耗成本[13] - 成本问题将逐渐转化为能耗问题,对科技巨头构成潜在公关危机[12]
张亚勤院士:AI五大新趋势,物理智能快速演进,2035年机器人数量或比人多
机器人圈· 2025-10-20 17:16
AI产业规模与代际演进 - 人工智能时代产业规模预计将比前一代(移动互联时代)至少大100倍[5] - 移动互联时代产业规模比PC互联时代至少大10倍[5] AI技术发展的五大新趋势 - 趋势一:AI技术从鉴别式、生成式走向智能体AI,过去7个月智能体AI任务长度翻倍且准确度超过50%[7] - 趋势二:预训练阶段规模定律放缓,更多工作转移至训练后阶段如推理和智能体应用,前沿模型智力上限仍在提升但迭代速度放缓[7] - 趋势三:物理智能和生物智能快速发展,VLA模型推动智能驾驶规模化落地,预计2030年10%车辆将具备L4功能[7] - 趋势四:AI风险快速上升,智能体出现使AI风险至少增加一倍[8] - 趋势五:AI产业新格局形成,呈现基础大模型+垂直模型+边缘模型架构,后两者未来发展空间更大[8] 大模型发展格局预测 - 预计2026年全球基础大模型约8-10个,中国占3-4个,美国占3-4个[8] - 中国大模型发展具独特性,表现为更快算法、更高效率、更低价格[8] - 未来开源模型将成为主流,开源与闭源模型比例预计为4:1[8] 成本与算力动态 - 过去一年推理成本降低10倍,但智能体复杂性使算力需求上涨10倍,形成乘数效应[7] 长期产业机遇 - 新一代人工智能是原子、分子和比特融合,是信息智能、物理智能和生物智能融合[3] - 具身智能快速爆发,预计2035年机器人数量有望超过人类[8]