DeepSeek 3.2 EXP

搜索文档
 硅谷大佬带头弃用OpenAI、“倒戈”Kimi K2,直呼“太便宜了”,白宫首位AI主管也劝不住
 36氪· 2025-10-28 18:39
刚刚,这样一个消息在 Reddit 上引发热议:硅谷似乎正在从昂贵的闭源模型转向更便宜的开放源替代 方案。 被称为"SPAC 之王"的知名美国企业家和投资人 Chamath Palihapitiya 公开表示,其团队是 Bedrock 的前 20 大用户,但现在已将大量工作负载迁移至 Groq 平台上的中国模型 Kimi K2,因为该模型的性能显著 更优,且比 OpenAI 和 Anthropic 都要便宜得多。 Kimi K2 是由月之暗面团队开发的混合专家(MoE)大型语言模型,总参数量达 1 万亿,激活参数量为 320 亿。此前,知名云端开发平台 Vercel、AI 编码助手 Cline 和 Cursor、Perplexity 和 GensparkAI 应用 也都接连宣布接入 Kimi K2 模型。 另外要说明的是,这个模型是开源的,大家要清楚,它已经可以在亚马逊云科技和 GCP(谷歌云)上 使用了,至少 3.1 版本是这样。我不知道 3.2 版本现在是否也能在这些平台上用,但我从很多初创公司 那里听说,他们正在测试、试用这个模型,有些甚至已经投入使用,原因就是它太便宜了。 Kimi 模型是由月之暗面开 ...
 硅谷大佬带头弃用 OpenAI、“倒戈”Kimi K2!直呼“太便宜了”,白宫首位 AI 主管也劝不住
 AI前线· 2025-10-28 17:02
 硅谷AI模型使用趋势转变 - 硅谷正从昂贵的闭源模型转向更便宜的开源替代方案,这一趋势在Reddit上引发热议[2] - 知名投资人Chamath Palihapitiya透露其团队已将大量工作负载从Bedrock迁移至Groq平台上的中国模型Kimi K2,原因是性能显著更优且成本远低于OpenAI和Anthropic[2][6] - 多家知名技术平台如Vercel、Cline、Cursor、Perplexity和GensparkAI已宣布接入Kimi K2模型[2]   Kimi K2模型技术特点 - Kimi K2是由月之暗面团队开发的混合专家大型语言模型,总参数量达1万亿,激活参数量为320亿[2] - 该模型采用Groq平台部署,通过开放的API实现"token进、token出"的服务模式[3]   DeepSeek模型成本优势 - DeepSeek 3.2 EXP模型将API成本降低高达50%,收费标准为每百万次输入28美分,每百万次输出42美分[5] - 相比之下,Anthropic的Claude模型同类服务收费约3.15美元,价格是DeepSeek新模型的10到35倍[5] - 该开源模型已在亚马逊云科技和谷歌云平台上可用,多家初创公司正在测试或已投入使用[5]   模型迁移的技术挑战 - 将工作负载从一个模型切换到另一个模型需要几周甚至数月时间,因为模型需要经过微调与工程适配才能在同一个系统正常工作[3][7] - AI模型迭代速度快,用户面临是否承受迁移麻烦或等待其他模型迎头赶上的复杂博弈[7]   中美AI开源领域竞争格局 - 当前高性能闭源模型主要来自美国,而高性能开源模型主要来自中国,形成结构性竞争[11] - 中国在开源AI模型领域投入力度大,代表作品包括DeepSeek、Kimi和阿里巴巴的通义千问Qwen[10] - 美国在闭源模型、芯片设计、芯片制造、半导体制造设备和数据中心等其他技术环节保持领先[10]   开源模型部署与安全考量 - Groq接入中国模型的做法是获取模型源代码,在美国本土数据中心进行部署和分支开发,由美国人操作[3][16] - 企业可将开源模型部署在自有基础设施上,实现数据本地化,避免数据传回中国的风险[15][18] - 模型安全通过社区竞争循环保障,各大安全公司和云服务商积极测试寻找漏洞[18]   AI发展面临的能源挑战 - 能源企业负责人预测未来五年电价可能翻倍,这将直接影响AI运营成本[12] - 科技公司可能面临更高的电费费率,通过"交叉补贴"方式承担数据中心能耗成本[13] - 成本问题将逐渐转化为能耗问题,对科技巨头构成潜在公关危机[12]

