Workflow
开源模型
icon
搜索文档
全球都用上中国免费大模型后,美国AI该怎么办?
观察者网· 2025-11-13 21:00
全球AI格局与中美策略对比 - 当前全球AI格局存在一个“奇怪的悖论”,美国最大的AI模型是闭源且收费的,而中国最大的AI模型却是开源且免费的[3] - 随着ChatGPT兴起,OpenAI率先进行闭源,引发一众美国AI企业纷纷效仿,仅开源上一代模型,导致其开源模型性能与最先进闭源模型存在较大差距[4] - 海外开源支持者认为开源能推动技术民主化发展且具备巨大成本优势,闭源模型拥护者则认为其安全性更高且更为先进[5] 中国开源AI模型的崛起与影响 - 中国AI行业已形成普遍共识拥抱开源生态,DeepSeek、阿里通义千问Qwen、智谱、Kimi、Minimax等中国模型六小龙纷纷拥抱开源,性能稳居头部梯队[5] - 中国开源模型在性能上持续突破:MiniMax-M2模型在全球权威测评榜单中总分位列全球前五、开源第一[6];Kimi K2 Thinking模型在跑分上超越GPT-5登顶排行榜,开发成本仅460万美元[6];智谱Glm-4.6模型在AI编程性能榜单上与GPT-5、Claude模型并列第一[6] - 阿里的Qwen模型累计下载量在10月已超美国Meta公司的Llama,成为全球最受欢迎的开源大模型[7] - 国外头部AI编程产品Windsurf的最新模型SWE-1.5基于智谱GLM-4.6定制开发,而Windsurf刚在5月被OpenAI以30亿美元收购[7] 行业领袖观点与全球影响 - 谷歌前CEO埃里克·施密特担心由于成本问题,大多数国家最终可能会使用中国的AI模型,因为它们是免费的[1][3] - 英伟达CEO黄仁勋表示中国在AI领域的实力与美国只有几纳秒之差,并称中国的开源是全球进步的催化剂[5][8] - 中国开源模型的蓬勃发展正在重塑全球AI竞争格局,越来越多国家或因“开源、安全、成本低廉”的优势转向中国开源模型[8] - 包括爱彼迎等硅谷大厂公开表示正在使用中国的开源大模型,并称赞其物美价廉[5];大量日本企业采用Qwen开源模型构建自己的应用,Qwen已成为日本AI技术最重要的底座之一[6]
阿里“千问”突袭:从开源之王到全面对标ChatGPT
硬AI· 2025-11-13 15:06
项目战略定位 - 阿里巴巴秘密启动名为“千问”的战略级项目,以Qwen模型为核心打造个人AI助手APP,目标是与ChatGPT正面竞争[4] - 这是公司首次将战略重心从长期深耕的B端AI服务体系转向C端大模型应用层面,意味着从“为企业造工具”转向试图为全球用户打造“AI操作系统”[8][9] - 项目定位为在全球范围内构建以Qwen为底层、以中国开源生态为核心的AI系统入口,并同步研发国际版以争夺全球C端用户[23][24] Qwen模型的技术与生态优势 - Qwen已成为全球最受欢迎的开源大模型之一,累计下载量超过6亿次,位居全球第一[12] - 最新发布的Qwen3-Max在多个能力评测中超越GPT-5、Claude Opus 4,首次让中国开源模型进入全球前三梯队[12] - 英伟达CEO公开称Qwen已占据全球开源模型的大部分市场份额,该模型正成为硅谷创新链条的一部分,有Airbnb CEO表示公司“大量依赖Qwen”并认为“比OpenAI更快更好”[12][13][14] 行业趋势与竞争格局变化 - 全球AI竞争出现新趋势:开放性、可负担性、可部署性正成为与算力、模型能力并行的另一条竞争主线,中国的开源方案成为全球工程师和企业的基础组件[15][26] - 谷歌前CEO预测,在成本与可用性驱动下,大多数国家最终可能会转向中国的开源AI模型,美国政经评论人士也担忧美国AI产业过度依赖“闭源垄断策略”[18][19] - 此举对中国科技意味着首次有开源模型在“应用层”向全球头部产品发起正面竞争,对全球AI产业则意味着开源技术可能重塑未来产业格局[29] 市场反应与战略意义 - 消息公布后,阿里巴巴股价随之拉升,最新价达162.000港元,上涨3.51%[5][6] - 对阿里巴巴而言,这代表从B端模型服务商转向“AI超级入口”的战略加速,是公司在全球AI竞争中最重要的一次正面出击[25][26] - 当全球创新者使用中国开源模型创造新应用时,中国AI正以“基础设施”的形式嵌入世界技术版图[26]
杨植麟回复:Kimi K2训练用的H800!但“只花了460万美元”嘛…
量子位· 2025-11-11 19:11
文章核心观点 - Kimi K2 Thinking模型以显著低于行业水平的训练成本(传闻约460万美元)实现了卓越性能,其开源策略和工程创新正在引发硅谷开发者和企业从闭源模型向该模型的迁移潮 [1][5][13][14] 训练成本与行业影响 - 传闻Kimi K2 Thinking训练成本约为460万美元,低于DeepSeek V3的约560万美元,但公司澄清此非官方数据,并指出训练成本因包含大量研究和实验而难以精确计算 [1][13] - 低成本高性能的开源模型引发市场对闭源巨头高估值的反思,并可能推动对月之暗面公司的价值重估 [14][15] 技术架构与工程创新 - 模型架构继承并优化了DeepSeek等开源成果,将MoE层专家数量从256个增至384个以扩大知识容量,同时将每次推理激活参数量从约370亿降至320亿以降低推理成本 [16] - 词汇表从129K扩大至160K,并减少了MoE前的密集前馈网络块,进一步优化计算效率 [16] - 采用自研MuonClip优化器,在15.5万亿token的训练过程中实现了零训练崩溃,无需人为干预重启 [18] - 采用量化感知训练方案,实现原生INT4精度推理,在提升推理速度约2倍的同时将性能损失降至最低 [21] 市场反响与性能表现 - 硅谷投资人Chamath Palihapitiya将其新公司AI负载迁移至Kimi K2,原因是其性能更强且价格便宜得多 [6] - 云端开发平台Vercel CEO内部测试显示,Kimi K2比闭源模型快5倍,准确率高50% [8] - Claude Code用户相互传授将模型切换为Kimi K2的设置方法 [9] 公司未来规划与产品路线 - 下一代K3模型可能采用实验性混合注意力机制KDA,在同等条件下性能优于采用RoPE的模型,且速度更快、效率更高 [24] - 将很快推出类似Claude Code的Kimi Code产品,视觉语言模型正在开发中 [27] - 承认K2 Thinking思考过程过长、效率较低,下一版会将简化思考过程写入奖励函数 [27] - 曾尝试1M上下文窗口但因服务成本过高而搁置,未来会重新考虑更长的上下文窗口 [27]
K2 Thinking再炸场,杨植麟凌晨回答了21个问题
36氪· 2025-11-11 18:30
公司战略与沟通 - 公司采用低调的社区发布模式,不开设线下正式发布会,选择在Reddit、知乎等开发者社区进行线上AMA互动[1][2] - 公司明确开源策略,拥抱开源社区,并考虑未来发布安全对齐技术栈以惠及更多开发者[43][44] - 公司专注于将文本模型能力做到极致,探索智能上限,当前重心在模型训练而非开发浏览器等应用外壳[21][41][42] 产品K2 Thinking核心能力 - K2 Thinking是1万亿参数的稀疏混合专家架构开源模型,在实际运行时激活参数控制在300亿以保证速度[7][12] - 模型在HLE、BrowseComp等代表前沿能力的Agent基准测试中表现优异,分数甚至超过GPT-5[8] - 模型专为Agentic能力设计,擅长长思维链,能够连续执行200-300次工具调用来解决复杂问题[12][13][35] 产品定价与技术细节 - K2 Thinking具有显著成本优势,其百万token输出价格为2.5美元,仅为GPT-5(10美元)的四分之一[8] - 模型采用INT4量化手段以提升推理速度并更好地兼容非Blackwell架构的GPU[8][38][39] - 模型训练在配备Infiniband的H800 GPU上完成,团队在GPU数量不占优的情况下将单卡性能压榨到极致[18] 行业竞争格局 - 国产大模型进入丰收季,智谱GLM-4.6、MiniMax M2及K2 Thinking接力开源,在全球榜单上表现活跃[9] - 国内厂商技术路线出现分化,MiniMax侧重性价比与稳定性,智谱GLM定位全面以抢占Claude断供后的市场,而公司则选择性能优先的激进路径[19][20][22] - 国产模型创新速度加快,在芯片等基础设施受限的情况下,于算法层面找到了细分创新方向[18][19] 未来发展规划 - 下一代K3模型计划引入重大架构更改,公司最新的KDA实验架构相关想法很可能会在K3中使用[40] - 公司未来会重新审视更长的上下文窗口,并可能发布更多像Kimi Linear这样的小模型作为研究演示[29][30] - 公司对多模态(如视觉理解)模型持开放态度,但因数据获取和训练需要时间,发布时间线会靠后[17]
罕见,月之暗面杨植麟、周昕宇、吴育昕回应一切:打假460万美元、调侃OpenAI
36氪· 2025-11-11 12:25
公司技术进展与产品规划 - Kimi K2 Thinking模型当前版本优先考虑绝对性能而非token效率,推理时间较长的问题将在后续优化 [3] - 公司正在研究K2的视觉-语言版本,因获得正确的视觉-语言数据和训练需要时间,故先发布纯文本模型 [1][4] - 公司开源了混合线性注意力架构Kimi Linear,其KDA模块在预训练和强化学习阶段均优于采用RoPE的完整MLA,且更快、更经济,很可能以某种形式出现在K3中 [1][5] - 公司在模型中采用了未经其他厂商测试的优化器Muon,并已通过所有扩展测试,对研究成果充满信心 [7] - 公司未来将增加模型上下文长度,此前已尝试过100万个token的上下文窗口,但因服务成本过高未推广,未来会重新考虑 [11] - 公司已发布小型模型Kimi-Linear-48B-A3B-Instruct,未来可能训练更多模型并添加功能 [11] 产品性能与市场反馈 - Kimi K2 Thinking在HLE基准测试中得分较高,但在实际应用中的通用能力仍需提升,公司正努力改善以充分发挥智能作用 [4] - 模型采用INT4原生设计提升推理速度,其Turbo API会更快,推理token数量取决于模型训练方式 [4] - 模型独特的直接文风是后训练数据和评估的重要组成部分,获得用户认可 [5] - 有用户反馈Kimi已成为主要测试模型,但生产环境会切换到美国本土模型,部分企业因地缘风险担忧限制使用 [8][9] - 公司提供基于API请求次数的编程订阅方案,用户反映资源消耗偏高,公司承诺尽快找到更好方案 [12] 公司战略与行业互动 - 公司强调拥抱开源,认为对AGI的追求应带来团结而非分裂,开放安全对齐技术栈有助于微调开源模型时保持安全性 [2] - 公司暂无开发AI浏览器计划,认为做出更好模型无需套用新的Chromium壳,将专注于模型训练并更新kimi.com集成最新功能 [2][11] - 公司以开源作为消除企业部署顾虑的途径,希望建立更加信任的环境 [9] - 公司联合创始人调侃OpenAI,提及“Sam价值万亿美元的数据中心”及OpenAI烧钱问题,强调自有方式和节奏 [2] - 公司通过RedditAMA活动直面全球开发者尖锐提问,显示中国AI创新能力获得国际认可 [13]
AI产业跟踪:MiniMax-M2发布,登顶开源模型,持续关注大模型商业化落地进展
长江证券· 2025-11-09 22:32
报告行业投资评级 - 行业投资评级为“看好”,并予以“维持” [8] 报告核心观点 - MiniMax M2模型的发布为开源模型在执行智能和企业应用领域打开了新的想象空间 [2][10] - 当前时点大模型商业化变现有望加速,需关注模型降本效果 [2][10] - 继续看好国产AI产业链,持续重点推荐“铲子股”和卡位优势显著的巨头本身 [2][10] 事件描述 - 10月27日,稀宇科技正式开源并上线MiniMax M2模型 [2][5] - 模型采用MoE架构,总参数230B(激活参数10B),专为Agent和代码设计 [2][5] - M2的完整权重已依据MIT协议全面开源,全球范围限时免费开放 [2][5] - 同时,MiniMax Agent国内版上线、海外版升级 [2][5] 模型性能表现 - **代码能力**:在SWE-bench Verified测试中得分69.4,仅次于GPT-5和Claude,是国产模型首次在真实编程任务上稳定进入第一梯队 [10] - **Agentic表现**:在Artificial Analysis测试中以61分获得总排名第五、开源第一 [10] - **工具使用**:在τ²-Bench测试中获77.2分,位列国产模型第一,次于Claude Sonnet 4.5(84.7分)和GPT-5(80.1分) [10] - **深度搜索**:在BrowseComp和xbench-DeepSearch测试中均为稳定的tier1级别发挥 [10] - **实用性**:在FinSearchComp-global金融专业领域检索分析能力测试中以65.5分登顶全球第一 [10] 技术架构优势 - 采用全注意力机制,保证每一步推理都能看到完整的必要上下文,实现深链条信息完整可见 [10] - 采用交错的思维格式,使模型能够规划和验证跨多个对话的操作步骤,这对于Agent推理至关重要 [10] - 技术路线旨在将资源集中在代码生成、工具调用、浏览器/终端自动化等可执行型Agent任务上 [10] 成本与效率优势 - M2输入价格约为$0.3/MToken(约合人民币2.1元),输出价格约为$1.20/MToken(约合人民币8.4元),约为Claude 4.5 Sonnet价格的8% [10] - 线上提供TPS(每秒输出Token数)约100的推理服务,且还在快速提升 [10] 市场反响与商业化前景 - 截至11月6日,M2位居OpenRouter和HuggingFace趋势榜全球第一 [10] - M2是OpenRouter上第一个日token消耗量超过50B的中国模型 [10] - MiniMax Agent推出专业和高效模式,专业模式擅长全栈开发/deep research/PPT制作,高效模式在chat问答/轻量级搜索/轻量级代码场景极速输出 [10] - 市场反响热烈意味着市场更加关注AI模型“为什么能做、能否持续做”,M2为企业带来了更可靠的用户体验,更容易形成产品标准,加快商业化落地 [10] - MiniMax正加速构建面向Agent生态的产品体系 [2][10]
专访龚克:AI时代对人的科学素养和价值判断力提出更高要求
南方都市报· 2025-11-09 12:42
AI智能体发展现状与挑战 - AI智能体成为科技企业重要投资方向,被视为未来流量与服务的新入口[3] - 智能体作为人类与AI的接口,可同时调用多个模型和工具,实现任务理解、环境感知和行动执行[3] - 当前智能体面临"不好用""不靠谱"争议,只能执行标准化任务,难以满足复杂场景需求[3] - AI赛道存在投资过热和媒体过热的泡沫现象,但技术本身仍在发展进程中[5] AI技术未来演进方向 - 从单模态向多模态发展,实现文生图、音频、视频、代码等跨模态生成能力[5] - 走向"知行合一"的具身智能,具备行动能力并与物理实体实现交互[6] - 开源成为大模型发展重要趋势,通过众创加快迭代进步并提升安全可控性[6] - 绿色转型势在必行,需利用风电光电等新能源,实现硬件循环利用和能效优化调度[6] 人机协作新要求 - 人工智能应用普及对个人科技素养、提问能力和价值判断能力提出更高要求[1] - 使用者需具备准确表达问题和下达任务的能力,提问质量直接影响AI输出结果[4][5] - 大模型时代提出问题能力比解决问题更重要,需要判断AI生成内容是否符合事实、科学和伦理[5] - 人类需提升科学素养包括伦理素养和逻辑素养,以更好地驾驭高级技术工具[4][5]
Kimi K2 Thinking突袭,智能体&推理能力超GPT-5,网友:再次缩小开源闭源差距
36氪· 2025-11-07 11:07
产品发布与定位 - 月之暗面发布并开源Kimi K2 Thinking模型,主打“模型即Agent”概念,是公司迄今能力最强的开源思考模型[1] - 模型具备边思考边使用工具的能力,无需人工干预即可执行200-300次连续工具调用[1] - 该版本上线后成为热议对象,被认为再次缩小了开源模型与闭源模型的差距[3] 核心技术参数 - 模型采用1TB参数规模,激活参数为32B,并采用INT4量化而非FP8精度[5] - 支持256K上下文窗口,采用更多专家、更少注意力头、更多思考的设计[5] - 通过测试时扩展技术同时扩展思考Token和工具调用轮次,实现更强的Agent和推理性能[8] - 采用量化感知训练和对MoE组件应用INT4纯权重量化,使模型支持原生INT4推理,生成速度提升约2倍[26] 性能基准测试表现 - 在人类最后的考试中,Kimi K2 Thinking在允许使用工具的情况下取得44.9%的SOTA成绩[9] - 在BrowseComp基准测试中取得60.2%的成绩,显著超过人类平均智能29.2%的水平[18] - 在²-Bench Telecom智能体工具使用基准中达到SOTA,成绩从K2 Instruct的73%提升至93%[15] - 在HLE、BrowseComp和SEAL-0等评测基准中均刷新SOTA,超越GPT-5、Claude Sonnet 4.5等闭源模型[10] 智能体与工具调用能力 - 模型可借助上百轮的“思考→搜索→浏览网页→思考→编程”动态循环,持续提出并完善假设、验证证据、进行推理[20] - 具备将模糊开放式问题分解为清晰可执行子任务的能力,展现出“刨根问底”的钻研特性[20] - 官方示例显示模型通过23次推理和工具调用成功解决博士级别数学问题[13] 编程与开发能力 - 在SWE-Multilingual、SWE-bench验证集和LiveCodeBench等编程测试中与最强闭源模型表现相当[21] - 处理HTML、React及组件丰富的前端任务时性能明显提升,能将创意转变为功能齐全、响应式的产品[23] - 在Agentic Coding场景中能灵活融入software agents,处理复杂多步骤的开发工作流,如复刻Word文字编辑器[23] 通用能力升级 - 创意写作能力显著提升,能将粗略灵感转化为清晰动人且意图明确的叙述,保持长篇内容的风格连贯性[25] - 学术研究领域在分析深度、信息准确性和逻辑结构方面均有提升,擅长处理学术论文和技术摘要[25] - 回应个人或情感类问题时更富同理心,能提供细致入微的观点和切实可行的建议[25] 部署与生态建设 - 模型代码和权重遵循最宽松的MIT协议,已上线kimi.com和最新版Kimi手机应用[10] - API可通过Kimi开放平台访问,项目地址和技术博客已公开[38] - INT4量化设计对推理硬件兼容性更强,特别对国产加速计算芯片更友好[27]
中国AI的性价比 已成全球杀器
凤凰网· 2025-11-05 08:32
中国AI模型的全球市场渗透 - Airbnb CEO公开表示公司很大程度上依赖阿里巴巴的Qwen模型,因其非常好、速度快且很便宜,尽管其与OpenAI CEO私交甚好,但在生产中不会大量使用OpenAI最新模型,因为有更快、更经济的替代选择[1] - 硅谷传奇投资人查马斯・帕里哈皮蒂亚已将核心业务负载从美国AI模型转向中国的Kimi K2模型,理由是性能够强且比OpenAI和Anthropic便宜太多,国外初创公司GlueAI团队同样频繁使用Kimi K2[4] - 海外研究团队与企业选择中国AI模型,背后是开源策略与性价比的双重胜利,Thinking Machines Lab的研究博客点名“Qwen”达38次,称其研究受到Qwen团队启发[4] 中国AI模型的开源生态与性价比优势 - 截至2025年8月,阿里通义已开源200余个模型,全球下载量超3亿次,千问系列衍生模型突破10万个,远超Meta的Llama系列,成为全球最大的开源模型家族[4] - MiniMax发布的全新模型M2在智能代理任务上接近GPT-5水平,但主打限时免费策略,目前已登顶HuggingFace Trending榜单[5] - 据《经济学人》今年8月报道,在硅谷路演的AI初创公司中,有80%可能在使用中国开源模型,而三年前OpenAI还垄断市场话语权[5] - 塞浦路斯的AI工具平台Latenode联合创始人表示,DeepSeek整体质量相同但价格便宜17倍,使其在智利和巴西等地区特别有吸引力[5] 国际金融机构与科技巨头对中国模型的采纳 - 汇丰银行、渣打银行等国际金融机构已开始内部测试DeepSeek模型,全球最大石油公司沙特阿美将DeepSeek系统直接部署在其数据中心[5] - 即便是亚马逊AWS、微软和谷歌等美国云服务巨头,也在向客户提供DeepSeek服务[5] - 英伟达CEO黄仁勋在GTC大会点名千问与DeepSeek,表示Qwen是世界级的语言模型,DeepSeek在推理架构上的突破是革命性的[6] 海外科技大厂的算力成本压力与战略调整 - 微软在裁员6000人后,又宣布削减9000个岗位,此为两年来最大规模裁员,涉及不同部门、地区及各个经验层级的员工[7] - 微软裁员有明确的战略指向,在AI竞争日益激烈下,算力成为决定企业竞争力的关键,高端AI芯片价格高昂,一枚英伟达H100芯片售价可达数万美元,在营收增长放缓下,裁员成平衡成本与算力需求的选项[8] - 亚马逊计划裁减约1.4万名公司职员,其裁员规模和力度不逊于微软,旨在将资源重新分配到优先领域,让人工智能这一最具变革性的技术使企业能够以前所未有的速度创新[8] 算力需求驱动的资本聚集与行业格局重塑 - 英伟达股价开盘上涨3.2%,市值首次站上5万亿美元,成为史上第一家市值跨越此里程碑的上市公司,其市值从4万亿美元到5万亿美元仅用时113天[9] - OpenAI正在筹备上市,最快于2026年提交IPO申请,或将成为人类资本史上最大一次融资事件,但OpenAI每赚1美元就要花费2.25美元,与英伟达、AMD等昂贵算力基建高度绑定[9] - OpenAI开始向重度用户出售Sora生成式AI视频工具的额外使用积分,否则GPU资源将无法支撑用户增长[9] 中国AI模型的技术创新与生态竞争 - DeepSeek发布的全新多模态模型DeepSeek-OCR,提出利用视觉模态压缩长文本上下文的新方法,其核心构件视觉encoder的高效解码为光计算和量子计算在LLM领域的引入提供了技术路径[10] - Kimi提出新的混合线性注意力架构Kimi Linear,能极大改善运营效率,可将KV缓存减少75%同时将吞吐量提升6倍,是一个即插即用替代方案[10] - 黄仁勋表示全球50%的AI研究人员是中国人,AI竞争包括能源、芯片、基础设施、模型与应用等层次,美国不仅要发明AI更要率先普及AI[10]
硅谷大佬带头弃用 OpenAI、“倒戈”Kimi K2,直呼“太便宜了”,白宫首位 AI 主管也劝不住
36氪· 2025-11-04 18:50
行业趋势:从闭源模型向开源模型迁移 - 硅谷正从昂贵的闭源模型转向更便宜的开源替代方案,这一结构性转变在Reddit上引发热议[1] - 知名企业家Chamath Palihapitiya证实其团队已将大量工作负载从亚马逊Bedrock迁移至Groq平台上的中国模型Kimi K2,原因是性能显著更优且成本远低于OpenAI和Anthropic[1][5] - 行业专家David Freeberg指出AI领域正在进行全面的架构重构,目前处于每token成本优化的初期阶段,未来成本和能耗可能降低10倍至1万倍[4] 中国开源AI模型的竞争优势 - Kimi K2是由月之暗面开发的混合专家模型,总参数量达1万亿,激活参数量为320亿,已被Vercel、Cline、Cursor、Perplexity和GensparkAI等应用接入[1] - DeepSeek 3.2 EXP模型将API成本降低高达50%,每百万次输入收费28美分,每百万次输出收费42美分,而Anthropic的Claude模型收费约3.15美元,价格是DeepSeek的10到35倍[3] - 目前所有领先的开源大模型都来自中国,包括DeepSeek、Kimi和阿里巴巴的通义千问Qwen,美国在开源模型领域落后于中国[8] 模型迁移的技术挑战与成本考量 - 尽管开源模型成本优势明显,但模型迁移需要几周甚至几个月时间,因为不同模型需要经过微调与工程适配才能在同一个系统正常工作[2][6] - 企业面临复杂决策困境:是立即承受切换过程的麻烦,还是等待其他模型迎头赶上,任务越复杂这个问题越难解决[6] - 最终选择开源模型的核心是成本考量,用户选择平台纯看价格,这与上一代互联网选择云服务商的逻辑一致[14] 开源模型在美国的部署模式 - Groq接入中国模型的做法是获取模型源代码,在美国本土进行部署和分支开发,由美国人在美国数据中心操作[2][13] - 服务模式上,Groq把开源模型部署在自有基础设施上,通过开放API实现"token进、token出"的服务[2][14] - 企业喜欢这种部署方式因为可定制性强,且能将数据留在自己的基础设施里更安全[15] 行业竞争格局与地缘政治因素 - 高性能闭源模型都是美国的,高性能开源模型都是中国的,形成了中美在AI领域的技术路线差异[9] - Meta为Llama模型投入了数十亿美元,但Llama 4发布后评价不尽如人意,有消息称Meta可能放弃开源转向闭源[8] - OpenAI名字中的"Open"原本意味着开源,但现在已转向闭源,苹果在AI领域落后后推出了开源模型Open ELM[9] 能源成本对AI发展的影响 - 能源企业负责人预测电价未来五年可能翻倍,这将对AI使用成本产生重大影响[10] - 科技公司可能面临公关危机,如果电价上涨被归咎于AI能耗增加[10] - 提出了两个解决方案:让科技公司按更高费率缴纳电费进行交叉补贴,或在数据中心周边家庭安装储能设备[11]