Open Source AI
搜索文档
Nvidia bulks up open source offerings with an acquisition and new open AI models
TechCrunch· 2025-12-16 06:00
英伟达在开源AI领域的战略扩张 - 公司通过收购与发布新模型,在开源AI领域进行双线扩张,旨在巩固其作为生成式AI和物理AI关键基础设施供应商的地位 [1][3][8] 收购SchedMD以强化高性能计算基础设施 - 公司收购了领先的开源工作负载管理系统Slurm的开发商SchedMD,交易条款未披露 [1][2] - Slurm系统专为高性能计算和AI设计,于2002年推出,公司计划将其作为开源、供应商中立的软件继续运营 [1] - 公司与SchedMD已有超过十年的合作历史,认为该技术是生成式AI的关键基础设施,并计划持续投资以加速其在不同系统中的接入 [3] 发布新一代开源AI模型Nemotron 3 - 公司发布了名为Nvidia Nemotron 3的新系列开源AI模型,声称其是构建精准AI智能体“最高效的开放模型家族” [3] - 该模型家族包括:用于特定任务的Nemotron 3 Nano、为多AI智能体应用构建的Nemotron 3 Super,以及为更复杂任务构建的Nemotron 3 Ultra [4] - 公司CEO黄仁勋表示,开源创新是AI进步的基石,Nemotron旨在将先进AI转化为开放平台,为开发者提供构建规模化智能体系统所需的透明度和效率 [6] 近期在开源AI领域的其他举措 - 上周,公司发布了一个专注于自动驾驶研究的新型开源推理视觉语言模型Alpamayo-R1 [7] - 公司同时为其在宽松许可下开源的Cosmos世界模型增加了更多工作流程和指南,以帮助开发者更好地利用模型开发物理AI [7] 战略背景与行业展望 - 上述活动反映了公司对物理AI将成为其GPU下一个前沿领域的押注 [8] - 公司旨在成为众多机器人或自动驾驶汽车公司在寻找AI与软件以开发技术“大脑”时的首选供应商 [8] - 近几个月来,公司持续推动加强其开源和开放AI产品供应 [6]
China's DeepSeek Releases New Open Source AI Model Amid Google's Gemini 3 Roll Out
Investors· 2025-11-28 20:58
开源AI模型竞争格局 - 中国公司DeepSeek在2025年1月发布新型先进开源人工智能模型,紧随Alphabet旗下谷歌推出专有Gemini 3之后[1] - 除DeepSeek外,中国公司百度、阿里巴巴以及智谱AI、月之暗面等也在构建开源模型[2] - 开源模型能力对开发者免费,允许任何人在其之上进行重建和开发,导致出现能减少训练大语言模型所需计算能力的更高效开源模型[2] - Meta平台曾是开源模型的主要支持者,但观察人士认为中国公司已超越Meta的开源模型,2025年1月的"DeepSeek时刻"巩固了中国在AI技术领域的竞争力[3] - 新的DeepSeek模型在数学推理方面表现良好,并在Hugging Face和GitHub上开源[3] 专有AI模型发展动态 - 谷歌于11月16日发布其最新人工智能系统Gemini 3,将在性能评测中与OpenAI的GPT-5和Anthropic的Claude系列竞争[4] - Gemini 3提升了聊天机器人的编码、搜索和图像创建能力[4] - 专有AI模型阵营(OpenAI、谷歌和Anthropic)与开源竞争对手都专注于构建能够自主行动的AI智能体[4] - 自OpenAI在2022年底推出ChatGPT以来,投资者开始担忧谷歌核心互联网搜索业务可能受到颠覆,因ChatGPT直接提供搜索查询答案,而谷歌商业模式基于提供网页链接[5] 相关公司股价与市场表现 - 英伟达股票在2025年1月因推出低成本开源AI模型而下跌,但在DeepSeek发布R-1 AI模型后暴跌17%,不过该股最终反弹并在2025年累计上涨30%[1][7] - 谷歌股票在2025年上涨68%,因公司人工智能战略整合,将AI能力全面应用于互联网搜索、云计算、数字广告、自动驾驶汽车开发商Waymo、YouTube、Gmail和Workspace以及地图等应用[6] - 亚马逊、微软和谷歌等云超大规模供应商已在新建AI数据中心上投入数百亿美元[7] 中国AI市场与成本优势 - 杰富瑞分析师Edison Lee在11月11日报告中指出,中国AI API定价全球最低,DeepSeek近期因效率提升将其API定价降低63%[8] - 中国的低AI定价可能更容易推动应用开发和用户采纳,即使中国的推理由次优半导体支持,其AI领域仍显示出更好的投资回报潜力[8] - DeepSeek的进展引发了对开发AI系统所需计算能力的质疑,而计算能力是AI股的关键驱动因素[7]
深度|Hugging Face联创:中国模型成初创公司首选,开源将决定下一轮AI技术主导权
Z Potentials· 2025-11-28 10:52
2025-2026年AI行业宏观趋势 - 行业呈现算力向少数核心参与者集中的趋势,算力是2026年的关键话题[7] - 开源社区涌现大量新参与者,中国新实验室训练出优秀模型成为重要现象[7] - 美国出现“开源重新兴起”现象,是对中国AI发展的反应,出现估值数十亿美元的新公司如Reflection[9] - 探索全新AI使用场景的初创公司倾向于从中国开源模型开始,以突破闭源模型的限制[9] - 在AI模型分析榜单中,排名第五的Minimax M2是表现强劲的开源模型[12] 大语言模型规模扩展的局限性 - LLM的泛化能力比预期弱得多,当前秘诀是尽可能多地对数据进行标注和在不同环境做强化学习[15] - 现有技术会遇到天花板,难以实现超级智能的跨越式提升,即模型做到“人做不到的事”[15] - 依赖不断标注数据、缓慢推动边界的方式,很难让AI具备定义新研究问题、挑战旧有假设的能力[18] - AI模型被训练成“唯唯诺诺的队伍”,会说“Yes”但不会提出好问题,缺乏真正创新能力[20] - 在数学领域,AI未能提出能让数学家投入数年研究的猜想,如费马大定理级别的创造力[22] AI行业估值与资本投入 - 尽管存在泡沫,但巨量资本投入可能催生意料之外的真正突破[25] - 资本投入可提升模拟环境的精确度和质量,从而间接推动科学进步[29] - AI需求推动GPU变得更强、更便宜、规模更大,这些GPU也将受益于科学模拟和工程领域[30][31] - 模拟和AI之间可能形成真正的“飞轮效应”,共同滚动发展[32] 开源与闭源的博弈 - 公司选择开源与否是吸引人才的重要策略,在西方做闭源更有吸引力,在中国则闭源实验室难挖到最优秀的人[36][37] - 开源模型便于调整、试验、定制,能更好地处理数据隐私场景,并提供部署自由度和可控性[39][40] - NVIDIA是Hugging Face上最大的开源模型和数据集贡献者之一,具备训练全球前两名模型的能力[43] - 在偏自由资本主义体系下,开源是美国构建健康AI生态的最佳方式[43] Hugging Face业务与战略 - 公司运营效率高,上一轮超2亿美元融资资金尚未动用,团队约250人,规模节制[46][47][48] - 业务从咨询服务转向推出Hub企业版,具备访问控制、权限管理等生产级安全需求,已有数千个组织使用[49][50] - 核心方向是服务“AI构建者”,企业版产品是未来长期重要、规模很大的产品[51] - 收购Humanoid Robotic并发布机器人Ritchie,旨在构建机器人领域的开源AI社区[52][53] - 发布售价100美元的SU-100机械臂和桌面型机器人Ritchie Mini,专注于探索人机交互方向[57][58][59] - 机器人产品卖出约150万美元,预计一个月内发货给用户[59][60]
Outside the U.S. and Europe, the momentum of China’s open source AI models is plain to see
Yahoo Finance· 2025-11-26 03:33
开源AI模型的优势与采纳趋势 - 亚洲企业更关注对数据和成本的控制 在这些指标上开源模型往往胜出[1] - 中国领先的AI云托管服务公司SiliconFlow开发了多种技术 能以更具成本效益的方式运行开源模型 完成特定任务比使用专有模型显著更便宜[1] - 多数客户发现 针对特定用例使用自有数据微调开源模型后 其性能可以超越专有模型 且无敏感或竞争数据泄露风险[1] - Vertex Ventures的负责人强调 使用专有模型意味着放弃对关键成本的控制 并建议初创公司若构建关乎竞争优势的核心AI应用 应基于开源技术栈[1] - 总部位于新加坡的Dyna.AI公司CEO指出 一些中国开源模型在本地语言上表现更好[1] - 美国以外的企业 特别是东南亚地区 强烈希望基于开源AI模型构建应用 并且倾向于采用来自中国的开源模型[2] - Vertex Ventures负责人指出 美国AI公司“为完美而构建” 而中国AI公司“为普及而构建” 这可能导致美国在AI竞赛中落败[2] - 部分美国高管如Airbnb CEO认可中国开源AI模型 因其以可承受的价格提供了足够好的性能 但这种态度目前仍不普遍[2] 专有模型与开源模型的性能与安全争议 - 美国和欧洲的高管普遍更偏好OpenAI、Anthropic或谷歌的专有模型的性能优势[2] - 对于某些任务 即使是8%的性能优势 也可能决定一个AI解决方案能否达到大规模部署的门槛 目前顶级专有模型与中国开源模型在关键软件开发基准测试上存在8%的差距[2] - 这些高管对专有模型内置的安全防护措施更有信心[2] - 关于开源AI安全性较低的论点 有行业人士认为 模型的安全性取决于其所在的系统防护 例如通过提示词筛查工具防止越狱 以及对输出进行过滤 这与底层模型是开源还是专有无关[3] 全球AI竞争格局与市场拓展挑战 - OpenAI和Anthropic正快速扩张全球业务 但可能在东南亚、中东、北非和拉丁美洲等中等收入国家遇到阻力[4] - 美国需要培育更强大的开源AI生态系统 目前Meta是美国在开源前沿模型领域唯一的重要参与者 IBM虽有一些开源基础模型 但能力不及领先模型[4] - 区域参与者在中美AI技术地缘竞争中的站队问题成为热点 许多国家希望同时使用两个超级大国的技术 避免选边站或成为任一方的“仆人”[6] - 来自全球30位政策专家的联合白皮书呼吁中等收入国家结成“桥梁力量”联盟 共同开发和共享AI能力与模型 以实现一定程度上的独立[7] - 这种“AI不结盟运动”能否在外交和商业上实现 存在高度不确定性[8] 区域AI基础设施发展与挑战 - 马来西亚柔佛州计划将自己定位为东南亚地区的数据中心枢纽 不仅服务于新加坡 还覆盖东南亚大部分地区[5][6] - 柔佛州正与邻近的印度尼西亚商讨共享数据中心容量[6] - 柔佛州计划在未来几年新增5.8吉瓦的数据中心项目 这将基本耗尽该州目前的发电容量[6] - 马来西亚计划到2030年大幅增加发电能力 包括燃气电厂和大型太阳能农场[6] - 对电力扩容推高居民电费以及数据中心消耗过多淡水的担忧日益增长 柔佛州官员已要求数据中心开发商在2027年前暂停新建水冷设施[6]
Pinterest CEO touts open source AI: ‘tremendous performance' with reduced costs
TechCrunch· 2025-11-06 03:00
公司AI战略与成本控制 - 公司CEO强调开源AI模型在扩展视觉AI应用场景的同时有助于控制成本[1] - 公司定期测试主流现成模型与开源选项 发现针对其视觉AI用例 开源模型性能卓越且成本大幅降低[5][6] - 在早期测试中 使用微调后的开源模型相比领先的现成专有模型 成本实现了数量级(orders of magnitude)的降低 且性能相当[6] - 计划在多种应用场景中推进使用开源模型 其成本将是大型模型供应商的“一小部分”(a fraction of the cost)[6] AI技术应用与产品开发 - 公司利用AI技术驱动多种功能 包括个性化推荐、结合文本和图像的多模态搜索体验、广告定位以及AI驱动的产品发现助手[2] - 公司最大的差异化优势在于引导用户完成购物体验 并希望通过新型AI助手“Pinterest Assistant”来改善这一体验[11] - 该AI助手基于用户的图板、拼贴、收藏以及与相似品味用户的比较来理解用户 可与之对话获取建议和推荐[11] - 公司正在推出由AI策划的个性化图板 结合了专家人工策划和AI技术[12] - 公司已在与亚马逊的合作中提供“一键式购买”功能 并正在考虑如何最佳地利用AI实现自主购物(agentic shopping)[10] 财务表现与市场预期 - 公司第三季度财报预测第四季度收入将在13.1亿美元至13.4亿美元之间 低于分析师平均预估的13.4亿美元[4] - 业绩指引疲软主要源于关税对家居装饰品类的负面影响 该消息导致公司股价次日暴跌超过21%[4]
承认自己开源不行?转型“美国DeepSeek”后,两个谷歌研究员的AI初创公司融到20亿美元,估值暴涨15倍
36氪· 2025-10-10 18:29
公司概况与融资 - AI创业公司Reflection AI由两位前Google DeepMind研究员于2024年3月创立,一年内完成最新一轮融资,筹集20亿美元,公司估值达到80亿美元,较7个月前的5.45亿美元估值暴涨15倍 [1] - 投资方阵容豪华,包括Nvidia、红杉资本、DST、B Capital、Lightspeed、GIC、花旗以及Zoom创始人Eric Yuan、谷歌前CEO Eric Schmidt等 [1] 创始团队与技术背景 - 联合创始人Misha Laskin曾主导DeepMind Gemini项目的奖励建模,另一位联合创始人Ioannis Antonoglou是AlphaGo系统的联合创作者,两人同在Gemini项目团队,分别负责RLHF和奖励模型训练 [2] - 公司已从DeepMind和OpenAI挖来一支顶级团队,成员曾主导或参与PaLM、Gemini、AlphaGo、AlphaCode、AlphaProof、ChatGPT等项目的研发 [4] - 团队核心成员共约60人,主要为AI研究员和工程师,涉及基础设施、数据训练和算法开发等领域 [5] 产品战略与发展路径 - 公司最初专注于自主编程智能体,推出了面向工程团队的代码理解智能体Asimov,在盲测中其答案比Cursor Ask和Claude Code更受欢迎 [3] - 选择从编程领域起步是因为训练模型通过代码与软件交互相当于给AI装上“手脚”,编码是语言模型的“天然优势领域”,掌握此能力后可轻松扩展到其他领域 [3] - Asimov是第一步,后续计划将“企业级超级智能”扩展到产品、营销、HR等领域的“团队记忆”和知识管理 [4] - 公司已获得算力集群,计划在明年推出一个使用“数十万亿tokens”训练的前沿语言模型,该模型将以文本为主,未来具备多模态能力 [5][8] 商业模式与市场定位 - 公司将自身重新定义为OpenAI、Anthropic等“封闭前沿实验室”的开源替代公司,目标是成为“美国版DeepSeek”,将开放模型的前沿技术带回美国 [1][5] - 商业模式主要收入来自大型企业在其模型上构建产品,以及各国政府建设主权AI系统的项目,研究者可免费使用模型 [7] - 公司声称已“找到了与开放智能战略相契合的可规模化商业模式”,并承诺将对外开放其先进的AI训练系统 [4][7] - 公司对“开放”的定义更接近开放访问而非完全开源,会开放模型权重供公众使用,但训练数据和完整训练流程不会公开 [7] 行业竞争与愿景 - DeepSeek等模型的崛起对公司是一次警醒,担心全球智能标准将由别人制定而非美国,旨在确保智能底座保持开放、可访问 [6] - 公司认为最前沿技术集中在封闭实验室会导致“滚雪球式”的垄断,需要打造强大的开放模型成为全球用户与开发者的首选 [6] - 公司融资规模与进入下一阶段扩张的节奏匹配,强调比大实验室更高效,大型实验室需要100单位资金的情况下,公司聚焦核心方向只需10单位就够了 [8]
Meta(META.US)2025Q2业绩会:明年资本支出继续“狂飙” 预计将自行承担很大一部分
智通财经网· 2025-07-31 15:47
资本支出与融资计划 - 2026年资本支出可能超过1000亿美元 公司预计自行承担大部分支出 同时探索与金融合作伙伴共同开发数据中心的外部融资模式 [1][9] - 2026年资本支出增加的主要驱动因素是扩展生成式AI容量 包括服务器、网络和数据中心建设 [1][4] - 2025年和2026年资本支出中短期资产比例将高于往年 [1][4] 费用结构分析 - 基础设施是2026年费用增长的最大单一贡献者 主要受折旧费用急剧加速推动 包括2026年新增资产折旧及2025年部署基础设施的全年度折旧确认 [1][4] - 员工薪酬是2026年费用增长第二大驱动因素 主要由技术人才投资推动 包括2025年招聘的AI人才全年度薪酬费用 [1][4] - 基础设施成本增长还包括更高的运营费用 如能源、租赁、维护费用及云服务支出增加 [4] AI战略与技术发展 - 公司观察到AI进展中激进假设往往最准确预测实际情况 内部团队在调整Llama 4构建自主AI代理方面取得显著进展 [2][3] - 超智能将改变公司所有系统的基本假设 需要重点关注"自我改进"研究方向 使AI能够超越人类学习能力 [5][6] - 小型人才密集团队被确认为推动前沿研究的最佳配置 与大规模产品团队模式形成对比 [6] 产品与推荐系统优化 - 核心推荐引擎短期优化包括使内容更适应用户实时互动 帮助小型创作者内容匹配受众 并探索用户更多样化兴趣 [7] - 长期将开发跨服务推荐基础模型 深度整合大型语言模型(LLM) 重点优化系统效率而不影响投资回报率 [7] - Meta AI用户参与度持续增长 特别是在WhatsApp平台已拥有十亿用户 模型迭代(如Llama 4到4.1)持续改善用户体验 [13][14] 开源策略与安全考量 - 公司将继续生产和分享领先的开源模型 但并非所有工作都会开源 特别考虑到模型规模实用性和竞争对手受益问题 [8] - 接近超智能时存在完全不同安全问题 需要非常认真对待 [8] 基础设施利用与投资回报 - 当前基础设施专注于满足内部用例 包括有机内容推荐、广告排名和AI模型训练 未考虑外部商业化用途 [10] - 核心AI投资持续显示强劲投资回报率 生成式AI仍处于回报曲线早期 预计中长期将开启巨大变现机会 [11] - 基础设施建设考虑可互换性 服务器将根据需求订购并成为资本支出最大开销 [11] 硬件产品与元宇宙愿景 - Ray-Ban Meta智能眼镜表现良好 Meta AI使用量持续增长 每日使用人数百分比增加 [15] - 眼镜被视为AI交互的理想形态 可实现全天候多模态交互 未来可能成为认知能力竞争的关键设备 [15] - 眼镜将融合物理与数字世界 加速元宇宙愿景实现 [15] 财务与股东管理 - 股权激励(SBC)已反映在2025年费用展望中 并将成为2026年费用增长主要驱动因素 [16] - 公司将通过股票回购计划抵消股权激励稀释效应 并维持季度现金股息分配 [16]
Meta's AI spending spree is Wall Street's focus in second-quarter earnings
CNBC· 2025-07-29 20:00
公司财务表现 - 第二季度收入增长放缓至15% 低于去年同期的22% 为2023年初以来最慢扩张速度[1] - 2025年总支出预计介于1130亿至1180亿美元之间 AI人才招聘可能使支出超过区间低端[2] - 公司将投入"数百亿美元"建设AI计算基础设施[19] AI战略转型 - 公司决定模仿中国初创企业DeepSeek的技术 但Llama 4版本令第三方开发者失望[6] - 因AI模型表现不佳 公司斥资数十亿美元重组AI部门并考虑进一步战略调整[6] - 从竞争对手招聘多名顶级研究人员 包括ChatGPT联合创始人Shengjia Zhao担任AI实验室首席科学家[3] 人才招聘与组织架构 - 6月投资14.3亿美元于Scale AI 使其CEO Alexandr Wang加入并负责核心AI单元[4] - 新成立Meta Superintelligence实验室由Wang和前GitHub CEO Nat Friedman共同领导[4] - 未能成功收购AI初创企业Safe Superintelligence 但聘请了其联合创始人Daniel Gross[3][4] 技术路线调整 - DeepSeek开源R1模型采用混合专家(MoE)架构 相比密集模型训练和运行成本更低[12][14] - 公司原计划保持密集模型架构以支持语音识别功能改进 但最终转向MoE方法[15][16] - Llama 4未能实现相对于中国开源模型的显著领先 开发者仍偏好Llama 3[10][17] 开源策略重新评估 - 高管和新聘人才质疑当前开源AI策略 考虑跳过"Behemoth"版本发布转向开发专有模型[18] - 公司表示开源立场未变 计划继续发布领先开源模型 同时训练开放和封闭混合模型[18] - 类似PyTorch工具 Llama系列遵循开源许可条款向社区免费提供[9] 市场竞争态势 - OpenAI和Anthropic等实验室积极推动MoE模型开发 但设计细节对外保密[13] - AI人才争夺战类似2017年自动驾驶狂热 企业提供"疯狂薪酬方案"争夺顶尖人才[22] - 所有主要AI公司均在招聘人才并投入数十亿美元开发各自AI模型[23] 投资者反应与行业前景 - 投资者对AI支出和战略转变接受度提高 与几年前推元宇宙时形成对比[23] - 美国银行分析师认为公司对计算资源的投入显示对收入轨迹的信心[20] - 行业整体对AI投入热情高涨 形成"赢家通吃"市场动态[22][24]
黄仁勋刚刚发声,还换上唐装!称中国供应链是奇迹
第一财经· 2025-07-16 15:17
英伟达CEO黄仁勋链博会演讲 - 黄仁勋首次参加中国官方举办的重大活动 身着唐装并部分使用中文演讲 体现对中国市场的重视 [1] - 英伟达首次向中国庞大供应链展示自身技术 黄仁勋称中国供应链是"奇迹" 预测十年内AI将驱动工厂和机器人协作 [1] - 中国有超过150万开发者在英伟达平台进行开发 合作伙伴包括腾讯、网易、米哈游等游戏厂商 [1][3] 英伟达技术发展历程 - 1993年从游戏芯片起家 2006年推出CUDA软件平台 奠定AI时代基础 [1] - 2016年推出全球首款AI超级计算机DGX 早期客户包括OpenAI [2] - 从Hopper架构到Blackwell架构 AI计算能力提升100倍 速度比摩尔定律快1000倍 [2] 英伟达在中国AI生态布局 - AI技术已应用于腾讯微信、阿里淘宝、字节跳动抖音等头部应用 驱动小米自动驾驶和百度搜索引擎 [2][3] - 数字孪生平台Omniverse被中国数百个项目采用 包括智能工厂和自动驾驶仿真 [3] - 黄仁勋强调中国开源AI是全球催化剂 点名DeepSeek、阿里巴巴、腾讯等为全球一流企业 [3] 行业趋势展望 - 软件编程向机器智能转变 将重塑芯片和计算机行业 [2] - AI下一个浪潮是机器人系统 帮助机器理解物理世界并执行任务 [3] - AI正在推动医疗健康诊断 改变制造和物流运输等供应链环节 [2][3]
性能碾压GPT-4.1-mini!Mistral开源Devstral,还能在笔记本上跑
机器之心· 2025-05-22 18:25
开源AI模型Devstral发布 - 法国AI初创公司Mistral与开源初创公司All Hands AI合作发布全新开源语言模型Devstral,拥有240亿个参数 [2] - 该模型比许多竞争对手的模型更小,所需算力更低 [2] - 模型根据宽松的Apache 2.0许可证免费提供,允许不受限制地部署、修改和商业化 [4] 技术特点与性能 - Devstral可在单块RTX 4090显卡或配备32GB RAM的Mac上运行,适合本地部署和设备端使用 [1][3] - 专门设计用于解决现实世界软件工程问题,能在大型代码库中进行上下文关联和错误识别 [4][5] - 在SWE-Bench Verified基准测试中取得46.8%的得分,领先所有开源模型和部分闭源模型 [6] - 比GPT-4.1-mini高出20多个百分点 [6] - 在OpenHands测试框架下表现优于Deepseek-V3-0324(671B)和Qwen3 232B-A22B等更大规模模型 [9] 商业化与访问 - 通过Mistral的Le Platforme API提供访问,型号为devstral-small-2505 [12] - 定价为每百万输入Token 0.10美元,每百万输出Token 0.30美元 [12]