Workflow
开源模型
icon
搜索文档
谁在拆 OpenAI 的围墙?
36氪· 2025-08-06 09:41
OpenAI战略转向开源 - OpenAI突然宣布开源两款新模型gpt-oss-120b和gpt-oss-20b 这是自GPT-2以来首次重新向开源社区开放模型权重 [1] - 公司过去几年一直是"闭源派"代表 依靠GPT-3和GPT-4的技术优势建立商业壁垒 几乎垄断大模型时代的入口和定价权 [1] - 此次开源采用Apache 2 0协议 明确允许商用和二次开发 直接对标Meta的Llama模型 [3] 开源策略的深层考量 - 公司保留核心技术护城河 未开放GPT-4核心架构 仅提供中等规模模型 既不影响高端产品线又能吸引开发者 [3] - 底层代码修改受限 训练数据 优化策略和系统架构等关键要素仍由公司掌控 [3] - 通过部分开放换取生态主导权 让开发者依赖其工具链 同时通过闭源体系维持高利润业务 [4] 行业竞争格局变化 - 开源模型性能已逼近GPT-4 成本仅为1/20 采用宽松开源协议形成市场竞争压力 [2] - Anthropic采取相反策略 发布闭源模型Claude 4 1 专注企业级安全和可靠性 瞄准金融 法律等高端客户 [5][6] - AI行业进入分层竞争时代 OpenAI双轨制与Anthropic专精路线形成差异化竞争 [7] 开发者生态影响 - 新模型支持本地部署和云端扩展 兼容主流框架 大幅降低智能体开发门槛 [8] - 独立开发者可在个人设备运行接近GPT-4能力的模型 可能催生新一代AI应用创新 [8] - 开源生态正在消费端实现反超 类似Linux Firefox Android等历史案例的开源成功路径 [10] 监管与风险对冲 - 美国自2023年加强AI监管 开源模型因透明可审计的特性更易通过合规审查 [8] - 公司通过开源策略提前卡位 为未来监管环境变化做好准备 [8] - 技术流动性和生态开放性成为行业新竞争维度 [10]
奥特曼深夜官宣:OpenAI重回开源,两大推理模型追平o4-mini,号称世界最强
36氪· 2025-08-06 08:31
OpenAI深夜扔出开源核弹,gpt-oss 20B和120B两款模型同时上线。它们不仅性能比肩o3-mini和o4-mini,而且还能在消费级显卡甚至手机上轻松运行。 GPT-2以来,奥特曼终于兑现了Open AI。 他来了!他来了! 就在今夜,奥特曼带着两款全新的开源模型走来了! 正如几天前泄露的,它们分别是总参数1170亿,激活参数51亿的「gpt-oss-120b」和总参数210亿,激活参数36亿的「gpt-oss-20b」。 终于,OpenAI再次回归开源。 gpt-oss-120b 在核心推理基准测试中,120B模型的表现与OpenAI o4-mini相当,并且能在单张80GB显存的GPU上高效运行(如H100)。 gpt-oss-20b适用于低延迟、本地或专业化场景 在常用基准测试中,20B模型的表现与OpenAI o3-mini类似,并且能在仅有16GB显存的边缘设备上运行。 除此之外,两款模型在工具使用、少样本函数调用、CoT推理以及HealthBench评测中也表现强劲,甚至比OpenAI o1和GPT-4o等专有模型还要更强。 其他亮点如下: 宽松的Apache 2.0许可证:可自由用于 ...
OpenAI发布2款开源模型,北大校友扛大旗
虎嗅· 2025-08-06 08:15
本文来自微信公众号:APPSO (ID:appsolution),作者:发现明日产品的,原文标题:《刚刚,OpenAI发布2款开源模型!手机笔记本也能跑,北大校 友扛大旗》,题图来自:AI生成 时隔五年之后,OpenAI刚刚正式发布两款开源权重语言模型——gpt-oss-120b和gpt-oss-20b,而上一次他们开源语言模型,还要追溯到2019年的GPT-2。 OpenAI是真open了。 而今天AI圈也火药味十足,OpenAI开源gpt-oss、Anthropic推出Claude Opus 4.1(下文有详细报道)、Google DeepMind发布Genie 3,三大巨头不约而同在 同一天放出王炸,上演了一出神仙打架。 OpenAI CEO Sam Altman(山姆·奥特曼)在社交媒体上的兴奋溢于言表:"gpt-oss发布了!我们做了一个开放模型,性能达到o4-mini水平,并且能在高端 笔记本上运行。为团队感到超级自豪,这是技术上的重大胜利。" 模型亮点概括如下: gpt-oss-120b:大型开放模型,适用于生产、通用、高推理需求的用例,可运行于单个H100 GPU(1170亿参数,激活参数为5 ...
OpenAI发布ChatGPT世代首个开源模型gpt-oss,4060Ti都能跑得动。
数字生命卡兹克· 2025-08-06 06:08
行业动态 - Google发布世界模型Genie 3 该模型引发行业高度关注 被视为游戏和VR领域的重要突破[3] - Anthropic发布Claude Opus 4 1 在编程能力上持续进化 被解读为针对OpenAI的竞争行为[5][7] OpenAI开源模型GPT-oss - 公司首次在ChatGPT时代发布开源模型 包含120B和20B两个MoE架构版本[9][12][14] - 模型采用Apache 2 0许可 允许自由使用 120B版本参数117B 激活参数5 1B 20B版本参数20 9B 激活参数3 6B 均支持128K上下文[14][15][16][17] - 原生支持4-bit量化技术 20B模型仅需12 8GB存储空间 可在16GB显卡运行 120B模型可在80G单卡运行[18][20][25][26] - 采用MXFP4量化格式 性能损失极小 与英伟达NVFP4技术类似[24][27][29] 模型性能表现 - 在MMLU测试中 120B和20B版本分别获得90 0和85 3分 接近OpenAI商业版本[32] - 在GPQA Diamond测试中分别获得80 1和71 5分 在AIME数学竞赛中表现优异[32][38] - 在Codeforces编程测试中分别获得2622和2516分 优于DeepSeek R1但逊于商业版本[32] - 在写作能力测试中 20B版本表现优于同尺寸开源模型 但逊于商业大模型[67][69] 应用场景 - 提供在线试用平台gpt-oss com 并已接入OpenRouter API服务[39][40] - 支持本地部署 可通过Ollama工具运行 20B版本响应速度极快[44][49][50][51] - 在代码生成和数学推理方面表现突出 但存在一定幻觉问题[74][75] - 被视为改变开源社区格局的重要产品 可能推动行业竞争格局变化[80][81]
六年来首次!OpenAI新模型开放权重,Altman称为"全球最佳开放模型"
华尔街见闻· 2025-08-06 04:05
公司动态 - OpenAI发布六年来首批开放权重模型gpt-oss-120b和gpt-oss-20b,这是自2019年GPT-2后首次开放模型权重[1] - 两款模型采用专家混合(MoE)架构,gpt-oss-120b总参数1170亿,每token激活5.1亿参数;gpt-oss-20b总参数210亿,每token激活3.6亿参数[5][6] - 模型支持128k上下文长度,gpt-oss-20b可在16GB内存设备运行,gpt-oss-120b需要约80GB内存[2][6] 技术性能 - gpt-oss-120b在竞赛编码、通用问题求解和工具调用方面超越o3-mini并匹敌o4-mini,在健康查询和竞赛数学方面甚至超过o4-mini[7] - gpt-oss-20b性能达到或超过o3-mini,在竞赛数学和健康领域表现更优[7][8] - 模型采用交替密集和局部带状稀疏注意力模式,支持本地推理无需联网[3][5] 战略合作 - 亚马逊首次在其Bedrock和SageMaker平台提供OpenAI模型[3] - 微软将为Windows设备提供GPU优化版gpt-oss-20b,支持通过VS Code工具包获取[4] - 公司与英伟达、AMD等芯片商合作确保跨平台兼容性,英伟达CEO称赞其开源创新[15] 安全措施 - 模型经过严格安全测试,预训练时过滤化学、生物、放射性和核相关有害数据[11] - 开展50万美元奖金红队挑战赛,鼓励发现安全问题[12] - 采用Apache 2.0许可免费提供,可通过Hugging Face和GitHub下载[11] 市场影响 - 发布被视为对Meta、Mistral AI和中国DeepSeek等竞争对手的回应[1] - 标志公司战略转向,此前多次推迟开放权重模型发布[3] - 开放权重形态介于开源闭源之间,允许用户查看修改模型权重[3]
中国AI猛追美国
日经中文网· 2025-08-05 10:43
中国AI行业发展现状 - 中国国内完成备案的AI模型数量半年增长45%,累计达439款 [4] - 世界人工智能大会参展企业数量同比增加60%,展示40多款AI模型和60多款机器人 [4] - 中国生成式AI性能与美国差距从2024年1月的9.26%缩小至2025年2月的1.7% [5] 企业动态与技术进展 - 阿里巴巴展示开源AI模型"Qwen2.5-Max",在日语测试中全球排名第12位,超越Meta同类产品 [7] - 京东集团宣布开始提供开源型AI智能体 [7] - DeepSeek开发低成本基础模型引发全球关注,推动中国企业加速开源模型公开 [7] 国际竞争格局 - 美国发布《AI行动计划》国家战略,试图通过技术优势遏制中国AI发展 [9] - 中国在半导体领域推进国产化,但尖端芯片仍依赖美国产品 [9] - 全球50%的AI研究人员为中国人,中国在人才储备和生态系统活跃度上具有优势 [7] 跨国合作与影响 - 日本国立信息学研究所采用阿里巴巴Qwen模型开发本土AI"LLM-jp-3.1" [8] - 中国计划向新兴市场推广AI模型,中美未来将在服务出口领域展开竞争 [9] - 中国国务院总理呼吁成立AI合作组织,解决芯片短缺和人才交流受限问题 [4]
对话PPIO姚欣:AI大模型赛道加速内卷,但合理盈利路径仍需探索
钛媒体APP· 2025-08-05 10:23
公司业务与定位 - PPIO是一家独立分布式云计算服务商 专注于边缘云计算和AI云计算服务 在中国独立边缘云计算服务商中排名第一 市场份额为4.1% [4][14] - 公司运营中国最大的算力网络 按计算节点数计 在中国边缘云计算服务提供商中排名第七 [4] - PPIO在IaaS PaaS MaaS三层都具备相应技术能力 为国内外领先科技公司提供服务 包括中国前十大互联网公司的大部分 [14] - 公司正式发布国内首个Agentic AI基础设施服务平台 包括兼容E2B接口的Agent沙箱和模型服务 支持百款主流开源与定制AI模型的快速接入 [5] 技术优势与创新 - 对DeepSeek-R1模型进行优化 采用PD分离等创新分布式计算技术 使吞吐量提高10倍以上 理论运营成本降低高达90% [4] - 通过算子融合 低精度量化及投机采样等技术 将模型输出效率提高7倍以上 理论运营成本降低85.7% [4] - 具备很强的调度能力 融合能力 模型优化 底层算子等技术能力 能提升GPU资源利用率 [14] - 研发国内首款兼容E2B接口的Agent沙箱 专为Agent执行任务设计 在云端环境运行 [5] 市场表现与增长 - AI云计算服务增长迅速 日均token消耗量从2024年12月的271亿次增至2025年6月的2000亿次 在中国独立AI云计算服务供应商中位列前两名 [5] - 公司于2025年6月正式向港交所提交上市招股书 启动IPO上市之路 [5] 行业观点与趋势 - AI Infra基础设施领域是非常低毛利 海量规模 长周期的市场 类比水电气煤等公共基础设施 [6][17] - 未来AI算力需求将从训练转向推理 从中心化架构转向分布式架构 推理计算卡将百花齐放 [7][18] - 推理算力占比将达到95% 训练只占5% 大量数据中心需要分布式以及海量的推理优化 [22] - 开源模型对于AI行业发展更有利 能让AI Infra公司有更多发展机遇 [6][10] 算力架构发展 - 中国AI算力底层做算力网络 东数西算 在算力调度和整合方面具有优势 类似高铁网和电力调度网 [22] - 美国算力底层在做星际之门 堆20万张卡 但面临散热 能耗 电网冲击等挑战 [22] - 训推一定会分离 训练集群和推理集群将是两个集群 目前训推一体是为了训练削峰填谷 [22] 应用场景拓展 - 边缘云和AI推理云业务将融合 满足云边端不同需求 特别是机器人 自动驾驶等对低时延有要求的场景 [25][26] - 机器人 自动驾驶的实时计算需要毫秒级处理速度 只能使用本地化算力 [24] - 复杂任务如任务拆解 推理 形成代码等需要至少30B参数规模 且Agent会运行在云端 [25] 硬件与软件协同 - 国产算力卡在推理时代迎来发展机会 特别是加了PD分离架构之后 [20] - 硬件软件快速迭代 良性结合推动AI时代加速 端到端垂直整合能力越来越重要 [20] - 多卡融合 多卡兼容解决方案成为普遍趋势 以应对AI芯片卡脖子风险 [21]
大模型年中报告:Anthropic 市场份额超 OpenAI,开源模型企业采用率下降
Founder Park· 2025-08-04 21:38
基础大模型发展趋势 - 基础大模型正成为生成式AI核心引擎并重塑计算未来 其能力与成本控制的演进将推动系统 应用及产业格局变革 [2] - 模型API支出在6个月内从35亿美元增长至84亿美元 企业重心从训练微调转向模型推理 标志阶段性转折 [2] - 代码生成成为首个大规模爆发的AI应用场景 基础模型能力升级路径新增"带验证器的强化学习"(RLHF with verifiers) [2] 市场竞争格局变化 - Anthropic以32%企业使用率超越OpenAI(25%)和Google(20%) 成为市场新领跑者 Meta Llama占9% DeepSeek仅1% [9] - Anthropic崛起始于2024年6月Claude Sonnet 3 5发布 2025年系列版本(Claude Sonnet 3 7/4 Opus 4 Claude Code)巩固领先地位 [12] - 企业投入集中流向少数高性能闭源模型 开源采用趋势因前沿突破放缓而减弱 [3] Anthropic成功驱动因素 - 代码生成领域占据42%市场份额(OpenAI为21%) 催生19亿美元生态系统及AI IDE 应用构建工具等新形态产品 [13][14] - 采用带可验证奖励的强化学习(RLVR)突破数据瓶颈 成为提升模型可靠性与实际能力的关键路径 [15] - 率先实现Agent范式突破 通过多轮自我优化及工具调用提升模型执行力 2025年被称为"Agent之年" [16] 开源模型发展现状 - 开源模型运行任务占比从19%降至13% Meta Llama仍领先但Llama 4表现未达预期 [17] - 中国公司贡献突出开源模型(DeepSeek 字节跳动 阿里巴巴等) 但性能落后前沿闭源模型9-12个月 叠加部署复杂度导致份额停滞 [17][20] - 开源吸引力在于定制化 成本优势及私有化部署 但初创企业生产负载正加速转向闭源 [20] 企业模型选择行为 - 66%开发者选择原供应商升级 仅11%切换供应商 性能(非价格)是核心决策因素 [24][27] - 性能优先逻辑下 旧模型即使降价十倍也无法挽回用户 Claude 4发布一个月内即抢占45%用户 [27][30] - AI支出从训练转向推理 初创企业推理任务占比从48%升至74% 近半数企业主要计算任务由推理驱动 [31]
具有“开源精神”的投研团队是什么样的?
点拾投资· 2025-08-01 15:03
人工智能行业趋势 - 2025年被视为人工智能真正的元年,DeepSeek推出的V3和R1模型在7天内突破1亿用户并采用开源模式[1] - 开源模型推动科技民主化,使技术从"厨师做菜"变为"人人可做菜",并支持二次销售[1] - 开源是科技革命的第一推动力,中国在开源模型领域发展迅速,引发全球科技领袖对"开源与闭源"的讨论[1] 诺安基金科技组的投资策略 - 科技投资需专业团队,因科技股具有非线性特点,需抓住产业拐点实现高收益[2][3] - 团队通过前瞻性研究预判国产大模型奇点,认为开源加速智能供给,跟踪国内外开源团队形成超越市场的认知[2] - 科技投资覆盖全产业链,包括半导体国产化、AI应用、创新药等方向,形成多元化布局[15][16][26] 人工智能的经济影响 - AI推动全要素生产率提升,自动化优化决策并缩短创新周期[6] - 创造新市场如自动驾驶、智能机器人,并催生个性化推荐等商业模式[7] - 优化资源配置,提高基础设施智能化及市场平台匹配效率[8] 诺安科技组的团队构建 - 团队文化强调扁平化、包容性,避免阿尔法损耗,注重独立思考与开放共享[20][21] - 前瞻性产业判断通过多产业链交叉验证,把握半导体国产替代、AI变革等趋势[22][23] - 全产业链产品布局覆盖芯片、AI应用、创新药等,形成360度视角[25][26] 中国科技产业链发展 - 2020年华为制裁事件后,中国加速硬科技自主可控,完善创新产业链[12][14] - 半导体国产化突围与AI硬件突破推动中国科技竞争力提升[16][17] - 科技投资需"耐心资本",支持长期创新,优化社会资源配置[28] 基金经理观点与案例 - 邓心怡认为技术溢价能力反映不可替代性,需解决"真痛点"[9] - 刘慧影看好AI独角兽基于硬件突破与用户理解提升竞争力[10] - 唐晨关注AI医疗,如手术机器人实时数据分析与远程手术潜力[10]
基模下半场:开源、人才、模型评估,今天的关键问题到底是什么?
Founder Park· 2025-07-31 22:57
中国开源模型的崛起 - 中国开源模型如Kimi、Qwen、智谱GLM-4.5等近期密集发布,Hugging Face热门榜几乎被中国模型垄断[1][3] - 中国模型发展速度惊人,一旦模式被验证可行,中国擅长集中资源快速工程化实现[5][8] - 中国开源模型可能成为发展中国家的模型标准,尤其在"全球南方"市场占据优势[6][7] 中美AI竞争格局 - 大模型竞争已演变为中美之间的比拼,开源标准可能转向中国模型[3] - 美国如Meta等公司正加大投入,但中国在公私合作和资源投入方面更具优势[8][10] - 中国机构如清华大学已拥有先进语言模型,而美国部分高校资源相对不足[8][10] 模型训练与人才 - 不同机构间人才差异并不显著,模型好坏更多取决于资源利用效率[15][16] - 顶尖实验室内部普遍存在混乱,但关键在于能否产出有效模型[19][20] - 实验速度和基础设施比单纯追求"天才"更重要,需要重视团队协作价值[21][22] 模型评测与基准测试 - 当前更需要好的基准测试来评估模型能力,而非仅关注技术细节[3][24] - 制作高质量评测的门槛越来越高,但可能带来新的话语权[24][25] - 评测领域存在巨大蓝海机会,定义新任务不需要庞大算力[26] 强化学习与推理技术 - RL无法泛化到数学和代码之外的说法被夸大,这些领域只是更容易验证[32] - GSPO算法通过分组序列策略优化显著提升样本效率[28][29] - 模型推理研究进展有限,蒸馏小模型比RL更实用[27] 未来挑战与趋势 - 验证难度将越来越大,特别是在科学发现等复杂领域[36][37] - 智能体相关能力可能成为未来关键基准,参数规模扩张不再是主要路径[23] - 行业需要改变模型优势的传达方式,超越单纯基准测试分数[24]