vLLM
搜索文档
听LLaMA Factory、vLLM、RAGFlow作者亲述顶级开源项目的增长法则|GOBI 2025
AI科技大本营· 2025-12-17 17:42
大会核心信息 - 会议名称为GOBI 2025全球开源商业创新大会,由Upstream Labs、AI原点社区、CSDN联合主办 [14] - 会议将于12月21日10:00-17:15在北京海淀东升万丽酒店举行 [5][19] - 会议定位为首届开源商业化主题大会,旨在汇聚生态伙伴,站在全球开源与AI交汇的最前沿,共同解锁未来三年的创新机会 [14][19] 参会嘉宾与规模 - 大会汇聚了500+位开源基金会掌舵者、独角兽创始人、头部VC合伙人与顶级开发者 [14] - 参会嘉宾包括来自GitHub 60,000+ Star项目LLaMA Factory的郑耀威、vLLM社区核心贡献者张家驹、RAGFlow创始人张颖峰、Apache软件基金会成员及Datastrato创始人堵俊平等实战派专家 [2][6] - 其他重要嘉宾包括创新工场联合创始人汪华、CSDN创始人蒋涛、涛思数据创始人陶建辉、LVS创始人章文嵩、PingCAP副总裁刘松、月之暗面副总裁黄震昕等超过30位专家 [20][21] 大会议程与核心议题 - 大会包含三大顶层Keynote,系统洞察开源、AI与商业的前沿思辨 [17] - 核心议题围绕“AI浪潮三部曲:变局·聚力·创生”展开,包含四场深度圆桌讨论 [6][19] - 具体议程包括“破局·企业软件的‘巨硬’时刻”、“变局·AI带来的软件和SaaS变革”、“聚力·开源社区的进化与未来”以及“创生·AI催生的文艺复兴式创业者”等圆桌论坛 [20][21] - 圆桌论坛将探讨如何借助社区力量实现个人能力跃迁、如何让围观者变为共创者、以及如何构建社区精神部落等核心问题 [3] - 会议最后将进行“源起之道”开源商业创新营优胜项目路演及颁奖典礼 [22] 现场活动与体验 - 现场将展示10大“源起之道”开源商业创新营项目 [10][22] - 现场将提供10大具身智能应用场景及体验 [10][22] - 参会者可近距离体验前沿开源应用成果与优秀项目 [10][22] - 大会设有入场好礼及终极神秘大奖等互动环节 [10][22]
DeepSeek倒逼vLLM升级,芯片内卷、MoE横扫千模,vLLM核心维护者独家回应:如何凭PyTorch坐稳推理“铁王座”
36氪· 2025-12-15 08:36
vLLM项目发展历程与社区生态 - vLLM项目起源于加州大学伯克利分校Sky Computing Lab,于2023年开源其核心PagedAttention技术,在短短一年多内GitHub Star数突破4万,并迅速增长至6.5万,已成为全球科技公司首选的推理引擎 [1] - Neural Magic公司通过“免费平台 + 开源工具”策略,在AI优化领域脱颖而出,通过深入贡献vLLM构建了企业级推理堆栈并维护预优化模型库,其社区积累与工程实力吸引了红帽的注意 [1] - 2024年11月,红帽正式收购Neural Magic,并将包括vLLM核心维护者Michael Goin在内的核心团队纳入旗下,Michael在优化推理性能、最大化CPU/GPU效能方面拥有超过十年经验 [1] vLLM技术演进与模型支持 - vLLM开发团队作为项目“内核团队”,专注于集成与开发高性能推理内核,随着DeepSeek R1等模型的发布,团队开发重心从聚焦Llama系列转向全力投入DeepSeek模型相关特性优化 [3] - 在0.7.2版本中,团队紧凑开发以迅速响应DeepSeek新特性,高效支持了Qwen 2.5 VL并引入了Transformers backend,使用户能直接运行任意Hugging Face模型 [3] - 随后的0.7.3版本成为一次规模更大的更新,为DeepSeek启用了多Token预测、MLA注意力等优化,扩展了对AMD硬件的支持与调优,并推动了vLLM从支持张量并行、流水线并行到支持专家并行的演进 [4] - 团队将DeepSeek开源的一系列高性能工具,如DeepGEMM、DeepEP、专家并行负载均衡等,系统化地融入vLLM生态 [4] - 团队面向推理场景不断扩充高性能内核库,涵盖定制版Triton、CUTLASS、CUDA内核、HIP内核等,还包括各种量化支持与众多定制内核实现 [7] - 除了主导DeepSeek V3的整合,团队还完成了GPT-OSS、Qwen、Kimi等多个模型的适配与优化 [7] 硬件生态支持与战略 - vLLM团队的核心使命之一是构建开放、高效的硬件推理生态,广泛支持各类主流芯片,并深度参与新硬件的架构设计与性能优化 [8] - 过去几个月,团队与NVIDIA共同推进Blackwell芯片的支持工作,优化B200相关性能,并与AMD团队保持紧密协作以确保其在vLLM中的性能表现 [8] - 团队与Google TPU团队紧密合作一年多,完成了多次版本发布,并作为最高决策者参与设计了整体沐曦芯片的支持架构 [8] - 团队与硬件伙伴的合作流程严谨,例如在沐曦项目的早期阶段便共同讨论支持框架设计,主导高层架构,并通过创建跨公司“线上联合工作组”确保高效推进 [8] - vLLM广泛支持从NVIDIA、AMD到Google TPU乃至国内众多芯片的核心战略在于深度拥抱PyTorch,将其作为连接上层框架与底层硬件的“最大公约数” [9] - 只要硬件厂商提供了对PyTorch的良好支持,适配vLLM的工作就已完成了绝大部分(约90%),剩余约10%主要涉及对PyTorch中效率较低的部分进行定制优化 [10] - vLLM中的模型定义几乎完全基于PyTorch编写,并支持十余种其他硬件backend的注意力实现,如NVIDIA的FlashAttention、AMD的ROCm Attention、Google TPU的Pathways Attention等 [10] 多模态能力拓展 - vLLM团队将vLLM从一个纯文本推理引擎,全面升级为一个支持全模态生成与理解的统一服务平台,多模态模型架构改变了vLLM的架构 [17] - 团队对vLLM v1版本进行了彻底重构,一项关键创新是多模态前缀缓存,将Page Attention机制从文本token的键值缓存扩展至图像、音频等任意模态输入,大幅提升了重复请求的处理效率 [18] - 团队实现了编码器解耦技术,将视觉、音频编码器与语言模型backbone解耦,为超大规模推理场景提供了极致的弹性与资源利用率 [18] - 2024年12月,vLLM-Omni作为其首个“全模态”推理框架正式发布,它将文本、图像、音频、视频的统一生成从概念变为可落地的生产级代码 [19] - Omni引入了一套完全解耦的流水线架构,让不同阶段按需分配资源,并通过统一调度衔接,一个omni-modality推理请求会经过模态编码器、LLM核心与模态生成器三类组件 [19] - 如今vLLM支持的范围十分广泛,包括多模态理解与生成、嵌入模型、智能体编程,以及企业级的文档理解、OCR、推荐系统、客服、编程辅助乃至缺陷检测等判别式任务 [21] 社区竞争优势与迭代 - 随着vLLM逐渐发展成熟,许多公司开始将更多修改回馈至上游,更倾向于直接使用上游vLLM而不是开发私有版本,这一良性循环的核心驱动力在于“速度” [22] - vLLM的上游版本通过与众多领先的模型实验室和公司合作,快速收集反馈并修复问题,然后放回社区,vLLM的合作名单涵盖了从DeepSeek、Qwen、字节、腾讯,到LinkedIn、亚马逊、Mistral、Azure和Snowflake等 [23] - 当社区版本的迭代速度远超私有分支时,用户更倾向于使用社区版本,这种“速度优势”正推动vLLM加速成为大模型推理领域的事实标准 [23] - vLLM作为一个每月下载量超20万次的热门推理框架,团队正着手解决开发者反馈的启动速度偏慢问题,在GitHub上建立了专项跟踪与“启动体验优化”项目 [24] - 导致启动时间较长的因素包括CUDA graph capture time和torch.compile,开发团队已推动torch.compile团队重视启动时间问题并取得了一些显著改进 [24] - 团队还打造了工具和指南,指导用户处理冷启动与热启动的差异,并建议通过复制缓存目录来实现热启动以提升速度 [25] 红帽的战略角色与贡献 - 红帽全球约有两万名员工,其中可能有一两千名工程师完全在社区中做贡献,所做工作非常中立,vLLM的治理结构本身高度分散,共有15到20个不同组织的成员担任提交者或维护者 [26] - 红帽如此投入vLLM,源于一个战略判断:推理是AI应用成本的核心环节,实现高性能需要vLLM集成最前沿的模型优化 [26] - 红帽最具代表性的贡献是主导推动了vLLM v1版本的架构重构,这次升级为未来系统设计奠定了基础,并实质性地推动了社区标准化进程 [27] - 例如,红帽与PyTorch torch.compile团队长达一年半的合作,优化了上游框架以更好支持vLLM的高阶场景,让支持新硬件、新模型变得更容易 [27]
LMCache:基于KV缓存复用的LLM推理优化方案
新浪财经· 2025-12-09 21:41
行业技术趋势 - 在大语言模型推理服务中,首令牌时间是一个核心性能指标,直接影响用户体验 [1][15] - 传统推理方案存在重复计算问题,每次处理相同输入文本都需重新计算KV缓存,导致效率低下 [2][17][18] 解决方案与产品 - LMCache提出了一套KV缓存持久化与复用的创新方案,旨在优化首令牌时间 [1][16] - 该方案通过将KV缓存存储在多级介质中实现复用,支持GPU显存、CPU内存、磁盘乃至NIXL分布式存储 [2][6][18][20] - 其核心优势在于支持任意位置文本匹配,而不仅是前缀匹配,从而能更广泛地命中缓存 [2][5][18] - 该方案已与vLLM推理框架深度集成,支持跨设备共享缓存和跨节点传递等生产级特性 [1][7][16][21] 性能表现 - 实测表明,在多轮对话和RAG等高重复率场景下,搭配vLLM使用可使响应速度提升3到10倍 [2][13][18][26] - 缓存读取速度比原生方案快约7倍,同时系统吞吐量也有所提升 [5][19] 应用场景与价值 - 该技术特别适用于聊天机器人和RAG应用,能在不升级硬件的情况下有效降低响应延迟 [8][22] - 对于提示词重复率高的场景,3至10倍的首令牌时间优化具有显著的实际价值 [13][26] 技术生态与部署 - LMCache目前主要绑定vLLM生态,并优先支持Linux操作系统 [14][23][27] - 基本运行要求包括Python 3.9+、NVIDIA V100或H100等GPU以及CUDA 12.8以上版本 [10][24] - 提供多种安装方式,包括pip直接安装、源码编译以及Docker镜像部署 [11][12][25][26] - 对AMD GPU的支持正在完善中,例如MI300X需要特定的ROCm编译参数 [13][26]
开源破局AI落地:中小企业的技术平权与巨头的生态暗战
21世纪经济报道· 2025-11-11 22:20
开源AI采用现状 - 超过50%的受访企业在AI技术栈的数据、模型与工具层面使用开源技术[1] - 科技、媒体与通信行业的开源AI使用率最高,达到70%[1] - 开源技术通过公开源代码与全球协作,让企业能够根据自身需求快速定制解决方案[1] 企业AI落地挑战与策略 - 企业需要迅速接入大模型,但也要合理应用以规避风险,避免在单一模型厂商上绑死[2] - 企业面临高效利用异构资源的挑战,包括GPU、CPU等多样化算力以及公有云、边缘计算和私有数据中心等多种部署环境[2] - 不同部门或业务场景可能使用不同的大模型或定制小模型,使资源管理更加复杂[2] - 开源生态可以兼容多样化环境,支持企业的不同业务[3] AI操作系统与推理引擎 - 企业需要有弹性、可扩容的AI应用平台,同时兼顾成本与信息安全,AI操作系统是核心中枢[4] - AI操作系统应通过标准化接口和模块化设计,对应不同硬件和不同模型,其核心是推理引擎[4] - 在超过350个企业中,仍有超过51%的企业尚未部署任何推理引擎[5] - 推理引擎类似于传统操作系统在CPU上的作用,通过标准化和模块化设计实现GPU和其他算力的高效利用[4] 开源推理引擎发展 - vLLM是一个高性能、开源LLM推理和服务引擎,旨在提升LLM的推理速度和GPU资源利用率[6] - 红帽发布了开源项目llm-d,进一步增强vLLM推理能力,为AI推理的规模化落地提供方案[6] - Meta的Llama系列推理框架主要针对自家服务,在跨模型与硬件适配能力方面有限[6] - vLLM和SG Lang等开源推理引擎由于支持多种模型和硬件,更适合企业场景[6] 行业趋势转变 - AI落地叙事从造模型转向跑模型,从比拼算法转向构建生态[4] - 开源社区为全球开发者打下良好基础,企业只需在社区中找到技术并企业化[4] - 企业应充分利用开源社区的集群效应,结合企业级AI平台,实现任意云环境、任意模型和加速器的AI部署[6]
深度拆解,硬核解构,揭开vLLM推理系统实现高效吞吐的秘籍
机器之心· 2025-10-26 12:03
文章核心观点 - vLLM是一套针对大语言模型推理优化的高性能开源推理框架,通过创新的显存管理、并行调度和KV缓存技术,在保持模型准确性的同时大幅提升吞吐量与响应速度[1] - 该博客文章对vLLM的架构、代码和原理进行了深入分析,涵盖了从基础推理流程到高级功能、扩展能力和分布式系统部署的完整技术栈[3][4][6] - 文章采用倒金字塔结构写作方式,从宏观层面入手逐步深入细节,帮助读者建立对整个系统的清晰整体认知而不被繁琐技术细节淹没[6] LLM引擎核心架构 - LLM引擎是vLLM的核心构建模块,单独使用时能够实现高吞吐量推理但仅限于离线场景[7][8] - 引擎构造函数包含多个子组件:vLLM配置、处理器、引擎核心客户端、输出处理器、模型执行器、结构化输出管理器和调度器[14][15] - 调度器内部包含策略设置、等待队列与运行队列以及KV缓存管理器,其中KV缓存管理器维护一个可用KV缓存块的池子,数量可达几十万甚至更多[16] - 模型执行器在构造过程中会创建Worker对象并执行三个关键步骤:初始化设备、加载模型和初始化KV缓存[19][20][21] 推理流程与调度机制 - Generate函数处理每个提示词时创建唯一请求ID并记录到达时间,通过输入预处理器进行分词后打包成EngineCoreRequest传递到引擎核心[24][25][29] - 每个推理步骤包含三个阶段:调度阶段选择本步骤要执行的请求,前向传播阶段运行模型并采样新token,后处理阶段进行去分词和停止条件检查[32][33][34][35] - 推理引擎主要处理两类工作负载:Prefill请求对所有提示token执行一次前向传播通常是计算受限的,Decode请求仅对最新生成的一个token执行前向传播是内存带宽受限的[38] - V1调度器可以在同一个step中混合处理prefill与decode请求,优先处理decode请求,调度器会计算需要生成的新token数并调用KV-cache管理器的allocate_slots函数[39][40][41][42] 高级功能特性 - 分块预填充将预填充步骤拆分为更小块执行,避免长提示词请求独占计算资源,通过设置long_prefill_token_threshold正整数启用[57] - 前缀缓存避免重复计算多个提示词开头部分共享的token,当提示词长度超过一个KV-cache块(默认16个token)时可显著加快预填充请求速度[62][70][73] - 引导式解码在每一步解码时通过基于语法的有限状态机对logits进行约束,确保只有符合语法规则的token被采样,支持正规文法和上下文无关文法[93][94][97] - 推测解码通过引入较小草稿模型快速生成k个候选token,然后使用大模型进行验证,在统计上等价于标准自回归解码但潜在更快[106][107][112] 系统扩展与分布式部署 - 从UniProcExecutor扩展到MultiProcExecutor支持多GPU进程,通过张量并行将模型分片到同一节点多张GPU上,节点内带宽显著高于节点间带宽[141][143][149] - 分布式系统部署示例使用两台8×H100节点,一台以headless模式运行引擎,另一台作为API服务器,通过数据并行在多个节点上复制模型[153][156] - API服务节点实例化AsyncLLM对象创建DPLBAsyncMPClient,通过FastAPI应用暴露OpenAI兼容接口,整个堆栈通过Uvicorn对外提供服务[172][175] - 完整请求生命周期从终端发送请求到API服务器,经过负载均衡选择引擎,执行推理步骤后将结果返回,复杂分布式系统对用户透明[177][183] 性能测量与基准测试 - 推理系统性能有两个互相制约的指标:延迟从请求提交到返回token的时间对交互式应用重要,吞吐量系统每秒能够生成或处理的token/请求数量对离线工作负载关键[185][186][189] - 常见推理性能指标包括TTFT从请求提交到接收第一个输出token的时间,ITL两个连续token之间的时间,TPOT请求中所有输出token的平均ITL,以及端到端延迟[190] - vLLM提供CLI工具vllm bench {serve,latency,throughput}进行基准测试,latency脚本使用短输入并生成128个输出token,throughput脚本一次性提交固定prompt集测量吞吐量[196][197] - 延迟和吞吐量存在竞争关系,当批大小B较小时每个token的间隔延迟下降,当B增大时间隔延迟上升但吞吐量提高直到达到峰值性能[192][193]
迈向超级人工智能之路
36氪· 2025-09-29 17:33
AI发展趋势与产业应用 - AI将超越通用人工智能(AGI) 迈向能够自我迭代进化的超级人工智能(ASI) [1] - 79%的受访公司已在业务中应用AI Agent 其中66%实现生产力提升 57%实现成本下降 55%决策效率加快 54%客户体验提升 [1] - 科技巨头全面布局Agent领域 包括OpenAI的Agent Mode 微软的Copilot 谷歌的Jules Agent 字节跳动的Coze 百度的全平台智能Agent [2] 阿里云战略定位与基础设施 - 阿里云升级为"全栈人工智能服务商" 提出大模型是新的操作系统 超级AI云是新的计算机 [3] - 基础设施具备四大特点:大规模弹性 高可用与稳定性 长短期记忆与检索 推理优化与加速 [7][8][9] - ACS GPU serverless架构实现秒级拉起百亿参数模型 推理服务PAI-EAS提升吞吐率超过70% [7][8] - 对象存储OSS支持千亿级数据量 云原生数据库PolarDB提供金融级支撑 [7] 通义大模型技术体系 - 通义千问系列在中文理解 工具调用 多模态任务上具全球竞争力 [5] - Qwen模型在MMLU CMMLU AGIEval等基准测试多次超过GPT-4-turbo和Claude 3 Sonnet [5] - 发布6个模型升级 包括万亿参数Qwen3-MAX 全模态模型Qwen3-Omni 视觉模型Qwen3-VL 图像模型Qwen-Image 代码模型Qwen3-Coder 视频模型Wan2.5-Preview 语音模型通义百聆 [6] 百炼Agent开发平台 - 采用"1+2+7"企业级Agent体系:一套模型服务 两种开发模式 七大关键能力 [13] - 双轨开发模式:低代码ADP快速验证原型 高代码ADK支持深度定制 [14] - 七大关键能力覆盖记忆管理 工具连接 安全沙箱 日志追踪 动态推理 支付交易 数据管理 [15] - 平台已支撑20万开发者构建80万个Agent 模型调用量同比增长超15倍 [16] 企业应用案例与成效 - 网商银行风控流程实现95%准确率 处理时间从3小时缩短至5分钟 流转效率提升50%-300% [15] - 鱼泡网通过数据处理Agent提升人岗匹配效率80% [15] - 听力熊学习机衍生50多种交互技能 覆盖百万用户 日均交互量居行业首位 [15] 行业竞争与市场地位 - 阿里云连续多年国内云计算+AI市场份额第一 2025年上半年商业体量超第二至第四名总和 [18] - 十万级企业客户在阿里云运行业务 成为国内最被验证的AI+云平台 [18] - 全栈能力使中国企业不必依赖海外方案 即可完成研发到应用闭环 [21]
从模型到生态:2025 全球机器学习技术大会「开源模型与框架」专题前瞻
AI科技大本营· 2025-09-26 13:49
开源与闭源AI模型性能趋势 - 2025年开源与闭源模型的性能差距已从常见的8%缩小至1.7% [1] 2025全球机器学习技术大会专题设置 - 大会特设“开源模型与框架”专题,聚焦底层构件的开源创作与实践 [1] - AI竞争已扩展至数据、模型、系统和评测四大支柱 [12] - 大会设置十二大前沿专题,覆盖大模型技术演进与智能体工程实践 [13] 参会机构与行业参与度 - 参会机构包括北大、清华、百度、阿里、腾讯、字节跳动等国内顶尖机构 [12][13] - 来自Meta、谷歌、阿里等公司的生态竞争围绕未来“AI操作系统”展开 [12] 重点开源项目与技术方向 - MNN-LLM项目专注于移动端大语言模型推理框架 [7][23] - vLLM项目致力于提供人人可用、快速且低成本的大模型推理服务 [7][23] - verl项目是灵活高效的大模型强化学习编程框架 [10][23] - SpecForge是用于训练投机采样模型的工具 [23] 大会核心演讲嘉宾与议题 - Lukasz Kaiser将分享推理模型的历史、现在与未来 [17] - 议题涵盖可验证奖励强化学习、腾讯混元翻译模型优化、MiniCPM端侧大模型等 [17][18] - 智能体相关议题包括AReaL异步强化学习、扣子罗盘效果评测、通义DeepResearch构建方法论等 [18]
最受欢迎的开源大模型推理框架 vLLM、SGLang 是如何炼成的?
AI科技大本营· 2025-09-24 10:01
文章核心观点 - 大语言模型推理阶段是决定模型实用性和广泛采用的关键 需要高效处理延迟、吞吐量和成本约束[2][3] - vLLM和SGLang作为领先的开源推理引擎项目 通过创新内存管理技术和优化调度设计显著提升推理性能[4][8][12] - 两个项目均起源于学术研究 现已发展为社区驱动的开源标杆 获得业界广泛采用和投资机构支持[7][16][31][34] 项目技术特性 - vLLM采用PagedAttention算法 借鉴操作系统分页缓存管理技术 实现精细化内存管理 官方测试显示比Hugging Face Transformers后端提升30倍吞吐量[8][9] - SGLang以RadixAttention为核心 重用过往请求的KVCache 在前缀匹配时大幅减少Prefill阶段计算量 即使关闭RadixAttention仍保持优秀性能[12] - 两者均支持Continuous Batching、Chunked Prefill、Speculative Decoding等先进特性 在功能算法层面日趋同质化[29] 社区发展数据 - vLLM于2023年6月开源 截至2025年8月获56,045星标 9,578分叉 1,465贡献者 12,393名社区参与者[15] - SGLang于2024年1月发布 同期获17,095星标 2,697分叉 638贡献者 2,754名社区参与者 规模不及vLLM五分之一[13][15] - 两项目中国开发者占比显著 vLLM达33% SGLang高达52% 社区活跃度高但待处理issue均超2000条[9][13][37] 学术与产业关联 - 项目核心发起人Woosuk Kwon(vLLM)和Lianmin Zheng(SGLang)均来自加州大学伯克利分校 师从Spark和Ray创建者Ion Stoica[16] - vLLM贡献主力来自Red Hat SGLang贡献主力来自xAI、Skywork、Oracle和LinkedIn 194名开发者在两项目间交叉贡献[18][19][20] - OpenAI工程师comaniac在vLLM提交77个代码请求 在SGLang提交17个请求 2024年3月后活跃度降低引发行业猜测[20] 性能演进历程 - vLLM在2024年9月发布v0.6.0 通过CPU调度优化实现2.7倍性能提升和5倍延迟下降 但架构复杂性导致增长放缓[23][25] - 2025年1月vLLM推出V1重构版本 结合DeepSeek V3/R1发布 与SGLang同步进入第二轮爆发式增长[21][25] - 性能竞争白热化后 双方转向强调可复现方法和真实工作负载端到端指标 鼓励第三方独立评测[26] 生态合作与投资 - a16z的Open Source AI Grant基金在2023年8月资助vLLM核心开发者 2024年6月第三批名单资助SGLang开发者[31][33] - 真格基金2024年7月向vLLM提供捐赠 Linux基金会将vLLM纳入PyTorch基金会 2025年3月SGLang加入PyTorch生态系统[40] - 两项目已成为Google、Meta、Microsoft、字节跳动、阿里巴巴、腾讯等顶尖科技公司首选推理方案[34]
LLM开源2.0大洗牌:60个出局,39个上桌,AI Coding疯魔,TensorFlow已死
36氪· 2025-09-17 16:57
大模型开源生态全景图2.0核心更新 - 全景图收录114个项目(较1.0版减少21个),覆盖22个领域,其中39个为新晋项目,60个项目被淘汰 [4] - 生态中位年龄仅30个月,平均寿命不足三年,62%项目诞生于2022年10月"GPT时刻"之后 [5] - 分类框架从Infrastructure/Application进化为AI Agent/AI Infra/AI Data三大板块,反映行业向智能体为中心演进 [10] 项目生态动态 - 头部前十项目覆盖模型生态全链路,平均Star数接近3万,远超历史同期开源项目 [5] - TensorFlow因迭代迟缓被淘汰,PyTorch以92,039 Stars成为训练平台绝对主导 [4][6] - 新晋高热度项目包括Gemini(AI Coding)、TensorRT-LLM(推理引擎)、Cherry Studio(聊天机器人) [6][28] 开发者地域分布 - 全球366,521位开发者中,美国占37.41%、中国占18.72%,两国合计贡献超55% [10][12] - 美国在AI Infra领域贡献度达43.39%(中国22.03%),在AI Data领域贡献度35.76%(中国10.77%) [14] - 中国在AI Agent领域表现接近美国(中国21.5% vs 美国24.62%),与应用层投入密切相关 [14] AI Agent领域演进 - AI Coding完成从"补代码"到"全生命周期智能引擎"跨越,支持多模态与团队协同 [23] - 大厂通过开源工具链(如Gemini CLI、Codex CLI)绑定开发者生态,战略类似Windows+.NET模式 [27] - Agent Workflow Platform向企业级能力演进,Dify提供从原型到生产的一站式平台 [34] - Browser-use项目9个月内获60K Stars,实现Agent网页操作能力 [37] AI Infra技术趋势 - Model Serving赛道持续高热,vLLM(53,912 Stars)和NVIDIA TensorRT-LLM主导云端推理 [6][45] - 本地化推理框架崛起,ollama使大模型可运行于个人设备,GPUStack等新框架补位 [49] - LLMOps接棒MLOps,聚焦监控、提示词评测与安全可信,Phoenix、Langfuse等项目覆盖全生命周期管理 [52] - 模型训练赛道热度回落,社区更关注低成本微调方案(如Unsloth集成QLoRA) [55] 许可证模式变革 - 新晋项目多采用限制性许可证(如BSL变体、Fair-code),传统MIT/Apache 2.0协议使用减少 [62] - 部分项目按用户规模设限(如月活超阈值需额外授权),反映商业博弈加剧 [62] - Cursor、Claude-Code等闭源项目仍在GitHub获高热度,挑战"开源社区"定义 [63] 大模型技术前沿 - MoE架构普及使模型参数达万亿级别(如K2、Claude Opus),通过稀疏激活控制推理算力 [69] - Reasoning成为模型新标配,DeepSeek R1通过强化学习增强复杂决策能力 [70] - 多模态全面爆发,语言/图像/语音成为标配,中国厂商在开源与闭源路线均取得领先 [71] - 模型评价体系多元化,OpenRouter等平台通过调用数据形成"数据投票"排行榜 [72]
LLM开源2.0大洗牌:60个出局,39个上桌,AI Coding疯魔,TensorFlow已死
机器之心· 2025-09-17 12:00
大模型开源开发生态全景图2.0核心变化 - 全景图收录114个项目 较上一版减少21个 覆盖22个领域 其中39个为新晋项目 60个项目被淘汰[7] - 生态中位年龄仅30个月 平均寿命不足三年 62%的项目诞生于2022年10月"GPT时刻"之后 包含12个2025年新项目[10] - 分类框架从Infrastructure/Application进化为AI Agent/AI Infra/AI Data三大板块 反映行业以智能体为中心的技术趋势[15][16] 项目活跃度与更替 - PyTorch以92,039个Star位居榜首 vLLM以53,912个Star位列第二 新晋项目GERTINI获得66,881个Star[11] - TensorFlow因迭代迟缓退出市场 PyTorch实现生态统一[8] - 头部前十项目覆盖模型生态全链路 平均Star数接近3万 远超历史同期开源项目[10] 开发者地域分布 - 全球366,521位开发者中 美国占37.41% 中国占18.72% 中美合计贡献超55%[17][20] - 美国在AI Infra领域贡献度达43.39% 为中国的两倍 在AI Data领域优势更明显[18][19] - 中国在AI Agent领域贡献度达21.5% 与美国24.62%接近 反映应用层投入集中[23] AI Agent领域演进 - AI Coding成为最活跃赛道 完成从"补代码"到"全生命周期智能引擎"的跨越 支持多模态与团队协同[43] - Chatbot领域经历高光后回归理性 Lobe-Chat保持64.7k Star Cherry Studio以"个人知识助理"定位逆势上榜[50][53] - Agent Workflow Platform向基础设施演化 Dify提供从原型到生产的一站式平台 RAGFlow等项目快速走红[54][57] - Agent Tool领域爆款频出 Browser-use9个月获60k Star mem0解决记忆管理问题 Supabase成为GenAI数据基础设施[57] AI Infra技术趋势 - Model Serving持续高热 vLLM和SGLang主导云端推理 NVIDIA TensorRT-LLM绑定GPU硬件巩固算力优势[62][66] - 本地化推理快速发展 ollama使大模型可运行于个人设备 GPUStack等新框架持续涌现[68][70] - LLMOps接棒MLOps 成为2025年增长最快赛道 Phoenix/Langfuse等项目覆盖监控至工作流管理全环节[71][72] - 模型训练热度回落 社区更关注低成本微调方案如Unsloth集成QLoRA[78] AI Data领域状态 - 技术成熟度较高 多数项目诞生于2014-2020年 Chroma成为少数抓住RAG机遇的新秀[82] - 向量数据库等基础组件缺乏突破点 Milvus/Weaviate/Elasticsearch等已成为标准拼图[86] - 企业级场景特性使开发者关注度难以维持 但向量化/RAG/多模态处理正推动数据平台向智能中枢演进[87] 开源许可模式演变 - 新项目多采用限制性许可协议 保留许可方干预权 Dify使用BSL变体 n8n采用Fair-code条款[92][93][94] - 部分项目按用户规模设限 月活超阈值需重新授权 GitHub出现代码闭源但获高星现象[91][94] 大模型技术发展动向 - MoE架构成为主流 DeepSeek/Qwen/Kimi等模型参数达万亿级 推理时仅部分激活[101] - Reasoning能力成为标配 DeepSeek R1通过强化学习增强推理 Qwen/Claude引入"快思慢想"混合模式[102] - 多模态全面爆发 语言/图像/语音交互成基础能力 语音模态工具链Pipecat/LiveKit Agents快速完善[103][104] - 模型评价体系多元化 从人工投票平台转向OpenRouter等API网关的"数据投票"排行榜[106]