来这场沙龙,一览SGLang X 超长上下文扩展、RL后训练框架、扩散语言模型等前沿技术实践
机器之心·2026-01-29 16:12

行业技术演进趋势 - 人工智能正从“聊天”范式加速向“能办事”的智能体时代演进[2] - 当前是LLM系统优化与技术落地的关键节点[2] 行业社区活动 - 由SGLang社区、机器之心、张江孵化器联合举办线下Meetup,旨在促进开发者深度联结与经验共创[2] - 活动于2月6日下午在上海浦东·纳贤路800号1层举办[2][4] - 活动围绕SGLang技术路线、超长上下文扩展、RL后训练框架、扩散语言模型探索等议题展开深度解析[2] 活动日程安排 - 13:30-14:00 签到[5] - 14:00-14:30 主题分享一:SGLang roadmap,由SGLang核心开发成员张柏舟主讲[5] - 14:30-15:00 主题分享二:Omni-infer对SGL的性能优化实践,由Omni-infer核心开发者郑锦焕主讲[5] - 15:00-15:30 主题分享三:slime: 面向RL Scaling的LLM后训练框架,由清华大学博士生、Slime核心开发者谢承兴主讲[5] - 15:30-16:00 主题分享四:SGLang CPP: 面向超长上下文的Scaling out黑科技,由SGLang核心开发者、Mooncake核心开发者蔡尚铭主讲[5] 参与公司与机构 - 活动联合方包括SGLang社区、机器之心、张江孵化器[2] - 参与分享的嘉宾来自华为、清华大学、阿里巴巴、蚂蚁集团等机构[8][9][10][11] 嘉宾背景与研究方向 - 张柏舟(SGLang核心开发成员):专注于开源大语言模型在不同Cuda硬件(Hopper, Blackwell)上的支持和优化[8] - 郑锦焕(华为技术专家,Omni-infer核心开发者):长期深耕高性能系统与工程落地,当前主要从事推理系统的方案设计与性能优化,方向包括负载均衡、算子融合、KV Cache等[9] - 谢承兴(清华大学博士生,Slime核心开发者):研究方向聚焦于大语言模型强化学习、强化学习系统基础设施,以及提升大语言模型在真实世界复杂任务中的推理与决策能力[10] - 蔡尚铭(阿里云飞天实验室研究员,SGLang与Mooncake核心开发者):主要研究方向包括高性能推理系统、大语言模型、分布式机器学习训练[10] - 李泽寰(蚂蚁集团系统工程师,SGLang Contributor):专注于AI Infra领域,从系统、引擎与模型层的综合视角进行优化,目前蚂蚁集团正基于SGLang框架构建对外服务的低延迟推理能力[11]

来这场沙龙,一览SGLang X 超长上下文扩展、RL后训练框架、扩散语言模型等前沿技术实践 - Reportify