Miles
搜索文档
AI 已能写 80% 代码,但 Agent 也有致命短板!OpenAI Codex 技术总监:问错了,比不会写更麻烦
AI前线· 2026-03-28 13:33
文章核心观点 - 在AI编程时代,工程师的核心价值正从编写代码的速度,转向选择解决正确的问题、定义更好的系统以及提出正确问题的能力[2][3] - 许多重大的工程突破源于对现状的不满和快速动手验证,工程师的影响力最终取决于是否解决了公司真正关心的问题[3] - AI模型已能生成80%-90%的代码,但关键部分仍需人类把控,理解系统底层工作原理的能力在现阶段依然重要[3][7] 从工程师到工具创造者的成长路径 - 早期项目Chickenfoot的理念与当前AI编程助手相似,旨在通过自然语言指令操作Web界面,其底层启发式算法是核心[6] - 职业初期被谷歌吸引,源于其产品(如搜索、Gmail)卓越的工程质量、极简设计原则以及对Web的前瞻性理解[8] - 在谷歌的经历揭示了个人兴趣与公司核心业务(如搜索、广告)错位可能限制职业影响力,促使工程师思考工作与公司战略的对齐[9][10][11][31] 构建系统与工具创新的实践 - 在Facebook(Meta)开发Buck构建系统的动机源于对Android原有低效构建工具的不满,通过重组和引入缓存机制,将性能提升了一倍[13][14][15][18][19] - 成功推动内部工具变革的关键在于:拥有“存在性证明”(知道有更好的解决方案)、获得早期关键支持者、以及专注于解决具体问题而非扩大业务野心[15][17][83] - 开发工具(如Buck、Nucleide)的成功,部分归功于公司文化允许自下而上的创新,且工程师在证明价值后能获得“历史信用”以推进新项目[15][31] 应对大规模工程挑战:IDE与虚拟文件系统 - 开发内部IDE(Nucleide)的驱动力是主流工具(如Xcode)无法支撑Facebook超大规模单体应用的开发需求,公司被迫提前解决他人未遇的规模瓶颈[27][28] - 虚拟文件系统(Eden)项目旨在解决巨型单体代码仓库的扩展性问题,通过延迟加载和动态生成文件,避免文件数量随仓库规模指数级增长[39][40] - 配套工具Miles通过创新的索引和查询设计,实现了在超过百万文件中进行模糊匹配查询,响应时间仅10到20毫秒,极大提升了开发效率[43] 职业发展、影响力与核心能力 - 工程师需要找到个人热情与公司核心价值主张的交集,并集中精力于此,才能最大化自身影响力[31][32][86] - 达到高级别职位(如E8首席工程师)后,影响力不仅来自编写代码,更来自跨团队协调、制定规范以及将资深工程师与合适项目匹配的能力[44][78][80] - 在职业早期应主动拓宽技术视野,避免对单一技术栈过度依赖,保持好奇心和学习灵活性有助于更早突破[87][88] AI重塑开发方式与Codex的演进 - 加入OpenAI的动机包括:希望在最优秀的模型基础上打造产品、重返拥有庞大用户基数的消费级领域、以及处于公司产品与市场匹配度初现的关键阶段[52][53] - Codex的发展经历了从CLI到Web版本,再到集成VS Code扩展的迭代过程,GPT-5的发布与团队扩充共同推动了产品的爆发式增长[57][58][59] - 长期来看,编程智能体消耗的计算量将主要迁移至云端,以支持自动化流水线等“离不开”的使用场景,而非仅局限于本地交互[7][60] AI时代工程师的工作流与能力建设 - 目前,模型生成的代码占比可达80%到90%,尤其在调试、测试和重构等任务上解放了大量人力[64] - 工程师仍需亲手处理底层、安全性要求高的代码(如沙箱机制),并对AI生成的代码进行最终的人工审查,以补充模型缺失的上下文和经验[64][65] - 在AI工具快速发展的环境下,主动“向下穿透抽象层”、理解系统底层工作原理,以及培养“提出正确问题”的能力变得更为关键[7][76] - 参与CTF(夺旗赛)等安全竞赛被推荐为一种有效的训练方式,能迫使工程师接触广泛的技术领域,培养对抗性思维和底层调试能力[73][74][75]
Z Tech | LMSYS 团队发布大规模 MoE 强化学习框架 Miles,不积跬步无以至千里
Z Potentials· 2025-11-20 12:12
文章核心观点 - LMSYS团队正式推出Miles,这是一个专为企业级大规模MoE训练及生产环境工作负载设计的强化学习框架[1] - Miles从轻量级框架slime分叉而来,在继承其轻量级与高可定制性基础上,针对新一代硬件(如GB300)与大规模MoE进行了深度优化[1] - 该框架引入了Infrastructure-level的True On-Policy、投机训练以及更极致的显存管理机制,旨在为追求高可靠性与大规模部署的团队提供流畅且可控的RL训练体验[1] 从slime出发的技术传承 - Miles完整继承了slime框架的轻量与模块化设计原则,已成为众多模型科学家探索算法的首选工具[3] - 采用True On-Policy策略,结合Flash Attention 3和DeepGEMM,实现了训练与推理的严格一致性[3] - 引入MTP Online Training的投机采样,在训练过程中对Draft Model进行在线SFT,解决了分布偏移问题[3] - 实施极致的显存优化,包括NCCL显存余量控制、部分Offloading及Host峰值内存节省,大幅减少大规模MoE训练中的OOM风险[3] 生产级核心技术突破 - 通过kernel层面优化实现True On-Policy,训练与推理之间的mismatch被精确地降至零[5] - 利用Flash Attention 3、DeepGEMM以及Batch invariant kernels,结合torch compile技术,确保结果的位级一致性[5] - 对SGLang和Megatron的全栈优化提供原生支持,紧跟推理与训练框架的快速迭代[6] - 算法、数据、采样与评估四大组件完全解耦,研究人员仅需极少的代码修改即可插入新的Agent类型或奖励函数[6] 大规模MoE显存优化 - 创新性地在RL过程中对Draft Model进行在线SFT,相比冻结MTP基线实现了25%以上的Rollout加速[9] - 引入传播机制以规避良性OOM导致的错误,实现显存余量机制以修复NCCL导致的OOM[10] - 修复FSDP中的额外显存占用问题,支持基于Move的部分Offloading以及Host端峰值内存节省策略[10] - 支持带Sequence Packing和Context Parallel的MTP,处理Loss Mask的边缘情况,实现LM Head/Embedding的梯度隔离[11] 未来路线图与社区愿景 - 未来开发路线图包括增强FSDP后端以提升大规模分布式训练的稳定性[14] - 计划允许Rollout子系统脱离框架独立部署,适应更灵活的集群调度[14] - 将新增更多监控指标、Post-hoc分析器及增强型Profiler等调试工具集[14] - 扩展对Multi-modal模型的支持,兼容SGLang Spec v2以获得更高性能,推进EAGLE3等更先进的投机训练技术[18]
速递|红杉、a16z竞逐AI语音战场:初创公司Sesame获2亿美元融资
Z Potentials· 2025-03-31 14:34
融资动态 - 红杉资本、A16Z和Northstar.vc近期讨论对语音人工智能初创公司Sesame的投资,计划筹集至少2亿美元资金,估值可能达数十亿美元[2] - A16Z主导了Sesame的A轮融资,但具体条款未披露[4] - Sesame CEO布伦丹·伊里贝曾共同创办Oculus VR,于2023年中期创立该公司[2] 公司技术 - Sesame开发名为Maya和Miles的语音伴侣,可通过智能手机和笔记本电脑访问[2] - 公司计划将语音助手嵌入眼镜,实现无需手机的对话功能[3] - 语音AI基于Meta的Llama大型语言模型,并通过对约100万小时英语音频训练增强[3] - 上个月推出的语音助手因逼真的声音表现(包括停顿和语调变化)获得用户好评[3] 行业竞争 - Sesame可能成为Meta、OpenAI、Anthropic或xAI等公司的收购目标[5] - 主要科技公司都在开发AI语音功能:OpenAI为ChatGPT推出语音模式,Meta探索AI驱动耳机,xAI在Grok中发布语音模式[6][7] - 谷歌和苹果也在改进移动语音助手的AI能力[6] 商业模式 - 公司目前未产生收入,但计划向消费者和专业人士销售产品[4] - 产品定位类似于Meta尝试在Ray-Ban眼镜中嵌入的语音助手[3]