Workflow
Founder Park
icon
搜索文档
2 亿美元 ARR,AI 语音赛道最会赚钱的公司,ElevenLabs 如何做到快速增长?
Founder Park· 2025-09-16 21:22
公司概况与市场地位 - AI音频领域独角兽,估值达66亿美元[2] - 欧洲发展速度最快的AI创企,在科技巨头围攻下成功突围[3] - 营收增长迅猛:首个1亿美元ARR耗时20个月,第二个1亿美元ARR仅用10个月[2],目前营收已突破2亿美元[33],从1亿美元增长到2亿美元用时约10个月[34] 创业历程与产品市场契合 - 创业契机源于对波兰落后电影配音体验的洞察,结合此前音频项目经验[4][5] - 早期采用双管齐下策略:联合创始人负责技术研发,CEO负责市场需求验证[7] - 通过给YouTuber发送数千封个性化邮件进行市场测试,初期回复率约15%[7] - 关键转折点是将方向从配音转向旁白和语音解说,通过三件事找到PMF信号:发布"能模拟笑声的AI"博客后等待名单新增上千人、有声书作者成功使用产品并推荐朋友、测试版公开后获得创作者和旁白演员积极反馈[9][10] 技术战略与研发优势 - 坚持自研模型路线,因当时市面现有模型效果均处于"恐怖谷"状态[11] - 技术发展从专注单一语音模态转向多模态融合,最新Eleven v3模型已结合推理能力与语音技术[12] - 自建数据中心用于模型训练,计算持续训练需求后认为自建与云服务成本基本打平,且能获得更快实验速度[26][27][28] - 目前技术领先竞争对手6到12个月,具体优势取决于聚焦的细分领域[24] 业务模式与增长动力 - 企业客户成为业务核心,重点打造对话式Agents平台[37] - 最大单笔合同金额约200万美元,客户来自呼叫中心、客户支持、个人助理领域[38] - 重要合作伙伴包括思科、Twilio、Epic Games等,同时保持庞大自助用户群体[38] - 语音Agents业务被视为未来数十亿美元营收潜力的增长点[46] 融资策略与资本运作 - 种子轮融资异常艰难,被30到50位投资人拒绝,主要质疑研发难度、市场规模和产品护城河[64][65] - 融资宣布与重大产品动态、用户里程碑或核心招聘进展绑定,不单纯为宣布融资而宣布[70] - 每轮融资核心逻辑是"提前布局未来业务",如拓展模型能力、推进国际化、深耕Agents平台[44] - 几乎每轮融资都会推出员工股票二次出售和要约收购,为员工提供流动性[87] 组织管理与人才战略 - 坚持小团队模式,目前约250人拆分为20个5-10人小团队,按产品领域划分[50][51] - 取消头衔制度以优化影响力和决策效率,小团队核心是快速执行[52][53] - 创始人仍亲自参与每个候选人面试,年底计划将团队规模扩展至400人[56][59] - 注重本土人才培养,通过与美国投资人网络中的顾问配对指导团队成长[19] 竞争壁垒与核心优势 - 面对OpenAI等巨头的三点优势:顶尖研发团队、快速执行力、对语音AI应用场景的深度聚焦[16][18] - 全球顶尖语音技术研发人员仅50到100人,公司拥有5到10名顶尖人才[16] - 产品层面优势体现在创意领域语音产品的额外优化步骤和完整平台构建能力[17] - 策略是研发+产品+生态三者结合,研发提供的是未来1到3年对竞争对手的优势[23] 市场拓展与全球化布局 - 定位为全球化公司,目标在美国、欧洲和亚洲市场获胜[21] - 欧洲人才质量非常高,关键是要知道如何找到他们,越来越多欧洲公司展现全球化野心[20][21] - 反驳"欧洲人工作不拼"的片面说法,团队中有很多使命感驱动的人才[22] - 在国际化扩张中采取在巴西、日本、印度、墨西哥等地建立小型分支机构的模式[62]
OpenAI发布GPT-5-Codex:独立编码7小时,能动态调整资源,token消耗更少
Founder Park· 2025-09-16 11:24
产品发布与定位 - OpenAI发布专用于编程任务的新模型GPT-5-Codex,属于GPT-5的特殊版本,专为智能体编程重新设计 [3][4] - 该模型具备双模特长,不仅响应速度快且可靠性高,小任务几乎即时响应,大任务可持续执行数小时 [5][6] - 内部测试显示可连续7小时完成大规模重构任务 [7] 性能表现与效率提升 - 在SWE-bench验证和代码重构任务上,GPT-5-Codex准确率达51.3%,显著超过GPT-5-high的33.9% [9][10] - 后10%用户请求中token消耗量比GPT-5减少93.7%,前10%高复杂度请求中思考耗时达到两倍 [12][13] - 代码审查能力增强,不正确评论从13.7%降至4.4%,高影响力评论从39.4%提升至52.4%,平均每个PR评论数从1.32降至0.93 [16][18] 技术架构与设计理念 - 模型采用动态调整资源机制,根据不同任务复杂度自适应分配计算资源 [9][12] - 提出"Harness"概念,强调模型与外部环境(工具、IDE、终端等)的集成框架重要性,确保模型可执行实际任务 [23][28][34] - 延迟控制低于1.5秒,支持多模式交互包括终端、IDE编辑、GitHub及Cursor集成 [30][32] 内部工具与生态建设 - 内部孵化工具包括10x(终端异步执行工具)、Agents.md(项目环境说明文件)和Code Review Agent(PR审查工具) [36][37][39][40] - Code Review Agent在内部试点中实现数十个PR审查且几乎零bug发布 [41][42] - 编程智能体市场竞品包括Cursor、Claude Code CLI、Gemini CLI及国内腾讯CodeBuddy、阿里Qwen3-Coder、字节TRAE等 [50][51][52] 行业趋势与战略方向 - 编程领域正向"AI写大部分代码+人类监督架构"模式演进,开发者角色转向战略设计与创意指挥 [43][44] - 2025年被视为智能体之年,编程智能体成为行业竞争焦点,国内外厂商均加速布局同类产品 [49][53] - OpenAI通过GPT-5-Codex正式加入编程智能体市场竞争,但面临Cursor、Claude Code等已建立认知的产品挑战 [45][54]
张小珺对话OpenAI姚顺雨:生成新世界的系统
Founder Park· 2025-09-15 13:59
文章核心观点 - 语言是人类实现泛化的核心工具,是构建通用人工智能系统的最本质要素 [4][7][77] - AI Agent发展已进入下半场,重点从模型训练转向任务定义和环境设计 [5][62][63] - 创业公司最大机会在于设计新型人机交互界面,而非重复ChatGPT模式 [110][112][113] - 未来AI生态将呈现既单极又多元格局,由不同超级应用共同定义智能边界 [5][146][154] 姚顺雨背景与研究历程 - 清华姚班本科、普林斯顿博士,2019-2024年在普林斯顿攻读博士学位 [13] - 2016年接触多模态嵌入技术后转向深度学习,2018年系统性开始深度学习研究 [14][15] - 博士期间从计算机视觉转向语言模型研究,因认为语言是实现AGI的更核心方向 [15] - 专注Language Agent研究6年,2024年加入OpenAI [4][19] AI Agent技术演进 - 技术发展三阶段:符号主义AI(规则系统)→深度强化学习(环境特定)→大语言模型(泛化推理)[40][41][43] - 语言智能体与传统Agent本质区别在于具备推理能力从而实现泛化 [36][38][39] - ReAct框架成为最通用方案,实现推理与行动的协同 [26][50] - 代码环境是数字智能体最重要的"手",提供天然机器表达形式 [53][54][55] 任务与环境设计 - 当前瓶颈从方法创新转向任务定义和环境设计 [62][63] - 优秀任务需具备:结果导向奖励机制、基于规则的白盒评估、可解释性 [64][66][71] - 任务分类标准:可靠性需求型(如客服)vs创造力需求型(如证明猜想)[70][72] - 评估指标需区分Pass@k(多次尝试成功率)和Pass^k(每次成功率)[74] 产业发展与创业机会 - 模型能力溢出为创业公司创造机会,关键在于设计新型交互界面 [110][112] - 成功案例包括Cursor(编程副驾驶)、Manus(通用交互)、Perplexity(研究型搜索)[117][127][129] - 数据飞轮形成需三个条件:自主训练能力、清晰奖励信号、数据好坏分离 [123][124] - 成本不是核心瓶颈,真正关键在于找到价值超过成本的应用场景 [139][141] 未来生态展望 - OpenAI五级能力划分:聊天机器人→推理者→智能体→创新者→组织者 [44][45] - 未来12-24个月趋势:Chatbot系统自然演进为Agent系统,新型Copilot应用涌现 [165][166] - 记忆系统(Memory)将成为核心竞争壁垒,特别是上下文管理能力 [51][158][159] - 最终生态将由多个超级应用共同定义,呈现中心化与分布式并存格局 [146][152][154]
RAG 的概念很糟糕,让大家忽略了应用构建中最关键的问题
Founder Park· 2025-09-14 12:43
文章核心观点 - Chroma创始人Jeff Huber批判RAG概念 认为其将检索、生成、结合硬性拼接导致概念混淆 且市场过度简化RAG为向量搜索[5][6][7] - 提出Context Engineering是AI应用构建的核心 通过动态管理上下文窗口内容提升模型性能[4][7][8] - 指出LLM存在Context Rot现象:随着Token数量增加 模型注意力分散且推理能力下降[5][8][13] - 强调未来检索系统将向持续检索和Embedding空间内操作演进[5][41][48] Context Engineering定义与价值 - Context Engineering属于AI工程学子领域 核心任务是在每一步生成时动态决定上下文窗口内容[7] - 包含内外双循环机制:内循环单次生成选择内容 外循环随时间积累优化信息选择策略[7] - 被视作头部AI初创公司核心能力 在聊天、文档等静态场景中尤为重要[4][9] - 与Agent概念存在交叉但无需刻意区分 因Agent定义尚不明确[9][10][12] RAG概念批判 - RAG本质仅为检索 其概念包装导致开发者困惑[5][6][7] - 市场对RAG存在误解 简化为单一向量搜索操作[5][7] - Chroma团队主动避免使用RAG术语[6] Context Rot现象分析 - LLM性能随Token数量增加而衰减 模型遵循指令能力下降[8][13][16] - 在SWE-Bench等多轮交互数据集中发现Token膨胀导致指令遗漏[13] - 实验室常选择性宣传基准测试结果 回避模型缺陷披露[14][15] - 不同模型衰减程度差异显著:Sonnet 4表现最佳 Qwen3次之 GPT-4.1和Gemini Flash衰减更快[16] Context Engineering技术实践 - 当前主流做法仍将全部内容塞入上下文窗口[23] - 采用两阶段检索优化:首阶段通过向量/全文/元数据过滤将候选从数万缩减至数百 第二阶段用大模型重排选出最终30个片段[25] - 重排成本极低:100万输入Token成本约0.01美元 因使用轻量模型[25] - 大模型重排将成趋势 专用重排模型可能边缘化[26][27] 多工具协同检索 - 索引本质是写入性能与查询性能的权衡[29] - 代码搜索中85%-90%查询适用正则表达式 Embedding可额外提升5%-15%效果[37][38] - Chroma原生支持正则搜索并优化大数据量性能 新增forking功能实现毫秒级索引复制[30][31] - 工具选择取决于用户熟悉度:已知名称时全文搜索高效 语义模糊时需Embedding匹配[34][35][36] 未来检索系统演进 - 检索将持续停留在潜在空间 避免返回自然语言[40][41] - 从"检索-生成"单次交互转向生成过程实时检索[41] - 需解决技术约束:检索器冻结或语言模型无法更新导致体验差[42] - GPU内存分页等硬件优化是5-10年方向[48] 记忆与Context Engineering关联 - 记忆本质是Context Engineering的结果 核心是将合适信息放入上下文窗口[50][53] - 生成式记忆与提示式记忆依赖相同数据源和反馈信号[53] - 避免过度类比人类记忆类型 强调压缩技术实用性[56][58][59] - 离线处理与再索引有价值 可通过后台计算优化系统[59][61] 生成式基准测试方法论 - 构建黄金数据集(查询-片段对)可量化评估检索策略[61][62] - 大模型可自动生成查询-片段对 解决人工标注不一致问题[63] - 小规模高质量数据集(数百条)即产生高回报 无需百万级数据[64][65] - 建议团队通过标注派对快速构建基准数据[65][66] Chroma产品定位 - 核心为解决AI应用从Demo到生产的工程化难题[69][70] - 定位为现代AI搜索基础设施 专注检索引擎构建[72][74] - 云产品采用无服务器架构 实现30秒建库、按实际使用量计费[82][83][84][86] - 免费额度支持10万文档导入和10万次查询[86][87] 搜索系统特性演进 - 现代性体现在分布式架构:读写分离、存储计算分离、Rust编写、租户模式[74] - AI搜索四维差异:工具技术、工作负载、开发者群体、结果消费群体[76] - 语言模型可消化数量级多于人类的信息 直接影响系统设计[76] 创业理念与设计哲学 - 创业需聚焦热爱领域 与优秀团队服务目标客户[90] - 设计体现文化一致性 创始人需作为品味把关人防止品牌分裂[98][99][100] - 信奉"做事方式即一切方式"原则 保持全环节体验统一[98][99]
下周二:Agent 搭建好了,来学学怎么极限控制成本
Founder Park· 2025-09-14 12:43
AI Agent成本控制挑战 - AI Agent产品开发上线后面临高额Token消耗成本 单次对话交互可能消耗数万甚至数十万Token [2] Cloud Run解决方案优势 - 无服务器平台Cloud Run可根据请求量实现自动伸缩 在无流量时实现零成本运行 [3] - 平台能在几秒内从零实例扩展到数百上千实例 响应实时请求量变化 [7][9] - 通过"无请求即零成本"模型可将AI Agent运行成本降至为零 [7][9] 技术分享会内容 - Google Cloud专家将分享Cloud Run开发技巧和极致成本控制方法 [4] - 通过真实场景模拟演示请求量 实例数和响应延迟的变化 展示平台伸缩能力 [9] - 分享会面向AI初创企业 出海企业技术负责人 AI产品经理及开发者群体 [9] 行业应用案例 - 会议笔记产品Granola通过简化产品设计获得市场成功 [10] - 无法律背景创业者通过调研100位律师创建估值7亿美元AI法律公司 [10] - Sensor Tower报告显示AI应用用户以年轻男性为主导 垂类应用面临颠覆压力 [10]
数据、IP、境外实体,到底先抓谁?一文讲清 AI 出海合规全流程
Founder Park· 2025-09-12 18:06
出海前的战略规划与准备 - 出海前需进行法律国别调查,评估目的国的政治稳定性、法治成熟度及立法执法监管期的稳定性,以预设法律风险并做好合规设计[7] - 企业需根据自身战略选择出海模式:绿地投资(从零新建企业,控制力强但周期长)、收购并购(快速融入市场但后续风险大)或单纯产品出海,并考虑股权架构以优化税收和提高运营效率[8] - 启动出海项目前须完成境内审批手续,包括向发改委申报项目可行性及在商务部门备案,确保符合国内法律政策要求[8] - 当地合规运营需关注外商投资准入(如行业禁止/限制清单、持股比例)、税务登记及劳动用工法律,并需考虑州/地方层面的监管差异[9] - 在当地雇佣员工需明确是否需要设立当地实体,以及外派员工与本地员工的雇佣配比要求,核心是投资需为当地就业市场带来实质效益[11] 境内合规的关键步骤 - 境内合规需评估东道国外商投资准入审查标准及AI等敏感行业的特定监管框架,并关注税收优惠政策及其稳定性[12] - 发改委对境外投资实行核准制(涉敏感国家地区或敏感行业如军工、电信)或备案制(其他项目),并设有明确的资金门槛划分审批层级[13] - "37号文登记"是中国自然人持股境外非上市公司的主要合规渠道,需在向特殊目的公司(SPV)出资前办理外汇登记,现行审核权限已下放至银行[13] - 技术出口受《技术进出口管理条例》和《出口管制法》监管,禁止或限制出口的技术目录(2023年12月修订)包含多项AI技术,出口需经省级商务部门审查及商务部备案[14][15] 主要出海目的国的监管特点 - 美国AI监管分联邦与州层面:联邦层面有《人工智能权利法案蓝图》五项核心原则及FTC执法框架;州层面如科罗拉多州2024年AI监管法案(禁社会信用评分)和加州2020年人脸识别技术法案[16] - 欧盟《人工智能法案》将AI系统分四类风险(不可接受、高风险、有限风险、最低风险),禁用四类系统(如社会信用评分),违规罚款最高达全球年营收6%,并强调数据可操作性及GDPR权利[17] - 东南亚监管各异:新加坡实行"沙盒监管"、泰国监控数据跨境传输、马来西亚保障用户知情权、越南注重数据安全与主权控制[18] 知识产权与数据合规的核心挑战 - AI企业知识产权涉及代码、音视频和图片:代码需审查开源协议(如GPL协议避免混同导致项目开源),音视频训练素材需审查授权协议链路[23] - 平台集成生成工具后可能丧失"避风港原则"保护,因算法推荐等主动干预行为被监管视为参与者,面临更严格责任[24] - AI出海数据考量包括数据来源监察(如是否开源、付费)、模型与应用需按目的国监管做切分隔离,以及GDPR合规体系搭建[24][25] - GDPR合规重点包括用户当事人权利(DSR)、告知同意原则、系统设计(默认隐私保护、DPIA评估)、供应商安全管理及跨境传输合法性(如SCCs、BCRs)[27][28][29] 海外实体设立与运营考量 - 设立海外实体有利有弊:优点包括增强当地信任感、满足牌照要求(如金融科技);缺点包括成本高、管理复杂及税务申报风险[30] - 在美国非美国实体需在州注册,可能面临公司治理困难(如雇佣、开户);在东南亚可根据业务形态决定是否设立实体,内容分享类应用可不设以节省成本[30] - 面向儿童的智能硬件需特别关注敏感信息界定、功能设计及监护人模式,避免因合规疏漏被罚款[31] 技术开发与部署的合规实践 - AI生成代码商用需注意开源协议版权问题及代码潜在逻辑错误、安全漏洞带来的客户索赔风险[32] - 国内外用户使用同一套代码时,建议数据库和服务器分离,并进行代码拆分变更以符合不同法域要求[33] - 国内开发团队为海外部署时,存在数据跨境传输合规隐患,长期需通过云服务商专线建立隔离的测试与生产环境[36]
Claude 官方发文:如何给 Agent 构建一个好用的工具?
Founder Park· 2025-09-12 18:06
Claude新功能与AI工具开发方法论 - Claude新增创建和编辑Excel、文档、PPT、PDF等主流办公文件功能 拓展AI在实际任务中的应用场景[2] - Anthropic目标是将AI从"聊天机器人"转变为解决实际问题的强大伙伴 曾推出artifact等小而美的客户端工具[2] AI智能体工具设计核心原则 - 转变思维 为不确定的、会推理的AI设计直观易用工具 而非传统编程只考虑输入输出[4] - 评估驱动 用真实且复杂的任务系统性验证工具效果 评估场景需接近真实世界[5] - 少即是多 构建整合工作流的强大工具而非零散API功能 减轻AI推理负担[6] - 精心设计描述 工具名称、描述和参数定义是AI理解用途的唯一途径 清晰准确描述提升调用成功率[7] 工具定义与智能体协作 - 工具是确定性系统与非确定性智能体之间的新型软件契约 需重新设计方法而非简单封装API[15] - 开发流程包括快速搭建原型、全面评估、与Claude Code协作自动优化工具性能[16] - 通过本地MCP服务器或桌面扩展连接测试工具 可直接传入Anthropic API进行程序化测试[19][20] 评估体系构建方法 - 生成基于现实世界用途的评估任务 避免简单"沙盒"环境 优秀任务需多达数十次工具调用[24] - 评估任务示例包括安排会议、处理客户投诉、准备客户挽留方案等复杂场景[26] - 通过程序化运行评估 收集准确率、运行时间、工具调用次数、Token消耗量等多维度指标[29] 高效工具设计原则 - 选择合适工具 构建少数精心设计工具针对高影响力工作流 而非简单封装现有API[37] - 使用命名空间划分工具功能界限 按服务或资源分组 帮助智能体选择正确工具[40] - 返回有意义的上下文 优先考虑相关性而非灵活性 避免低级技术标识符[43] - 优化Token效率 实施分页、过滤、截断 默认限制工具响应在25,000个Token内[48] - 精心设计工具描述 明确输入输出参数 微小改进可显著提升性能[52] 未来发展方向 - 软件开发实践需从确定性模式转向非确定性模式 适应智能体特性[54] - 通过迭代式、评估驱动过程确保工具随智能体进化 适应MCP协议和基础模型升级[54]
一文拆解英伟达Rubin CPX:首颗专用AI推理芯片到底强在哪?
Founder Park· 2025-09-12 13:07
产品发布与性能 - 英伟达发布新一代Rubin CPX GPU 专为海量上下文AI处理设计 支持百万级token推理 于2025年9月9日推出[5] - 单卡算力达30 PFLOPS(NVFP4精度) 配备128GB GDDR7显存 硬件编解码引擎使长序列注意力加速提升3倍 单卡可在1秒内完成百万token级推理[2][5] - 采用分工策略:Rubin CPX(GDDR)负责预填充(prefill)阶段 Rubin HBM GPU负责解码(decode)阶段 优化算力与内存带宽利用率[9][10][12] 架构创新与成本优势 - 核心创新为用GDDR7替代HBM 内存成本降低5倍/GB 同时省去NVLink接口 每GPU节省约8000美元[12] - 芯片成本仅为R200的1/4 但提供80%算力 整机TCO在预填充场景下从每小时0.6美元降至0.06美元 降幅达90%[12][13] - 通过专用芯片分工(prefill与decode分离)实现算力极致优化 后续可能推出解码专用芯片进一步降低成本[16] 系统性能与对比优势 - 搭载Rubin CPX的Vera Rubin机架处理大上下文窗口性能比GB300 NVL72高6.5倍 提供8EFLOPS(NVFP4精度)算力 100TB内存及1.7PB/s带宽[14][20] - 机柜集成144个Rubin CPX GPU、144个Rubin GPU及36个Vera CPU 采用Oberon方案 每个compute tray含8个CPX芯片及8个CX-9网卡[20] - 对比竞争对手:AMD MI300机架带宽20.5TB/s但需追赶到2027年 谷歌TPU缺预填充专用芯片 AWS Trainium受限于EFA网卡需外挂机架 其他厂商自研芯片需18个月流片[20] 产业链影响:PCB与光模块 - PCB需求新增:CPX芯片需专用PCB(预计HDI方案) Rubin模组与CPX间采用44层正交中板替代线缆 材料可能升级为M9+二代布+四代铜[24][27][28] - 英伟达单GPU PCB价值量从GB200的400美元提升至VR200的900美元 预计2025-2027年PCB总市场规模达131/289/707亿元人民币[29] - 光模块配置提升:每个compute tray配8个CX-9网卡(推测1.6T端口) Rubin NVL144光模块配比较GB300翻倍 因单die带宽提升至800G[30][32][37] - 2026年全球1.6T光模块需求上调至1500万只 2027年预计达4000-5000万只 推理步骤解耦推动单托盘GPU数量增加 进一步带动光模块需求[35][36][37] 电源与散热升级 - 整机功耗从180-200kW提升至350kW 推动供电架构向直流化/高压化演进:800V HVDC替代传统UPS 二次侧电源升级至800V-50V[39][40] - 液冷与电源需求增长 国内供应商如中恒电气(HVDC龙头)、科士达(北美代工)、盛弘股份(模块开发)等积极布局海外市场[41][42][43] 技术规格与路线图 - Rubin CPX采用N3P制程 单芯片功耗800W(带内存880W) 无NVLink 仅支持PCIe Gen6接口[12][17] - 对比路线图:Rubin CPX算力20PFLOPS(稠密) 内存带宽2TB/s 而R200带宽20.5TB/s Rubin Ultra内存带宽达53TB/s(2027年)[7][12][17]
算一笔「看不见」的 Agent 成本帐
Founder Park· 2025-09-11 16:25
AI Agent成本控制挑战 - AI Agent产品开发上线后面临高额Token消耗成本 单次对话交互可能消耗数万甚至数十万Token[2] Cloud Run解决方案 - 完全托管的无服务器平台Cloud Run可根据请求量自动伸缩 实现零流量时零成本运行[3] - 平台能在几秒内从零实例扩展到数百上千实例 响应实时请求量变化[7][9] - 通过"无请求即零成本"模型将AI Agent运行成本降至为零[7][9] 技术实现机制 - 通过监控图表展示请求量 实例数和响应延迟变化 直观演示动态伸缩能力[9] - 应用现代化专家将分享提升AI服务弹性的关键策略[7][9] 目标受众群体 - 解决方案面向AI初创企业 出海企业技术负责人 AI产品经理及开发者[9] - 适用于需要平衡稳定性与成本控制的AI应用场景[7][9]
Mira Murati 创业公司首发长文,尝试解决 LLM 推理的不确定性难题
Founder Park· 2025-09-11 15:17
公司背景与动态 - Thinking Machines Lab由OpenAI前CTO Mira Murati于2024年2月成立的人工智能初创公司[2] - 公司推出新博客栏目Connectionism,涵盖从核函数数值计算到提示工程等广泛研究主题[3] - 核心开发者Horace He(前PyTorch核心开发者,Meta离职)加入公司并主导技术研究[8] LLM推理不确定性问题分析 - 大语言模型推理中存在不可复现性,即使温度参数设为0,API仍非确定性[10] - 开源推理库(如vLLM或SGLang)在自有硬件上运行同样存在非确定性问题[11] - 传统假设认为浮点非结合性与并发执行导致不确定性,但未完全解释根本原因[13][16] 不确定性根本原因 - 浮点运算的非结合性导致数值计算差异,但非直接原因[17][21] - 原子加法操作在并发环境下导致运行间不确定性,但LLM前向传播过程通常无需原子加法[26][29][33] - 核心问题在于缺乏批次不变性:核函数输出受batch size变化影响,而服务器负载决定batch size[35][37][40] 批次不变性解决方案 - 实现批次不变性需确保RMSNorm、矩阵乘法和注意力机制与batch size无关[42] - RMSNorm需固定归约顺序,避免因batch size变化改变并行策略[46][50] - 矩阵乘法需编译固定核函数配置,放弃Split-K等优化以保持一致性[56][60] - 注意力机制需处理序列维度和特征维度归约,采用固定拆分大小策略而非动态调度[67][72] 实验验证与性能 - 使用Qwen3-235B模型测试,未优化时1000次采样产生80种不同结果,首次差异出现在第103个token[76][77] - 启用批次不变性核函数后,1000次结果完全一致[78] - 当前未优化版本性能下降,但未出现灾难性性能损失(vLLM默认26秒 vs 确定性版本42秒)[80][81] 应用价值与行业意义 - 确定性推理可实现真正的在策略强化学习,避免训练与推理间数值差异导致的策略偏移[82] - 解决不确定性问题有助于提升科学研究的可复现性和系统可靠性[85] - 公司开源批次不变性核函数库,提供确定性推理示例(GitHub仓库thinking-machines-lab/batch_invariant_ops)[74][75]