Workflow
后训练
icon
搜索文档
腾讯混元3年变形始末
第一财经· 2026-01-12 11:00
腾讯混元大模型战略与人才争夺 - 公司自研大模型混元的目标是对标全球最顶尖的大模型[8] - 2025年下半年,公司从OpenAI挖来姚顺雨,其被任命为首席AI科学家,直接向总裁刘炽平汇报,这是公司首次将大语言模型变为“一把手工程”[20][21] - 姚顺雨加入后,公司加速了人才招募,重点瞄准DeepSeek、月之暗面、字节跳动和阿里巴巴这四家基座模型团队的候选人[12] - 为抢夺人才,公司提供极具竞争力的薪酬,例如将字节跳动2-2职级候选人的薪酬提升200%,部分候选人年薪从250-300万元提升至300万元以上[10][13] - 公司于2025年4月成立了独立的大语言模型部与多模态模型部,12月进一步调整组织架构,新成立AI Infra部、AI Data部等,以匹配大模型研发需求[45] 组织架构调整与历史挑战 - 公司是国内大厂中最晚推出自研大模型的公司,起步缓慢与2022年公司经历的多重低谷有关,包括游戏业务版号总量同比减少32%[24][25] - 在大模型研发启动后的近三年里,公司长时间未为混元团队匹配到合适的技术领导者,前任负责人张正友(计算机视觉背景)和蒋杰(广告技术背景)的技术方向与大语言模型核心的自然语言处理关联不深[32][33] - 混元团队最初为虚拟团队,成员来自不同部门,职责与权限混乱,向上汇报链路长,向下管理复杂,资源获取效率低[34][35] - 随着新架构确立和姚顺雨上任,原有的AI Lab被逐渐弱化,其语音与自然语言处理研究方向将被裁撤,AI Lab反过来成为混元的下属部门[46] 模型研发策略与行业趋势 - 相较于前任,姚顺雨更加重视模型的后训练,并计划“从数据开始重新训练混元”,同时明确要降低内部模型的“发版速度”,以打磨好整体模型[18] - 大模型开发被视作一种“实验科学”和系统工程,需要一号位对模型从预训练到后训练有整体实验构想,而非仅靠技术骨干分工合作[23][32] - 行业落后者赶超的最优路径是效仿成熟做法,例如Google在Gemini 2.0中放弃自研的Encoder+Decoder架构,转向与OpenAI一致的Decoder only架构后,模型竞争力显著提升[47][48] - DeepSeek开源模型V3和R1为行业提供了类GPT-4和类o1模型的“配方”,加速了全球类似模型的推出[49][50] - 2025年12月,公司发布混元2.0模型,总参数为4060亿,但其被视为姚顺雨入职前的成果,姚顺雨预计将主导训练一个参数量更大的新版本,时间可能需大半年[52]
倒反天罡,Gemini Flash表现超越Pro,“帕累托前沿已经反转了”
36氪· 2025-12-22 18:12
Gemini 3 Flash性能表现 - 在SWE-Bench Verified测试中获得78%的分数,超越自家旗舰Gemini 3 Pro的76.2% [1][5] - 在AIME 2025数学测试中,结合代码执行能力得分高达99.7%,逼近满分 [5] - 在Humanity's Last Exam测试中,不使用工具得分为33.7%,与Pro版37.5%的成绩处于同一梯队 [5] - 在多项核心基准测试中表现超越上一代旗舰Gemini 2.5 Pro,并在编程和多模态推理等维度反超GPT-5.2 [5] - 响应速度是Gemini 2.5 Pro的3倍,Token消耗量减少30% [7] 产品定价与成本效益 - Gemini 3 Flash输入价格为每100万Token 0.50美元,输出价格为每100万Token 3.00美元 [2][6] - 价格高于Gemini 2.5 Flash(输入0.30美元/百万Token,输出2.50美元/百万Token),但考虑到性能和速度提升,仍具吸引力 [7] - 其成本显著低于Gemini 3 Pro(输入2.00美元/百万Token,输出12.00美元/百万Token) [2][6] - 在竞品中,其输入成本低于Claude Sonnet 4.5 Thinking(3.00美元/百万Token)和GPT-5.2 Extra high(1.75美元/百万Token),但高于Grok 4.1 Fast Reasoning(0.20美元/百万Token) [6] 技术战略与模型发展路径 - 公司团队揭示战略逻辑:Pro模型的主要作用是“蒸馏”出Flash模型,探索智能上限,而Flash则通过蒸馏技术继承Pro能力并优化延迟、成本和吞吐量 [8][9][11] - 未来Pro模型可能主要作为“生成器”,专门生产高质量的Flash模型 [11] - 团队认为Scaling Law并未失效,通过持续扩大规模仍能实现性能飞跃,前方“看不到墙” [11] - 未来扩展重点将从预训练阶段的算力堆叠,转移到推理侧的扩展(Test-time Compute) [12] - 后训练(Post-training)被认为是目前最大的“未开垦绿地”,在开放式任务上提升空间巨大 [12] 行业影响与技术启示 - Flash的表现打破了“模型越大越好”和“参数至上”的迷信,证明了更便宜、更快的模型可以更聪明 [3][13] - 这一结果标志着“帕累托前沿”发生反转,挑战了行业对“旗舰版”的盲目崇拜 [3][14] - 技术关键在于强化学习,Flash集成了最新的Agentic RL研究成果,而非Pro的简单蒸馏版 [13] - 证明提升模型能力不单纯依赖堆砌参数,通过先进的后训练算法(如RL),小模型可实现“降维打击” [14]
深度|OpenAI最高职级华人Mark Chen独家回应与Gemini竞争、Meta人才战及AI核心策略
Z Potentials· 2025-12-20 12:03
文章核心观点 - OpenAI在激烈的人才争夺战中,凭借其AGI愿景和研究文化,成功保留核心人才,而非依赖高薪竞价 [3][5] - OpenAI坚持长期主义研究哲学,专注于探索下一个范式,而非被动应对竞争对手的短期产品发布 [14] - 公司认为预训练仍有巨大提升空间,规模化并未过时,并通过技术突破使模型性能实现质的飞跃 [6][69] - AI(特别是GPT-5 Pro)在数学、科学等前沿研究领域已展现出超越人类直觉的解题能力,科学发现自动化进程显著 [33][34][89] - OpenAI设定了明确的研究自动化目标:1年内利用AI实习生助力研究,2.5年内实现AI端到端独立研究 [6][78] 人才战略与文化 - **人才争夺现状**:Meta等竞争对手以激进策略(如每年约100亿美元资金)争夺AI人才,甚至采用送亲手熬的汤等个性化方式,但OpenAI在保护核心人才方面做得相当不错 [3] - **留任核心逻辑**:OpenAI不与Meta进行逐美元竞价,提供的待遇远低于对方,但核心人才因坚信公司的发展潜力和AGI愿景而选择留下 [5][6] - **人才观与归属感**:公司认为过度关注研究功劳会阻碍进步,但认可人才价值至关重要,因此坚持公开项目归属,旨在成为培养AI超级明星的摇篮 [6][97][99] - **内部凝聚力**:在公司经历“动荡期”时,研究人员展现出高度团结,超过90%的研究人员(约100人)签署请愿书以应对外部不确定性 [60] 研究管理与优先级 - **研究管理架构**:OpenAI的研究方向由首席研究官与Jako共同塑造,并负责决定算力分配 [11] - **项目优先级管理**:公司每1到2个月会对所有研究项目进行一次梳理,整理出约300个项目的大表格并进行排名,以确保拥有约500人的研究团队明确核心优先级 [11] - **资源分配原则**:用于探索性研究的算力比用于训练实际模型的算力还要多,公司聚焦于寻找下一个范式,而非重复他人成果或在基准测试上追赶 [12] - **决策挑战**:确定优先级最难的部分在于拒绝一些项目,需要明确传达核心重点以推动研究进展 [13] 技术路线与竞争底气 - **预训练的突破**:过去六个月,公司重点恢复了在预训练及其他功能上的能力,认为预训练还有很大发展空间,并已训练出性能更强的模型 [69] - **规模化信念**:公司认为规模化并未过时,对算力的需求没有放缓迹象,如果算力增加10倍,可以在几周内充分利用并产生实际价值 [69][79] - **应对竞争**:面对Gemini 3等竞争对手的产品,OpenAI内部已有性能相当的模型,并即将发布,后续会有更优秀的迭代产品,公司更注重长期的技术积累而非短期测试 [19][23][24] - **算法优势**:公司在数据效率等方面拥有非常强大的算法,认为竞争对手在此仍有很大提升空间 [80] AGI愿景与科学赋能 - **AGI进程看法**:对AGI的定义因人而异,但公司认为正处于实现AGI的过程中,最重要的指标是能否产生新的科学知识并推动科学前沿 [74] - **科学发现自动化**:自今年夏天以来,AI在推动科学前沿方面已发生巨大转变,例如GPT-5 Pro曾用30分钟解决物理学家论文中的难题 [33][74] - **赋能目标**:公司的目标不仅是自己赢得诺贝尔奖,更是构建工具和框架,让所有科学家都能利用AI加速研究,共同推动整个领域发展 [75] - **具体进展**:在数学和科学领域已有具体成果,例如针对开放式凸优化问题的GPT-5论文,表明AI正在解决核心的机器学习问题 [76] 公司运营与未来方向 - **公司本质**:OpenAI本质上仍然是一家纯粹的AI研究公司,其核心精神是不惜一切代价安全地推进AGI研究,坚信创造最佳研究后,盈利会随之而来 [15] - **研究自动化路线图**:目标是在一年内改变研究方式,让人类负责提出想法(外层循环),模型负责实现和调试;在2.5年内实现AI端到端独立研究 [78] - **硬件合作**:公司正与Jony Ive合作开发设备,核心理念是改进ChatGPT的记忆功能,使其能通过持续互动变得更智能 [82] - **对齐与安全**:对齐是未来一两年最大的挑战之一,公司在对齐研究上做了大量工作,并持续探索如何确保模型的思考过程与人类价值观一致 [100][101]
RL是「点金石」还是「挖掘机」?CMU 用可控实验给出答案
机器之心· 2025-12-15 09:44
研究背景与目标 - 旨在通过构建可控合成数据框架,在完全解耦环境下定量分析预训练、中期训练和强化学习对模型推理泛化能力的因果影响,以明确后训练是否真正扩展了模型能力 [2] 核心研究方法 - 设计了一套基于GSM-Infinite的可控合成数据框架,将“推理结构”与“表面语境”完全解耦,以从源头控制数据分布、推理深度与语境广度 [10][12] - 通过控制有向无环图的边数来精确量化推理复杂度,并应用不同“语境模板”将抽象数学图渲染为自然语言问题,以考察模型是否真正学会推理逻辑 [12] - 定义了三个互不重叠的训练阶段以避免数据污染,并引入过程级验证来防止奖励破解,要求推理步骤和最终答案全对才判定通过 [13] 关键研究发现:强化学习的效用 - 强化学习并非总能提升推理能力,其效用取决于“能力边缘” [16] - 对于预训练已充分掌握的简单任务,强化学习只能提升pass@1,无法提升模型上限pass@128 [17] - 真正的能力跃迁发生在模型“能力边缘”的任务上,强化学习能带来显著的外推性泛化增益;若任务难度超出模型探索范围,强化学习的收益会消失 [17] - 强化学习的训练数据必须精心校准,瞄准模型的“能力边缘”,既不能太简单也不能太难 [18] 关键研究发现:预训练与情境泛化 - 如果预训练中完全没有接触过某种长尾语境,即便强化学习阶段大量训练,模型也无法实现有效迁移 [21] - 只要在预训练中混入极少量目标语境数据作为“种子”,强化学习就能在后训练阶段将其放大,实现强劲的跨语境泛化 [22] - 强化学习无法无中生有,需要预训练提供最基础的“原语”作为抓手 [23] 关键研究发现:中期训练的作用 - 在固定计算预算下,引入中期训练阶段比单纯增加强化学习步数效果更好 [26] - 中期训练起到了“分布桥梁”的作用,极大地提升了强化学习的样本效率和最终性能上限 [27] - 对于极难任务,“少量中期训练+大量强化学习”是最佳策略;对于中等难度任务,增加中期训练比重能带来更稳定的pass@1表现 [26] 关键研究发现:过程奖励机制 - 将稀疏的结果奖励与密集的过程奖励相结合,能显著减少结构性错误,在长链条推理任务中带来稳定的pass@1提升 [29] - 过程级信号能够规范强化学习的搜索方向,确保能力提升建立在忠实推理基础之上 [30] 实践指导与结论 - 强化学习数据设计应针对模型的“能力边缘”构建数据集 [31] - 预训练策略必须确保长尾领域的原子能力有至少1%的覆盖率,为强化学习留出接口 [32] - 应根据目标任务的难度动态调整中期训练与强化学习的比例,攻克难题需要更多强化学习,提升稳定性需要更多中期训练 [33] - 研究结果阐明了预训练、中期训练和强化学习之间的相互作用,为理解和改进推理语言模型的训练策略奠定了基础 [5]
喝点VC|YC对谈Anthropic预训练负责人:预训练团队也要考虑推理问题,如何平衡预训练和后训练仍在早期探索阶段
Z Potentials· 2025-10-16 11:03
预训练核心策略 - 预训练的核心目标是推动损失函数下降,这是模型开发中持续追求的唯一目标[5] - 自回归语言建模(预测下一个词)已成为主流预训练方法,其优势在于能从互联网海量无标签数据中自动生成密集的学习信号,并且其损失函数能直接反映模型生成文本的核心能力[8][9] - 扩展定律表明,模型性能(损失值下降)与计算资源、数据量或模型参数的增加之间存在可预测的幂律关系,这构成了技术商业正反馈循环的基础:更好的模型带来产品收入,进而投入更多算力训练更优模型[9][10] - 在模型架构选择上,只要不出现极端配置错误,持续增加算力对模型性能的提升作用远大于超参数微调带来的边际效益[11][13] 大规模工程挑战 - 大规模模型训练面临复杂的工程难题,需要将计算任务在成千上万个GPU上进行分布式并行,涉及数据并行、流水线并行和模型并行等多种模式的极致优化[18][19] - 硬件层面的极限调试至关重要,包括需要理解芯片的物理布局、机房网络延迟,甚至通过聚类算法来推测和解决由硬件故障或连接问题导致的训练瓶颈[17][28] - 随着算力规模从单个机房扩展到整个园区,系统可靠性面临严峻挑战,最小的硬件故障(如单块GPU损坏、供电波动或电容不足)都可能导致耗时数月的训练任务崩溃[28][29] - 技术栈的复杂性要求团队具备全栈调试能力,问题可能出现在从高级机器学习动态到底层网络协议或芯片架构的任何层面,而能跨越多层级进行问题诊断的人才非常稀缺[66] 数据与评估瓶颈 - 高质量数据的可用性是一个核心挑战,尽管互联网数据量巨大,但其有用部分的规模增长可能慢于算力增长,且数据的质量与数量需要权衡[35][36] - 使用AI模型生成的数据来训练新模型存在根本性风险:新模型只会学习到原始模型的分布,如果原始分布存在错误,新模型将无法接近真实知识,这可能导致性能瓶颈或模式崩塌[43][44] - 损失函数仍然是评估预训练效果最直接有效的指标,理想的评估标准应同时满足三点:反映真实关心目标、低噪声、快速易用,其中明确“真实关心目标”是最困难的部分[47][48] - 对于AGI级别的评估,需要设计能捕捉复杂智能行为的任务(如模拟医生与患者的长时间对话),但这类评估通常噪声高、执行慢,难以直接用于快速迭代[50] 对齐与组织管理 - AI对齐的核心问题是让模型的目标与人类目标一致,尤其是在模型比人类更聪明时,当前主要通过后训练(如强化学习)快速迭代调整模型行为,而非在预训练阶段直接嵌入[51][56] - 在组织设计上,需要避免因团队分工(如预训练团队与后训练团队)而导致科学决策被团队本位主义绑架,应保持合作以共同产出最优模型[34][35] - 团队构成以工程能力为核心,最需要的是能解决极难工程问题、实现大规模系统正确性的工程师,而非仅专注于发表论文的研究人员[67][68] - 预训练团队需要与推理团队紧密合作,在模型设计阶段就考虑推理效率,避免模型过于庞大或引入不必要的通信步骤影响最终用户体验和服务的经济性[70][71][73] 未来发展方向 - 当前AI研究最大的瓶颈之一是计算资源受限,而非算法突破,这限制了模型训练和实验迭代的速度[5][74] - 未来可能出现范式转变,例如向强化学习倾斜更多算力,但最令人担忧的风险是难以察觉的代码错误,这些细微的bug可能使耗时数月的训练任务失效且难以排查[62][63] - 对于创业公司,机会在于利用当前模型智能,专注于能快速落地的具体应用,但需避免构建过于复杂的中间层(脚手架),因为下一代更强大的模型可能使其变得多余[76] - 行业存在对专业化工具和服务的需求,例如能精确检测芯片计算错误的服务,或能帮助快速扩展AI团队、管理组织问题的解决方案[77]
黄仁勋最新对话直面争议,并称中国科技仅慢“纳秒”而已
聪明投资者· 2025-09-29 15:04
AI推理革命与市场前景 - AI推理业务已占公司收入超过40%,其增长潜力被量化为"十亿倍"级别,标志着全新工业革命的开始[8] - 当前AI演进由预训练、后训练和推理三条规模定律共同驱动,其中推理过程强调模型需通过"思考"提升答案质量,而非一次性输出[9][10][11] - AI代理系统已发展为多模型、多模态的复杂系统,能够同时调用工具并处理多样化任务,增强了推理增长的确定性[12] 与OpenAI的合作逻辑 - 公司对OpenAI的股权投资被视为押注未来万亿美元市值巨头的机会,与采购行为无直接关联[5][53] - 合作涵盖芯片、软件、系统及"AI工厂"建设,支持OpenAI向自营超大规模公司转型[16][17] - OpenAI面临用户数增长与单次计算量需求的双重指数级增长,推动其基础设施投入[18][19] 加速计算与AI基础设施市场 - 全球数万亿美元的计算基础设施正从通用计算转向加速计算,这一迁移过程将创造数千亿美元的市场机会[23][24][26] - AI增强人类智能可能影响全球约50万亿美元的经济活动,未来AI基础设施年资本支出有望达到5万亿美元[29][32] - 超大规模公司如阿里巴巴计划将数据中心电力容量提升10倍,公司收入与电力消耗呈正相关关系[34] 产能与供应链管理 - 在通用计算全面转向加速计算完成前,出现供过于求的可能性极低,此过程仍需数年[5][43] - 供应链已覆盖晶圆厂、封装及HBM内存等环节,具备需求翻倍即产能翻倍的响应能力[44] - 客户需求预测持续被低估,公司长期处于追赶状态,且预测值逐年显著上升[45][46] 公司竞争壁垒与战略 - 公司通过极致协同设计同时优化模型、算法、系统与芯片,实现Hopper到Blackwell芯片30倍的性能提升[64][68] - 竞争壁垒建立在协同设计的极致性与规模的极致性基础上,客户需部署数十万块GPU以形成规模效应[71][72] - 公司定位为AI基础设施合作伙伴,而非单纯芯片供应商,支持灵活采购模式[76][77] 技术路线与行业生态 - 年度产品发布节奏为应对token生成速度的指数级增长,确保性能提升与成本控制[59][62] - 公司开源大量软件并推动开放生态,如NVLink Fusion技术整合英特尔等合作伙伴,扩大AI工厂影响力[93] - 针对ASIC竞争,认为其适用于有限市场,而AI核心计算需适应快速变化的工作负载,依赖可重构系统[90][92] 全球市场与地缘视角 - 中国科技产业被评价为充满活力且现代化程度高,技术差距仅以"纳秒"衡量,强调直面竞争的必要性[98] - 公司主张开放市场竞争符合中美双方利益,支持技术产业全球化布局[101][103] - AI与机器人技术融合可能在五年内实现,推动个性化AI助手普及,并延伸至生命科学数字孪生应用[105][108] 行业发展建议 - 面对指数级加速的AI技术变革,企业应尽早融入生态而非预测终点,以动态适应变化[109][110]
GPT-5 为啥不 “胡说” 了?OpenAI 新论文讲透了
腾讯研究院· 2025-09-12 16:58
文章核心观点 - OpenAI最新研究揭示语言模型幻觉产生的根本原因在于其统计学习本质,且后训练过程在当前评估体系下未能有效抑制幻觉,GPT-5可能通过非二元评估技术显著降低幻觉率 [9][12][24][32] 幻觉产生的必然性 - 幻觉是语言模型预训练阶段不可避免的副产品,因模型本质是通过统计规律生成内容,而非真实判断 [11][12] - 模型通过"是否有效"(IIV)判断器评估句子概率,但面对数据稀疏、复杂概念或训练数据错误时必然失效 [13][14] - 生成模型的错误率至少是IIV判断器错误率的2倍,因单个判断错误会衍生多种幻觉(如1+1=3和1+1≠2均属幻觉) [15][16] 后训练的局限性 - 后训练通过偏好反馈改变概率分布,将概率集中到"最佳答案"以减少不确定性幻觉,但可能增加过度自信风险 [19][20] - 主流评估基准(如GPQA、MMLU-Pro、SWE-bench)采用二元评分制,仅区分正确(1分)或错误(0分),系统性地惩罚"我不知道"的回答 [21][23] - 当前评估标准奖励猜测行为而非诚实回答,导致后训练在实践中未能有效引导模型降低幻觉 [24] 模型性能对比与技术路径 - DeepSeek R1采用二元奖励模型(ORM),在Vectara HHEM测试中幻觉率达14.3%,远高于其预训练模型DeepSeek V3的3.9% [30][31] - OpenAI o3使用过程奖励模型(PRM),通过逐步推理反馈降低幻觉率至6.8%,仅为DeepSeek R1的一半 [32] - GPT-5可能引入Universal Verifier技术,采用非二元评估标准(如评分细则Rubric),从根源上减少二元激励的负面影响 [32] 解决方向 - 后训练需引入带惩罚的评分机制,例如答对得1分、答错扣1分、过度自信答错扣9分,迫使模型成为"风险评估器"而非"得分优化器" [33] - 模型需专注于真实性而非单纯得分优化,才可能从根本上解决幻觉问题 [34]
娃哈哈宗馥莉被起诉,原告自称是同父异母弟妹|首席资讯日报
首席商业评论· 2025-07-14 12:10
大中矿业临武项目争议 - 公司澄清网传临武项目基础用水用电无法保证的消息不属实 [1] - 公司矿产资源中目前未发现稀土相关元素 [1] A股市场展望 - A股连续3周大涨,股权风险溢价指标显示仍处机会水平,"上台阶"行情有望延续 [2] - 银行板块表现强势,财政注资叠加化债推进带来估值修复,险资提供资金面支撑 [2] - 低利率环境下,长周期考核配合OCI账户凸显银行板块配置价值 [2] - 建议关注中报业绩和反内卷主题,重点行业包括有色、建材、电力设备等10个领域 [2] - A股中报业绩向好率高于去年同期,建议布局高景气TMT、全球竞争力中游制造等结构性方向 [3] 公司动态 - 雷军回应李想关于理想i8发布会场地问题,提出"相互致敬"化解竞争 [4] - 娃哈哈宗馥莉因资产纠纷在香港被起诉,三名自称同父异母弟妹的原告要求获得各7亿美元信托基金权益 [5][6][7] - 中国神华前6月煤炭销售量204.9百万吨,同比下降10.9% [8] 行业数据 - 上半年全国铁路完成固定资产投资3559亿元,同比增长5.5% [9] - 白羽肉鸭行业已淘汰900万只种鸭,日产苗量降低200万只,未来或有三成种鸭企业退出 [11] - 韩国6月经合组织领先指数连续第七个月上升至101.08,为2021年11月以来最高 [13] 政策与规则 - 上交所明确个人投资者参与科创成长层股票交易门槛仍为"50万元资产+2年经验" [10] 科技与创新 - Perplexity CEO表示可能利用月之暗面Kimi K2模型进行后训练 [12] - 岚图FREE+上市,三款车型售价21.99-27.99万元,搭载华为乾崑智驾方案 [14][15]
迎接AI——理性看待变革,积极布局未来
创业邦· 2025-07-07 18:27
AI技术发展现状与趋势 - 大模型进入能力边界与不确定性并存阶段,单纯追逐参数规模意义有限,需与产品深度融合创造可持续场景价值[1][5] - 模型核心能力源自预训练而非后训练,高质量训练数据已大部分耗尽,模型解析能力提升将趋于平稳[6][7] - 模型不具备真正智能且存在"幻觉"问题,需理解其不确定性特点才能有效融入产品[5] - 模型结构化数据处理能力增强,可能替代传统数据库功能[10] AI应用落地实践 - APUS在代码生成领域实现70%代码由模型生成,旧代码维护33%由模型辅助完成[11] - 设计团队规模缩减85%,AI可基于爆量素材日生成数千个同类素材[12] - 圣经类产品升级为多媒体形式并引入AI牧师功能,覆盖美国10%人口[13] - 医疗大模型已在三甲医院应用,累计服务超100万人,实现初步诊断与分诊[14] - 开发具备情报分析能力的Agent系统,应用于商业与政治情报领域[15] 企业AI战略与组织变革 - 企业常见误区是高估AI短期价值而低估长期潜力,需围绕"为什么做-做什么-怎么做"构建战略路径[19] - AI不仅是生产资料更是生产力,需重新定义生产关系以适配新型生产力[23] - 组织需培养复合型AI项目负责人,需同时理解AI原理、知识流转机制和业务细节[22] - 生产力释放后需重新规划人员技能方向和组织架构,如客服岗位裁减80%后团队结构调整[23] CEO实施AI的建议 - 从上而下定义AI应用场景,从公司P&L价值和长期战略角度思考[26] - 从下而上推动文化变革,通过细微效率提升促进组织对AI的理解[26] - 从后往前做建设,以终为始明确场景再倒推技术需求[26] - 避免在大模型主航道上构建壁垒,否则会被快速迭代的技术碾压[27] - CEO需明确适合引入AI的业务环节,避免空喊口号[27] - 面对AI要巧思而非硬来,发挥人类创造力找到适配应用方式[28] 行业展望 - AI将如同移动互联网深刻影响每家企业业务形态,需全力以赴拥抱[29] - 全球大模型企业已从两年前的众多竞争者缩减至不超过10家具备持续发展能力[27]
公元:DeepSeek只打开一扇门,大模型远没到终局 | 投资人说
红杉汇· 2025-05-11 13:09
人工智能与具身智能赛道现状 - 当前AI与具身智能赛道处于类似互联网初期的百花齐放阶段,底层技术和垂直细分领域机会众多[5] - 具身智能领域可能处于类似2018年LLM的阶段,尚未出现GPT时刻,但AGI的长期前景被普遍看好[8][9] - 行业变化极快,AI领域"一天相当于人间一年",模型迭代速度远超传统商业模式演进速度[7] DeepSeek的影响 - DeepSeek的R1模型通过开源后训练方法论实现了"技术平权",将全球AI研发重新拉回同一起跑线[6] - 该突破改变了国内大模型行业格局,但预训练与后训练技术仍需双轮发展,行业终局尚未确定[6] - 春节期间的技术突破导致行业认知发生剧烈变化,两个月内从"后训练重要"转向"预训练重要"[6] 投资逻辑变化 - 传统基于DAU/MAU的商业评估模式失效,用户可能因技术突破瞬间转移[7] - 投资人需要快速建立对AGI能力的感知,而非依赖传统商业指标[7] - 具身智能投资的核心逻辑是押注物理世界AGI的实现概率[9] 创业范式转变 - 新时代创业更强调技术颠覆创新而非明确商业化路线[1] - 当前创业者难以清晰描述具体应用场景,更多聚焦技术路线本身[8] - 成功要素转变为对AGI的信念而非传统商业计划[9] 行业参与者特点 - 顶级投资人需保持高度热爱和好奇心以应对快速变化的技术环境[10] - 国内大模型可能形成DeepSeek、千问和豆包三强格局的预测出现[6]