AutoThink

搜索文档
5月全球人工智能领域新看点
新华社· 2025-06-02 11:37
大模型技术进展 - 中国深度求索公司完成DeepSeek R1模型升级,新版本DeepSeek-R1-0528在思维深度、推理能力及长文本生成(如议论文、小说、散文)方面显著优化,输出更贴近人类风格 [2] - 美国Anthropic推出Claude 4系列两款新模型:Opus 4(行业领先编程模型,擅长复杂长期任务)和Sonnet 4(指令理解与推理能力升级) [2] - 谷歌发布Gemini 2.5系列模型(性能与智能推理大幅提升)及多模态模型(Imagen 4图像生成、Veo 3视频生成、Lyria 2音乐生成、Flow电影制作工具),支持文本到高质量视觉内容转换 [3] AI技术缺陷与改进 - AI生成内容存在信息不准确问题,日本研究团队类比为"感觉性失语症"(表达流畅但语义错误),需突破内部模式僵化限制 [4] - 中科院自动化所与鹏城实验室提出AutoThink推理策略,通过省略号提示和三阶段强化学习实现自主切换思考模式,在数学数据集上平衡准确率与算力效率 [5] 行业政策与国际合作 - 日本通过首部AI专门法律《人工智能相关技术研究开发及应用推进法》,设立首相领导的"AI战略本部"并制定基本计划以促进研发与防滥用 [7] - 中国与上合组织发布《人工智能应用合作中心建设方案》,聚焦开源服务、产业对接、人才培育等领域加强跨国合作 [7] 社会经济影响 - 国际劳工组织报告显示全球25%工作岗位可能受生成式AI影响,影响性质取决于技术管理方式 [6]
【新华社】我国科学家提出高效推理策略 可避免大模型“过度思考”
新华社· 2025-05-30 08:34
人工智能大模型思考模式优化 - 中国科学院自动化研究所联合鹏城实验室提出高效推理策略AutoThink 可让大模型自主切换思考模式避免"过度思考" [1] - 当前大模型普遍存在"深度思考能力" 即在回答问题前生成包含自我反思和验证的推理过程 显著提升解决复杂问题的能力但导致简单任务处理时产生冗余思考 [1] - AutoThink通过提示词设计和多阶段强化学习 使模型能根据题目难度自主决定是否进行深度思考 例如避免对"2+3"等简单问题进行复杂推导 [1] AutoThink技术实现与应用 - AutoThink采用省略号提示配合三阶段强化学习 引导大模型根据问题难度自主决定思考程度 实现"是否思考"和"思考多少"的智能判断 [2] - 在多个数学数据集测试中 AutoThink实现了准确率与效率的平衡 既提升性能又节省算力 展示出较强适应性和实用性 [2] - 该技术已集成于智能科研平台ScienceOne 将用于训练基座大模型S1-Base 研发团队认为"更聪明地思考 更简洁地表达"是未来科学基础大模型的重要发展方向 [2]
一个省略号提示+强化学习搞定大模型“过度思考”,中科院自动化所新方法:从强制推理到自主选择
量子位· 2025-05-28 12:22
大模型推理优化技术 - 核心观点:AutoThink通过省略号提示词+多阶段强化学习,使大模型具备根据题目难度自主切换思考模式的能力,实现"按需思考"的智能推理[2][5][6] - 行业痛点:当前主流推理模型(如DeepSeek-R1/Claude 3.7/Qwen3)存在过度思考问题,导致简单问题消耗过多计算资源,复杂问题可能因冗余推理降低准确率[3][4] 技术实现路径 - 最小干预设计:仅需在prompt中加入省略号"…"即可触发模型自主选择思考模式,未训练时已能实现随机模式切换[9][10] - 三阶段强化学习: 1) 阶段一通过动态奖励平衡防止模式坍缩,维持思考多样性[16][17] 2) 阶段二放开限制优化准确率,模型自主发展出难度感知能力[18] 3) 阶段三引入长度感知奖励,压缩冗余推理同时保持性能[19][20] 性能提升数据 - 在DeepSeek-R1-Distill-Qwen-1.5B模型上,AutoThink-Stage3实现51.7%准确率,较标准提示提升3.1个百分点,同时减少51.8%的Token消耗[23] - 对已强化学习的DeepScaleR模型仍能额外节省10%计算资源,证明该方法具备模型普适性[21] 行为模式分析 - 难度匹配:模型在Math类简单题思考比例仅28.1%,复杂题(如AMC23)思考比例升至67%,呈现显著正相关性[29] - 内部机制:不思考模式仍保留"Calculate/Check"等关键词,表明其进行快速内部推理而非随机猜测[28] 行业应用前景 - 该技术已集成至ScienceOne智能科研平台,将用于训练其基座大模型S1-Base[39] - 当前局限包括奖励规避和推理预算控制问题,后续将重点优化[41]