Workflow
AutoThink
icon
搜索文档
养不起、卸不掉、防不住的“龙虾”:AI狂热背后的算力无底洞与安全黑洞
机器人圈· 2026-03-16 09:41
OpenClaw AI智能体的市场热潮与成本分析 - 2026年初,OpenClaw AI智能体(戏称“龙虾”)迅速流行,从深圳腾讯大楼、北京百度科技园的千人排队部署,迅速席卷全网,地方政府投入数百万元至数千万元扶持OPC(一人公司),提供免费部署、算力券、Token补贴等政策[2] - 用户使用成本高昂:有科技公司产品经理因Token消耗远超预期紧急叫停,一周API账单超3000元;社交媒体上用户晒出账单,有人一周烧掉14亿Token,一个月花费超1万元;一名程序员使用海外大模型喂养,两天消耗近5000万Tokens,费用约1700元;上海一位特聘教授单天Token费用高达700多元[5][6][7] - 成本结构复杂:包括硬件(如M1 MacBook Air约1000-1400元)、云服务器年费(个人版30-130元,标准版100-300元,企业版数百至数千元)、大模型调用费(如国产Kimi K2.5输入0.289美元/百万Tokens,输出2.83美元/百万Tokens;海外Claude Opus 4.6输入2.55美元/百万Tokens,输出25.28美元/百万Tokens)以及隐性损耗(如安装试错、时间成本、“心跳机制”意外唤醒造成的无谓损耗)[6][7] OpenClaw AI智能体的技术模式与消耗特性 - 与ChatGPT等对话式AI的“问答”模式不同,OpenClaw采用“主动唤醒→检查→推理→执行→循环往复”的永动模式,这意味着算力消耗从“脉冲式”变为“稳定流”[7] - “心跳机制”和“记忆膨胀”问题导致消耗不可控:“心跳机制”会意外唤醒已终止的任务,例如一夜之间自动执行约25次请求,造成18.75美元损失;若不及时清理“记忆”,Token消耗会随运行时间持续走高;有网友遭遇程序循环,6小时烧掉9000万Token,账单超1100元[6][7] OpenClaw AI智能体面临的安全风险 - 国家互联网应急中心于3月10日发布风险提示,指出OpenClaw默认安全配置极为脆弱,攻击者可轻易获取系统完全控制权,窃取个人隐私数据、支付账户、API密钥等敏感信息[8] - 工信部网络安全威胁和漏洞信息共享平台数据显示,2026年1月至3月9日,共采集到OpenClaw漏洞82个,其中超危漏洞12个、高危漏洞21个;核心漏洞“ClawJacked”允许攻击者实现无交互远程接管,可对网关口令进行高速暴力破解[8] - 截至3月上旬,全球公网暴露的OpenClaw网关实例超27万个,其中国内暴露约9万个,安全风险广泛存在[8] OpenClaw AI智能体的部署、卸载与责任问题 - 卸载过程复杂且存在残留风险:官方卸载会清空所有Workspace文档;手动卸载后,API密钥可能仍储存在配置文件里,导致本地访问权限被读取,Gateway可能继续在后台运行,造成持续泄密风险[9] - 卸载服务已成为一门付费生意,标价199元、299元,反映出用户可能被“留后门”的吊诡现象[9] - 责任界定模糊:当AI智能体导致文件被删、数据泄露时,责任归属(大模型缺陷、平台审核疏漏、用户授权不当)在法律上异常复杂,类似于自动驾驶车祸追责的困境;律师指出,执行型智能体可能放大个人信息处理边界,带来过度收集、处理个人信息等隐私风险,叠加网络配置不当、恶意插件等因素,安全问题比传统软件更突出[10][11][12] OpenClaw在企业端商用落地的挑战 - 企业落地面临三道关卡:第一是安装关;第二是API配置关(企业不知如何选择性价比高的大模型和云厂商套餐);第三是业务场景切入关(不知用它来做什么)[13] - 成本高昂阻碍商用:一个小型企业每月Token成本约在五六万元左右,加上员工工资、固定设备,已高于许多初创公司的承受范围[13] - 技术专家指出,OpenClaw短期内真正赋能的是对自己工作流有完全控制权的个体和小团队;在大型组织中,主要难题在于权限障碍和合规障碍,而非技术障碍[13] 产业界的破局之道与未来展望 - 技术优化降低成本:国产大模型在“性价比”上展现优势,例如智谱AI的GLM-4.6模型通过算法优化,在同等任务下比上一代节省30%以上的Token消耗;快手的AutoThink技术能使思考过程的Token消耗减少40%;开发者通过缓存优化和“混合模型策略”形成“饲养指南”[14] - 云厂商推出安全解决方案:例如火山引擎通过平台沙箱隔离、供应链深度扫描、运行时实时防护进行全流程风险控制,并依托身份集成、权限管理限制数字员工运行范围[14] - 专家指出根本解决方案在于系统级重构:麒麟软件人工智能技术专家韩福海认为,当前问题本质是智能体与底层系统“供需错配”,需从平台与算力底座重构出发,通过分布式调度、异构算力融合、精细化权限治理、全链路行为审计等系统性手段,让算力成为即取即用的流式资源,让安全成为底层内置基因[15][16][19] - AI智能体的规模化必须是安全、可持续的规模化,产业需从野蛮生长走向健康规模化落地[16][19]
5月全球人工智能领域新看点
新华社· 2025-06-02 11:37
大模型技术进展 - 中国深度求索公司完成DeepSeek R1模型升级,新版本DeepSeek-R1-0528在思维深度、推理能力及长文本生成(如议论文、小说、散文)方面显著优化,输出更贴近人类风格 [2] - 美国Anthropic推出Claude 4系列两款新模型:Opus 4(行业领先编程模型,擅长复杂长期任务)和Sonnet 4(指令理解与推理能力升级) [2] - 谷歌发布Gemini 2.5系列模型(性能与智能推理大幅提升)及多模态模型(Imagen 4图像生成、Veo 3视频生成、Lyria 2音乐生成、Flow电影制作工具),支持文本到高质量视觉内容转换 [3] AI技术缺陷与改进 - AI生成内容存在信息不准确问题,日本研究团队类比为"感觉性失语症"(表达流畅但语义错误),需突破内部模式僵化限制 [4] - 中科院自动化所与鹏城实验室提出AutoThink推理策略,通过省略号提示和三阶段强化学习实现自主切换思考模式,在数学数据集上平衡准确率与算力效率 [5] 行业政策与国际合作 - 日本通过首部AI专门法律《人工智能相关技术研究开发及应用推进法》,设立首相领导的"AI战略本部"并制定基本计划以促进研发与防滥用 [7] - 中国与上合组织发布《人工智能应用合作中心建设方案》,聚焦开源服务、产业对接、人才培育等领域加强跨国合作 [7] 社会经济影响 - 国际劳工组织报告显示全球25%工作岗位可能受生成式AI影响,影响性质取决于技术管理方式 [6]
【新华社】我国科学家提出高效推理策略 可避免大模型“过度思考”
新华社· 2025-05-30 08:34
人工智能大模型思考模式优化 - 中国科学院自动化研究所联合鹏城实验室提出高效推理策略AutoThink 可让大模型自主切换思考模式避免"过度思考" [1] - 当前大模型普遍存在"深度思考能力" 即在回答问题前生成包含自我反思和验证的推理过程 显著提升解决复杂问题的能力但导致简单任务处理时产生冗余思考 [1] - AutoThink通过提示词设计和多阶段强化学习 使模型能根据题目难度自主决定是否进行深度思考 例如避免对"2+3"等简单问题进行复杂推导 [1] AutoThink技术实现与应用 - AutoThink采用省略号提示配合三阶段强化学习 引导大模型根据问题难度自主决定思考程度 实现"是否思考"和"思考多少"的智能判断 [2] - 在多个数学数据集测试中 AutoThink实现了准确率与效率的平衡 既提升性能又节省算力 展示出较强适应性和实用性 [2] - 该技术已集成于智能科研平台ScienceOne 将用于训练基座大模型S1-Base 研发团队认为"更聪明地思考 更简洁地表达"是未来科学基础大模型的重要发展方向 [2]
一个省略号提示+强化学习搞定大模型“过度思考”,中科院自动化所新方法:从强制推理到自主选择
量子位· 2025-05-28 12:22
大模型推理优化技术 - 核心观点:AutoThink通过省略号提示词+多阶段强化学习,使大模型具备根据题目难度自主切换思考模式的能力,实现"按需思考"的智能推理[2][5][6] - 行业痛点:当前主流推理模型(如DeepSeek-R1/Claude 3.7/Qwen3)存在过度思考问题,导致简单问题消耗过多计算资源,复杂问题可能因冗余推理降低准确率[3][4] 技术实现路径 - 最小干预设计:仅需在prompt中加入省略号"…"即可触发模型自主选择思考模式,未训练时已能实现随机模式切换[9][10] - 三阶段强化学习: 1) 阶段一通过动态奖励平衡防止模式坍缩,维持思考多样性[16][17] 2) 阶段二放开限制优化准确率,模型自主发展出难度感知能力[18] 3) 阶段三引入长度感知奖励,压缩冗余推理同时保持性能[19][20] 性能提升数据 - 在DeepSeek-R1-Distill-Qwen-1.5B模型上,AutoThink-Stage3实现51.7%准确率,较标准提示提升3.1个百分点,同时减少51.8%的Token消耗[23] - 对已强化学习的DeepScaleR模型仍能额外节省10%计算资源,证明该方法具备模型普适性[21] 行为模式分析 - 难度匹配:模型在Math类简单题思考比例仅28.1%,复杂题(如AMC23)思考比例升至67%,呈现显著正相关性[29] - 内部机制:不思考模式仍保留"Calculate/Check"等关键词,表明其进行快速内部推理而非随机猜测[28] 行业应用前景 - 该技术已集成至ScienceOne智能科研平台,将用于训练其基座大模型S1-Base[39] - 当前局限包括奖励规避和推理预算控制问题,后续将重点优化[41]