Workflow
机器之心
icon
搜索文档
CVPR 2025 Highlight | 国科大等新方法破译多模态「黑箱」,精准揪出犯错元凶
机器之心· 2025-06-15 12:40
核心观点 - AI决策的可靠性与安全性是实际部署的核心挑战,提升模型可解释性是迫切需求[1] - 当前解释方法(如Shapley Value等)在多模态任务或大规模模型中存在局限性[1] - 提出视觉精度搜索(VPS)方法,可提高模型可理解性并解释预测错误原因[2][9] - 该方法在CVPR 2025获Highlight Paper(387/13008, 2.98%)[2] 背景挑战 - 多模态预训练技术使物体级基础模型(如Grounding DINO)应用广泛但解释复杂[8] - 现有方法面临两大挑战:基于梯度的方法定位不精确,基于扰动的方法噪声多[8] 方法创新 - 将归因问题建模为基于子模子集选择的搜索问题[12] - 设计线索分数(S_clue)评估区域定位识别能力[15] - 引入协作分数(S_colla)衡量子区域协同贡献[16] - 结合两者构建子模函数F(S,b_target,c)[17] - 使用贪心搜索算法生成显著图[18] 实验结果 - 在MS COCO目标检测任务中超越D-RISE方法:Insertion提升23.7%,Deletion提升6.7%,平均最高分提升10.6%[22] - 在RefCOCO指代表达理解任务中:Insertion提升20.1%,Deletion提升22.1%,平均最高分提升4.4%[22] - 在LVIS V1零样本检测任务中:Insertion提升31.6%,Deletion提升4.2%,平均最高分提升15.9%[22] - 显著图质量优于ODAM(弥散状)和D-RISE(嘈杂),能清晰突出重要子区域[22] 错误解释能力 - 能解释视觉定位任务中的决策错误(如图5展示干扰区域)[25] - 能解释目标检测中的分类错误(如图6显示背景干扰区域)[27] - 能解释漏检错误原因(如图7显示相似物体混淆和环境因素影响)[30] 应用前景 - 可应用于模型训练提升决策合理性[32] - 可用于推理时监控决策进行安全防护[32] - 可通过可解释发现关键缺陷以最小代价修复模型[32]
AI记忆伪装被戳穿!GPT、DeepSeek等17款主流大模型根本记不住数字
机器之心· 2025-06-15 12:40
工作记忆的定义与重要性 - 工作记忆是人类大脑负责临时存储和处理信息的能力,持续时间从几秒到几十秒,支撑推理、计算和连贯对话等复杂操作 [7] - 大模型常被类比为"会说话的大脑",但缺乏真正的工作记忆能力意味着它们距离通用人工智能仍有关键差距 [8] 传统评估方法的局限性 - 人类工作记忆常用N-Back Task评估,要求受试者判断当前刺激与N步前的匹配性,但该方法不适合直接测试LLM [9] - LLM输入窗口包含全部历史token,使得"回看N步"变成文本匹配而非真正的记忆调用 [10] 实验1:数字猜谜游戏 - 测试17个模型在1-10数字猜谜中的表现,要求模型在心中预设数字并回答提问,理想情况下10个数字中应有1个"Yes"回答 [13][14] - 结果显示仅GPT-4o-2024-08-06(概率和1.085)和LLaMA-3.1-8B(0.98)接近人类表现,其他模型普遍无法在"脑内"存储数字 [17][18][19] - 模型对数字7/17/37存在明显偏好,表现出类似人类的数字迷信特征 [22] 实验2:是非问答游戏 - 测试模型在心中预设物体后,通过250次Yes/No比较回答保持逻辑一致性的能力 [22] - GPT-4o在200次测试中仅27次通过,多数模型在20-40题后出现"比汽车大又比足球小"等矛盾回答 [25][26] - 长上下文模型表现略优但本质仍是依赖文本回溯而非工作记忆 [26] 实验3:数学魔术测试 - 要求模型记忆4个随机数并完成10步心算操作,最终应得到2个相同数字 [27] - 17个模型中DeepSeek-R1以39%正确率最高,LLaMA-3.1-8B表现突出但整体准确率仍远低于及格线 [28][29] - 加入思维链(CoT)提示未能显著提升效果,显示模型缺乏内部运算能力 [29] 核心研究发现 - 测试覆盖GPT/o1-4/LLaMA/Qwen/DeepSeek等主流模型家族,无一通过三项工作记忆测试 [30] - 模型体量与表现无必然关联,部分升级版本反而出现性能倒退 [32] - 当前对话真实性依赖上下文窗口而非内部记忆,长链推理实质是外部化"草稿"而非脑内运算 [30][31] 技术启示 - 需开发新型记忆机制如可读写"内存格",或通过强化学习训练模型操纵隐变量 [32] - LLaMA-3.1-8B在数字猜谜最接近人类(0.98),DeepSeek-R1在数学魔术领先(39.3%)但仍有巨大改进空间 [32]
首个统一的图像与视频AIGC可解释性检测框架,多榜单SOTA性能
机器之心· 2025-06-14 20:45
想象一下:你正在浏览社交媒体,看到一张震撼的图片或一段令人震撼的视频。它栩栩如生,细节丰富,让你不禁信以为真。但它究竟是真实记录,还是由顶尖 AI 精心炮制的「杰作」?如果一个 AI 工具告诉你这是「假的」,它能进一步解释理由吗?它能清晰指出图像中不合常理的光影,或是视频里一闪而过的时序破 绽吗? 这种「真假难辨」且「知其然不知其所以然」的困境,正是当前 AIGC 时代我们面临的严峻挑战。随着 AI 生成的内容越来越逼真 ,传统的「黑箱式」检测工具 已难以满足我们对透明度和可信度的需求 。我们迫切需要能够同时处理图像和视频、并且能给出「诊断报告」的智能检测系统。正因如此,这篇论文提出了 「IVY-FAKE:一个统一的可解释性图像与视频 AIGC 检测框架与基准」 ,目标是让 AI 不仅能识别「李逵」与「李鬼」,更能清楚解释:是哪些具体的视觉伪影 (空间或时间上的),暴露了内容的「AI 基因」。 该工作由 π 3 AI Lab, 武汉大学,南京大学,斯坦福大学机构的多位研究人员合作完成。 论文标题:IVY-FAKE: A Unified Explainable Framework and Benchmark f ...
通用 Agent 之外,Agentic Age 流量赛还有哪些「隐藏副本」?
机器之心· 2025-06-14 20:45
通用 Agent 之外,Agentic Age 流量赛的隐藏副本 - Agentic AI 时代正在重塑流量入口逻辑,与传统互联网时代有根本性差异 [2] - 多模态大模型和 Agent 技术进步推动行业讨论焦点从 LLM 转向 Agent,2025 年或形成新流量入口 [2] - AI 助手将打破界面边界,跨平台自主执行任务,颠覆传统注意力分发模式 [2] - 自然语言交互有望替代图形界面操作,重构各类场景的交互形式 [3] Agentic 时代的用户行为变化 - 用户可通过指令让 AI 处理任务,减少主动浏览网页和应用的需求 [3] - 大模型强化记忆和多模态能力,如 Google Gemini 可记忆用户偏好,Anthropic 等展示跨设备操作能力 [3] - 多模态智能体支持语音对话、场景式查询等更自然交互形式 [3] - 硬件厂商如微软、苹果通过专用按键优化 AI 调用入口,入口定义转向语音指令或一键唤醒 [4] 新型用户特征与需求 - Agentic Age 催生创造性用户,模糊用户与开发者界限,通过简单指令构建定制化智能应用 [5] - 新用户群体包括大量非技术背景普通用户,依赖自然语言编程等技术快速部署智能体 [5] 非主流 Agentic 路线探索 - 行业正探索三大非通用 Agent 路线以切入流量入口,具体路径未展开 [6] 技术发展动态 - 本期通讯涵盖 31 项 AI & Robotics 赛道要事,含技术 12 项、国内 8 项、国外 11 项 [1]
多智能体在「燃烧」Token!Anthropic公开发现的一切
机器之心· 2025-06-14 12:12
多智能体系统概述 - 多智能体系统特别适合解决开放式研究问题,这类问题需要动态调整方法和路径[6] - 研究本质是信息压缩,子智能体通过并行处理不同方面信息辅助主智能体完成压缩过程[7] - 多智能体系统在"广度优先"查询任务中表现突出,比单智能体系统性能提升90.2%[8] 系统架构设计 - 采用"协调者-执行者"模式,主导智能体协调多个并行子智能体[14] - 用户查询先由主导智能体分析并生成子智能体,从不同角度并行探索[18] - 与传统RAG方法不同,采用动态搜索流程根据中间结果调整方向[20] - 主导智能体LeadResearcher负责持久化研究计划和综合分析子智能体反馈[21][22][23] 性能优化关键 - token消耗量单独解释80%性能差异,工具调用次数和模型选择是另两个关键因素[15] - 并行调用工具使研究时间缩短90%,从几小时降至几分钟[41] - 提示词工程是优化行为主要手段,需建立准确心理模型[27] - Claude 4系列在提示词工程表现出色,能自我诊断失败原因并提出改进[32] 评估方法 - 采用"LLM担任评审官"方法,通过0.0-1.0评分评估输出质量[49][51] - 评估维度包括事实准确性、引用准确性、完整性等五个方面[58] - 早期开发阶段小样本评估即可发现显著影响[46] - 人工评估能发现自动化评估遗漏的边缘案例问题[54] 工程挑战 - 智能体有状态特性使错误会累积,需构建从错误状态恢复的系统[56] - 部署采用彩虹部署策略,逐步转移流量避免干扰运行中智能体[59] - 同步执行造成瓶颈,异步执行可提高并行性但增加协调复杂度[59] - 原型与生产环境差距较大,需要大量工程投入实现稳定运行[61]
单卡4090也能高质量视频编辑!西湖AGI Lab无训练框架FlowDirector来了
机器之心· 2025-06-14 12:12
研究背景与挑战 - 当前视频编辑方法基于反演技术,存在时序不一致、结构失真和编辑幅度受限三大问题[10] - 反演误差导致帧间连贯性破坏,背景漂移现象严重,且无法兼顾大幅语义变换与细节保真[11] 技术方案 - FlowDirector采用直接流演化路径,绕过反演阶段,通过ODE平滑过渡实现语义转换[10] - 引入空间感知流矫正(SAFC),通过注意力热图生成二值掩码,仅对目标区域施加编辑流[13][15] - 提出差分平均引导(DAG),通过高质量采样与基线采样的差异比对,自动优化编辑方向[16][17] 技术优势 - 编辑质量更高:支持大幅度形变,允许彻底的对象编辑[2] - 功能更广泛:支持添加、删除、纹理替换等多种复杂操作[2] - 计算效率突出:单卡4090即可实现高质量编辑,无额外显存开销[2] 实验结果 - 在WarpSSIM等指标上全面超越FateZero、TokenFlow等SOTA方法[26][27] - 能精准反映文本提示的关键风格属性,保持背景稳定性和时序连贯性[24] - 支持主体替换、属性修改、局部增删等复杂操作,视觉效果与语义高度对齐[22] 应用前景 - 框架可直接应用于影视后期、短视频创作、AR/VR内容生成等领域[28] - 开源项目已发布在GitHub和Huggingface平台,便于社区协作开发[8]
LLM已能自我更新权重,自适应、知识整合能力大幅提升,AI醒了?
机器之心· 2025-06-14 12:12
AI自我演进研究进展 - 近期AI自我演进研究密集涌现,包括达尔文-哥德尔机(DGM)、自我奖励训练(SRT)、MM-UPT框架等多项创新成果[1] - OpenAI CEO山姆・奥特曼预测AI机器人将实现供应链自我复制,推动指数级增长,内部消息称已测试递归式自我改进AI[1] - MIT最新研究提出SEAL框架,使LLM能通过自生成训练数据更新权重,采用强化学习优化自编辑过程[2][10] SEAL技术框架 - 采用嵌套循环结构:外部RL循环优化自编辑生成,内部循环通过梯度下降更新模型参数[13] - 自编辑生成通过强化学习实现,奖励机制基于下游任务性能提升[12] - 可视为元学习实例,研究如何高效生成自编辑[15] - 支持"教师-学生"分离模式,教师模型专司生成优化编辑[26] 实验验证结果 少样本学习 - 使用Llama-3.2-1B模型在ARC测试集上,SEAL成功率72.5%,显著高于无RL自编辑(20%)和ICL(0%)[34][36] - 性能仍低于Oracle TTT(100%),显示改进空间[36] 知识整合 - 采用Qwen2.5-7B模型整合SQuAD数据,SEAL单篇文章准确度47%,持续预训练43.8%[38][39] - 相比基础模型(32.7%),合成数据训练可提升至39.7-46.3%,RL进一步优化效果[40] - 强化学习迭代产生更详细自编辑,带来性能持续改进[43] 行业影响与讨论 - 研究被视作接近"事件视界"的证据,即AI发展不可逆临界点[7] - 技术社区存在争议,部分观点认为尚未实现持续自我改进[4] - 自改进AI引发警惕,担忧潜在风险[8]
刚刚,CVPR 2025奖项出炉:牛津&Meta博士生王建元获最佳论文,谢赛宁摘年轻研究者奖
机器之心· 2025-06-13 23:45
CVPR 2025大会概况 - 本届CVPR共收到13008份论文投稿,同比增长13%,最终接收2872篇,接收率22.1% [3] - 大会现场参会学者超过9000人,来自70余个国家和地区 [7] - 图像与视频生成领域论文接收数量最多,基于多视角和单图像的3D领域接收率最高 [8] 最佳论文及荣誉提名 - 最佳论文VGGT由牛津大学和Meta AI联合提出,采用纯前馈Transformer架构实现通用3D视觉模型,推理速度达秒级 [14][17] - 荣誉提名论文MegaSaM来自Google DeepMind等机构,提出深度视觉SLAM框架,在动态场景中实现快速准确的相机姿态估计 [27][30] - 另一篇荣誉提名论文Navigation World Models由LeCun团队提出,采用条件扩散Transformer实现最先进视觉导航性能 [33] 3D视觉技术进展 - 3D Student Splatting and Scooping(SSS)改进了3D高斯泼溅技术,在质量和参数效率上优于现有方法 [37][40] - 论文实验数据显示,SSS方法在Mip-NeRF360数据集上PSNR达29.90,LPIPS为0.145,表现最优 [42] 视觉语言模型创新 - Molmo和PixMo论文提出开源视觉语言模型,72B参数模型在多项基准测试中超越Claude 3.5 Sonnet等商业模型 [46] - 该方法创新性地使用PixMo数据集,无需依赖专有VLM合成数据 [46] 学生论文亮点 - 最佳学生论文提出首个基于物理的多视角动态光传播神经逆渲染系统,实现强间接光条件下的3D重建 [55] - 荣誉提名学生论文创新性地利用扩散时间步构建视觉语言,统一多模态理解和生成 [63][66] 行业重要奖项 - 年轻研究者奖授予Hao Su和谢赛宁,两人论文被引量分别超过12万和7.5万 [68][72][74] - Longuet-Higgins奖授予Inception架构和全卷积网络两篇开创性论文,引用量分别达6.7万和4.9万 [76][79][80][83] - Thomas S. Huang纪念奖授予德克萨斯大学Kristen Grauman教授,表彰其在计算机视觉领域的贡献 [86]
ICML 2025 | 千倍长度泛化!蚂蚁新注意力机制GCA实现16M长上下文精准理解
机器之心· 2025-06-13 23:45
长文本建模的挑战与GCA的创新 - 长文本建模面临两大核心挑战:主流LLMs的Transformers架构存在平方复杂度及显存开销线性增长问题,以及full-attention外推能力有限难以泛化到超长输入[1] - 高效处理长上下文不仅关乎工业界降本增效,更涉及AGI核心问题——构建具有永久记忆的智能体,这将成为大语言模型公司的数据护城河[1] - 蚂蚁团队提出GCA机制,模拟人类开卷考试模式,通过因果检索注意力实现端到端学习,仅关注相关历史片段,显著降低显存开销[2] GCA技术原理与架构 - GCA采用两阶段注意力机制:分组注意力收集各chunk信息,chunk-level融合通过softmax加权整合关键信息用于预测[14][15] - 架构结合GCA与滑动窗口注意力,前者负责长程检索后者处理短程信息,通过Triton kernel实现优化显存管理[15] - 与传统检索方式相比,GCA让检索分参与前向运算获得梯度,实现检索模块的端到端学习[13] 实验性能表现 - 128M模型实现1000倍长度泛化,16K预训练模型在16M上下文passkey retrieval达到100%准确率[5][17] - 训练开销随序列长度呈线性增长,推理显存接近常数且速度持平Transformers,CPU卸载策略使48K上下文显存仅增加1.62倍[17][20] - 在arXiv-math数据中展示语义级检索能力,能识别引理和变量声明的逻辑相关性[21] 行业技术对比 - 相比滑动窗口注意力牺牲长程信息、温度调节法泛化有限等现有方案,GCA突破性地实现有效利用超长上文信息[7][8] - 与DeepSeek的NSA形成技术互补:GCA侧重长度泛化,NSA优化稀疏attention,后续HSA工作融合两者优势[5] 开源与学术影响 - 技术实现已通过Triton kernel全部开源,论文被ICML 2025接收[3][11] - 尽管实验规模较小,但为机器永久记忆机制提供新思路,首次实现16M长度完美信息检索[23]
烧钱一年,李飞飞的「空间智能」愿景有变化吗?
机器之心· 2025-06-13 20:02
创业一年后 World Labs 的愿景 - World Labs 在成立一年内完成两轮融资累计募资2 3亿美元 估值突破10亿美元 成为AI领域独角兽企业 [5] - 公司已发布「世界生成」模型和Forge渲染器等技术成果 其中「世界生成」技术仅需单张图片即可生成可交互3D物理世界 [5][6] - 空间智能被定位为理解重建生成物理世界的核心能力 超越语言模型局限 目标构建可创造无限虚拟宇宙的AI系统 [5][6] - 技术路径依赖跨学科整合(AI+计算机图形学) 当前算力数据工程能力提升使「世界模型」攻关具备可行性 [7] 空间智能对AI完整性的意义 - 语言模型存在三维物理世界描述的天然缺陷 空间智能作为更古老的智能形式可弥补这一关键缺口 [6][8] - 公司技术路线选择与主流LLM分野 专注让AI理解3D物理世界运作方式 涉及机器人设计社交等多领域应用 [5][8] - 空间智能被视为智能的核心组件之一 其突破将推动AI从单一现实向多元宇宙演进 [5][6] 空间智能与多元宇宙愿景 - 「多元宇宙」指通过AI创造无限虚拟宇宙 需依赖3D物理世界的理解与生成能力 [4][6] - 技术反直觉发展体现在:早期忽视3D表征 现通过数据驱动方法实现空间智能突破 [4][7] - Forge渲染器支持Web端实时渲染AI生成3D场景 标志技术落地取得实质性进展 [7] 世界模型的发展现状 - 前置技术如算力提升数据积累工程优化为世界模型创造发展时机 [7] - 公司方法论借鉴LLM的数据驱动和神经网络经验 但强调需结合计算机图形学等跨学科知识 [7] - 下一步重点攻关方向包括3D物理世界的理解重建及生成技术的场景化应用 [4][7]