量子位

搜索文档
60%情况下,主流大模型没理解风险只是装懂!别被模型的“安全答案”骗了
量子位· 2025-06-10 10:23
BSA团队 投稿 量子位 | 公众号 QbitAI 让推理模型针对风险指令生成了安全输出,表象下藏着认知危机: 即使生成合规答案, 超60% 的案例中模型并未真正理解风险。 换句话说, 主流推理模型的安全性能存在系统性漏洞 。 针对此种现象,淘天集团算法技术-未来实验室团队引入「 表面安全对齐 」 (Superficial Safety Alignment, SSA) 这一术语来描述这种 系统性漏洞。 进一步的,研究人员推出了一个Benchmark来深入研究推理模型中广泛存在的SSA现象。 这个Benchmark名叫 Beyond Safe Answers (BSA) ,是全球第一个针对推理模型思考过程中风险认知准确性的高质量评测集。 它主要包含3个特征: 挑战性的数据集 全面的覆盖范围 详细的风险注释 BSA提供了一个客观公正的评测工具,帮助更好地理解和提升推理模型在安全领域的应用能力。 引入"表面安全对齐"概念 众所周知,推理模型在显著提升复杂问题解决任务性能的同时,也为模型内部决策过程提供了前所未有的透明度。 思考过程中,推理模型会对指令中蕴含的风险进行分析。 因此, 推理模型的思考过程是很好地观测模型 ...
强化学习之父:LLM主导只是暂时,扩展计算才是正解
量子位· 2025-06-10 10:23
鹭羽 发自 凹非寺 量子位 | 公众号 QbitAI 大模型目前的主导地位只是暂时的,在未来五年甚至十年内都不会是技术前沿。 这是新晋图灵奖得主、强化学习之父Richard Sutton对未来的最新预测。 就在刚刚的新加坡国立大学建校120周年 (NUS120) 之际,Sutton受邀发表演讲——塑造AI和强化学习的未来。 其实,这已经不是Sutton第一次在公开场合表达类似的观点,早在他19年的著作《痛苦的教训》中,他就明确提出: 让AI尤其是LLM模仿人类思维方式,只能带来短期的性能提升,长期看只会阻碍研究的持续进步。 在他4月份新发表的论文《欢迎来到体验时代》也再度强调了这点,同时他表示,扩展计算才是正解。 本次NUS120演讲长达一个多小时,可谓是干货满满、信息量超大。 让我们一起来看看完整演讲内容。 LLM主导是暂时的 Sutton首先提及当前人类处于数据时代,像ChatGPT这类大语言模型,都是靠分析人类产生的大量数据 (如文本、图像、视频) 进行训 练。 但始终追逐人类思维方式,至多也只能达到 "人类水平" 。 在数学、科学等领域,人类数据里的知识已经接近极限,AI难以突破现有认知,纯靠模仿已经 ...
李飞飞自曝详细创业经历:五年前因眼睛受伤,坚定要做世界模型
量子位· 2025-06-09 17:27
一水 发自 凹非寺 量子位 | 公众号 QbitAI 因为眼睛受伤暂时失去立体视觉,李飞飞更加坚定了做世界模型的决心。 值得一提的是,嘉宾们深入浅出的讲解方式也获得了网友一致好评: 在a16z的最新播客节目中,"AI教母"李飞飞讲述了五年前因为一次角膜损伤暂时失去立体视觉的经历: 尽管凭借多年经验能想象出三维世界,但一只眼睛看东西时,我开始害怕开车。 但作为一名科学家,她也把这次经历当成一次宝贵的"实验"机会。 这次生病让她明白了 立体视觉对空间交互具有决定性作用 ,"就像语言模型处理文本时需要理解上下文,物理世界的交互也必须建立在三维 空间表征基础上"。 整体而言,李飞飞在节目中解释了 为什么空间智能是当今AI系统关键且缺失的部分,以及她的新公司如何应对这一挑战 。 同时,另一位嘉宾Martin Casado ( a16z合伙人、李飞飞公司早期投资者) 也分享了二人在世界模型上达成共识的故事, 并从投资者的角 度分析了世界模型的潜力和价值。 省流版如下: 下面具体来看。 构建能真正理解物理世界的AI模型 李飞飞自述,其实早在大语言模型 (LLM) 兴起之前,她就深刻意识到了构建世界模型 (LWM) 的重要性 ...
首创像素空间推理,7B模型领先GPT-4o,让VLM能像人类一样「眼脑并用」
量子位· 2025-06-09 17:27
视觉语言模型(VLM)正经历从「感知」到「认知」的关键跃迁。 当OpenAI的o3系列通过「图像思维」(Thinking with Images)让模型学会缩放、标记视觉区域时,我们看到了多模态交互的全新可能。 然而,当前主流VLM仍被困在「文本茧房」中——依赖文本token间接翻译视觉信息,在高清图像中的微小物体、视频里的动态细节等场景 中,常常因缺乏直接视觉操作能力而「视而不见」。 Pixel Reasoner 团队 投稿 量子位 | 公众号 QbitAI 来自滑铁卢大学、港科大、中科大的研究团队,首次将推理战场从文本空间拓展到像素空间,提出「像素空间推理」(Pixel-Space Reasoning)范式。 这项突破让VLM能像人类一样「眼脑并用」:通过原生视觉操作直接与视觉信息对话,在像素级精度上解锁视觉理解的新维度。 推理模式重构:从「文本中介」到「视觉原生」 传统VLM如同带着「文本滤镜」看世界:将图像翻译成文本token再推理,导致小字体、隐蔽物体等关键信息在转换中丢失。而 「像素空间推 理」赋予模型「视觉手术刀」般的能力 : 视觉主动操作 :模型可自主触发视觉变焦(放大关键区域)、时空标记(定 ...
AI七个月突破数学家“围剿”反超人类!14位数学家深挖原始推理token:不靠死记硬背靠直觉
量子位· 2025-06-09 15:29
鱼羊 发自 凹非寺 量子位 | 公众号 QbitAI 从只能答对 2% 的题目,到在超难数学题集中刷下 22% 得分,甚至超过人类团队平均水平,大模型需要多长时间? 现在,令数学家们都惊讶的结果已经尘埃落定: 发生在大名鼎鼎的"专为为难大模型而生的" FrontierMath 基准测试上的这一幕,在激起热议同时,也引发了新的思考: 他们发现: o3-mini-high绝非靠死记硬背解题,相反,它表现出了极强的知识储备; 7个月 。 同时,他们也挖掘出了大模型当前的局限性,比如,缺乏创造力和理解深度。 大模型们是怎么做到的? 官方是这样总结的: FrontierMath:包含300个数学问题,难度范围覆盖本科高年级到菲尔兹奖得主都说难的水平。 最新进展是,FrontierMath官方Epoch AI邀请14位数学家,深入分析了o3-mini-high在应对这些数学难题时产生的 29条原始推理记录 。 o3-mini-high的推理更多依靠直觉,而非精确的证明。 相反,数学家们发现,即使题目故意掩盖了解决问题所需的技巧,o3-mini-high依然能够很好地利用正确的定理来获取进展—— 在大概三分之二的问题上,o ...
双重突破:全球首个零售VLA大模型来了!开源OpenWBT让机器人遥操门槛暴降!
量子位· 2025-06-09 13:24
允中 发自 凹非寺 量子位 | 公众号 QbitAI 6月6日- 7日, 2025 北京智源大会 召开。作为全球具身智能领域最具影响力的学术与产业双栖盛会,本次大会汇聚了顶尖科研机构、技术领 军企业和开源社群。 北京大学助理教授、银河通用机器人创始人及CTO、智源学者 王鹤博士 受邀出席开幕式圆桌论坛。 银河通用具身大模型机器人Galbot 一同登上主论坛舞台,面向全球观众直播展示最新技术成果。这是Galbot的 全球直播首秀, 全程无遥 操,无需场景数据预采集 。 此次主论坛直播,零距离展现了银河通用具身大模型驱动机器人产业落地的硬实力。 以下是此次发布的核心成果: 端到端具身大模型GroceryVLA亮相主论坛 开幕式现场,银河通用机器人Galbot G1登上主论坛舞台,面向全球观众直播展示最新技术成果,零距离展现了银河通用具身大模型驱动机器 人产业落地的硬实力。 机器人在王鹤博士的语音指令下自主、精确的移动到准确位置并将饮料从货架取出, 全程无遥操、自主推理、并且无事先采集场景数据 。 此次Galbot G1展示的货架精准取货, 背后的技术正是银河通用团队最新研发的端到端具身大模型GroceryVLA ...
AI集体“听不懂”!MMAR基准测试揭示音频大模型巨大短板
量子位· 2025-06-09 13:24
这一全新基准测试 MMA R 来自上海交通大学、 南洋理工大学、伦敦玛丽皇后大学、字节跳动、2077AI开源基金会等研 究机构。 MMAR 是什么?它有多难? MMAR团队 投稿 量子位 | 公众号 QbitAI 用AI来整理会议内容,已经是人类的常规操作。 不过,你猜怎么着?面对 1000 道多步骤音频推理题时, 30 款AI模型竟然几乎全军覆没,很多开源模型表现甚至接近瞎 猜。 就连表现最好的开源模型Qwen-2.5-Omni,准确率也只有 5 6 .7% ;而闭源选手Gemini 2.0 Flash则以 65.6% 的成绩 一骑绝尘,遥遥领先全场。 MMAR全称是:A Challenging Benchmark for Deep Reasoning in Speech, Audio, Music, and Their Mix。 简单来说,它是一个包含 1000个高质量问题 的音频理解评估基准,每个问题都要求模型具备多步骤的深度推理能力。 我们先来看个例子: 问题是:理发师能否听懂英文? 在这段音频中,被理发的人用英语反复强调自己想要的理发效果,另一个人将其翻译成中文来帮助他强调,这说明理发师 不能听懂英 ...