Workflow
机器之心
icon
搜索文档
一文速通「机器人3D场景表示」发展史
机器之心· 2026-01-23 08:45
机器人3D场景表示技术综述 - 文章核心观点:探讨了机器人领域中最适合的三维场景表示方法,全面总结了从传统几何表示到最新神经网络表示(如神经辐射场、3D高斯散布和基础模型)的技术发展、应用比较及未来挑战,旨在为研究人员提供有价值的参考资料并指明未来发展方向[2][8][22] 机器人3D场景表示发展史与分类 - 几何场景表示:包括点云、体素栅格、网格和符号距离函数等传统方法,用于离散或连续地表示场景几何[7][10] - 神经场景表示:新兴技术如神经辐射场、3D高斯散布模型和基础模型,通过神经网络实现连续、可微的场景表示,并整合高层次语义和语言先验知识[8][13][15] 不同3D场景表示方法的特点对比 - 连续性:神经辐射场、3D高斯散布和Tokenizer是连续且可微的,而体素、点云、网格和场景图是离散且不可微的[17] - 存储效率:场景图和Tokenizer的存储效率最高(++++),3D高斯散布最低(+)[17] - 真实感渲染:神经辐射场和3D高斯散布的真实感最高(++++)[17] - 灵活性:点云、场景图、神经辐射场、3D高斯散布和Tokenizer的灵活性较高(+++ 或 ++++)[17] - 几何表示能力:网格的几何表示能力最强(++++),点云和神经辐射场等次之(+++)[17] 三维场景表示在机器人各模块的应用 - 建图与定位:神经场景表示能实现更精确、密集的环境建模,对避障至关重要,并在地图精度、位姿精度和实时性能方面进行比较[15] - 操作:基于神经网络的场景表示在生成新视角和跨场景泛化方面有优势,基于基础模型的方法能实现零样本抓取任务并集成语言信息以支持交互式抓取[15][16] - 导航:神经场景表示能提供高度准确的环境重建,并更好地融合语义和语言信息以执行复杂导航任务,包括路径规划和未知区域探索[16] 现有挑战与未来发展方向 - 系统架构选择:当前模块化智能系统可能限制发展,面临泛化能力有限和迁移性差的问题,而基础模型的进展提供了实现端到端智能的替代路径[19] - 数据瓶颈:机器人领域特有数据匮乏,显著阻碍了神经场景表示和基础模型的发展,未来需增强有限数据下的泛化能力或利用世界模型生成额外训练数据[20] - 实时性瓶颈:神经场景表示的推理时间是制约实时应用的关键,部署策略分为云端和边缘计算,未来方向在于硬件-算法协同设计以提高推理效率并保持泛化性能[21] 文章主要贡献 - 提供了全面且最新的综述与基准测试:涵盖了从经典到前沿的机器人场景表示方法,并在每个模块中详细介绍了不同表示方法的优势[22] - 指明了三维场景表示的未来方向:指出了各模块当前研究的技术局限性,并提出了有前景的未来研究方向以激励领域进步[22] - 发布了开源项目:在GitHub上整理了相关文章,并将持续更新,以供研究人员获取最新信息[9][22]
幻觉率不到3%,王小川把医生版的DeepSeek免费了
机器之心· 2026-01-22 19:00
编辑|泽南 在医疗健康这一容错率极低的领域,大模型不再凭空「想象」,而是已变得严谨可靠、能引会搜:百川刚刚推出的新模型,实现了一个里程碑式的突破。 本周四,百川智能正式发布新一代大模型 Baichuan-M3 Plus,其面向医疗应用开发者,在真实场景下将医学问题推理能力推向了全新高度。新模型发布的 同时,接入 M3 Plus 的百小应 App 与网页版也已同步上线。 在 AI 领域,从来没有一款大模型可以做到 M3 Plus 这么高的医学场景准确率,百川还大幅提升了模型的推理效率,M3 Plus 的发布,标志着 AI 在医疗领 域的应用跨过了「敢用、好用、用得起」的关键门槛。 百川智能创始人、CEO 王小川表示,在垂直领域,M3 Plus 已经可以认为是医生版的 ChatGPT 或 DeepSeek,作为性能最强、推理效率最高的模型,可 大规模用于 AI 辅助医疗落地。 全球最低幻觉率 从看着像,到真的准 长期以来,医生与患者对 AI 的态度一直存在矛盾:人们既期待 AI 能分担繁重的工作,又恐惧它们「一本正经地胡说八道」。信任,是 AI 进入医疗领域的 最后一道墙。 在发布活动中,百川智能模型技术负责人鞠 ...
清华姚班校友刘壮团队再发力,无需归一化的Transformer性能进化
机器之心· 2026-01-22 19:00
编辑|陈陈、冷猫 刘壮带队的无需归一化 Transformer 又有新的版本了。 一直以来,在 Transformer 架构里,LayerNorm 几乎是标配,但它也有明显问题:比如计算和访存成本高,尤其在大模型推理阶段。 因此,「无归一化(Normalization-Free)」Transformer 成为研究者探索的一个长期目标,但一直卡在两个难点上:训练不稳定,以及性能明显不如带归一化的模 型。 而这篇新论文提出了一种非常简单的新激活层 Derf(Dynamic erf),让「无归一化(Normalization-Free)」的 Transformer 不仅能稳定训练,还在多个设置下性 能超过了带 LayerNorm 的标准 Transformer。 刘壮本人也在 X 账号上分享了这一成果。他表示,这是一篇关于更强无归一化 Transformer 的新论文:研究团队提出了 Derf(Dynamic erf),一种结构极其简单 的逐点(point-wise)层。借助 Derf,完全不依赖归一化层的 Transformer 不仅能够稳定训练,而且 在实 际性能上 已经可以超越传统依赖 LayerNorm 等 ...
苹果入局AI Pin,或对标OpenAI,能否打破「电子垃圾」魔咒?
机器之心· 2026-01-22 19:00
苹果AI Pin设备研发动态 - 苹果正在研发一款由AI驱动的可穿戴“胸针”设备,目前处于早期研发阶段,最快可能在2027年面世 [1] - 设备体积与AirTag相当,外观为纤薄、扁平的圆形设计,材质采用铝和玻璃 [3] - 设备内置一个标准镜头和一个广角镜头摄像头,用于感知用户周围环境,还内置三枚麦克风、扬声器,机身侧面有实体按键,支持无线充电 [3] AI硬件赛道先驱者Humane的案例 - 前苹果核心员工创立的Humane公司,在未发布产品的情况下筹集了超过2.3亿美元资金 [5][6] - Humane于2023年11月发布首款产品AI Pin,售价699美元,每月还需24美元订阅费 [7] - 该产品因反应迟钝、投影在日光下不可见、AI服务常产生幻觉、电池续航差等问题遭遇退货潮 [7] - 截至2024年夏季,AI Pin总销量仅为10000台,远低于其10万台的目标 [8] - 2024年2月,Humane被惠普以1.16亿美元收购,交易包括人才、技术专利和Cosmos操作系统,但不包括硬件业务 [10] AI硬件市场竞争格局 - 模型技术日益成熟,AI硬件市场被视为大模型下半场的下一个“战场” [10] - AI Pin、AI眼镜、AI耳机等多种可穿戴设备被视为潜在的下一代AI交互入口,获得各大AI厂商和初创公司押注 [10] - 苹果被曝有一系列AI硬件布局,包括叠加摄像头的AirPods耳机、智能眼镜等,并可能加快AI Pin开发以与OpenAI竞争 [10] - 苹果计划在未来几个月与谷歌合作,为Siri引入更强的个性化能力,并计划在2024年9月将语音助手升级为内置AI聊天机器人 [10] OpenAI的AI硬件设备计划 - OpenAI自收购前苹果设计总监Jonathan Ive的公司后,一直暗示将推出一款AI硬件设备 [11] - OpenAI高管宣称该设备将比智能手机更“平和”,用户会惊讶于其简单易用 [11] - OpenAI首席全球事务官表示,公司“有望”在2026年下半年推出其首款硬件设备,但具体形态(如Pin、耳机等)尚未披露 [11]
Meta新模型要来了,但Llama 4的锅谁来接?1300多位作者的联合报告来了
机器之心· 2026-01-22 16:13
Meta AI团队进展与Llama 4技术报告发布 - Meta新成立的AI团队已于本月内部交付首批关键模型,公司CTO Andrew Bosworth评价其“非常好” [1] - 公司此前被报道正在开发代号为Avocado的文本AI模型和代号为Mango的图像视频AI模型,计划第一季度发布 [1] - 一篇关于Llama 4系列模型的技术报告《The Llama 4 Herd: Architecture, Training, Evaluation, and Deployment Notes》在arXiv上线,全面回顾了该系列宣称的数据和技术成就 [1] Llama 4技术报告来源与性质 - 报告由Meta机器学习工程师Arthur Hinsvark上传,但未明确标识来自Meta [3] - 报告作者名单包含超过1300名项目参与者,名单长达5页,可大体认为报告来自Llama 4团队 [4] - 报告引言声明其为对公开材料的独立调查,基准数值归因于模型卡,并提示对评估工具等持保留态度 [4] - 报告内容共15页,其中作者名单占5页,参考文献占1页,实际技术内容仅9页 [9] Llama 4系列模型技术规格总结 - 报告总结了已发布的模型变体,包括Scout、Maverick以及预览版Behemoth教师模型 [9] - **Llama 4 Scout规格**:基础与指令微调检查点,MoE架构,激活参数170亿,总参数1090亿,16个专家,支持文本+图像输入与文本+代码输出,支持12种语言,预训练覆盖约200种语言,知识截止日期2024年8月,训练token数约40万亿,模型支持上下文长度1000万token [9] - **Llama 4 Maverick规格**:基础与指令微调检查点,提供FP8量化权重,MoE架构,激活参数170亿,总参数4000亿,128个专家,支持文本+图像输入与文本+代码输出,支持相同12种语言,预训练覆盖约200种语言,知识截止日期2024年8月,训练token数约22万亿,模型支持上下文长度100万token [9] 报告揭示的模型能力与宣传差异 - 报告揭示了模型架构能力与实际部署存在显著差距,尤其是上下文长度 [4] - Scout架构设计支持1000万token上下文,但实际托管服务因硬件成本限制,常将可用上下文限制在128K或100万token [4][7] - 报告提及LMArena排行榜争议,指出Meta在榜单上提交的Maverick“实验性聊天”变体与公开发布版本不完全相同,这引发了对其“操纵基准测试”的批评 [11] - 报告明确区分营销话术与技术指标,指出发布公告中如Scout是“同类最佳”等声称属于“面向营销的主张”,应与严谨的基准测试结果分开解读 [11] 报告内容范围与目的 - 报告总结了与再分发、衍生命名相关的许可义务,并回顾了公开描述的安全措施和评估实践 [10] - 报告旨在为研究人员和从业者提供一份关于Llama 4的精确、有来源依据的紧凑技术参考 [10] - 报告技术内容涵盖:超越高级MoE描述的架构特征、训练披露、基准测试结果以及在实际部署环境中观察到的限制 [12]
AAAI杰出论文来了!港科大、同济、浙师大等国内高校获奖
机器之心· 2026-01-22 16:13
会议概况与投稿情况 - AAAI 2026会议于1月20日至27日在新加坡举行,总投稿数为23,680篇,录用论文4,167篇,接收率为17.6% [2] - 会议公布了5篇“杰出论文”奖项,其中3篇由华人团队主导,涉及香港科技大学(广州)、西湖大学、浙江大学、同济大学、浙江师范大学、香港城市大学等多所国内高校 [1] 获奖论文核心内容 论文1:ReconVLA: Reconstructive Vision-Language-Action Model as Effective Robot Perceiver - 针对现有VLA模型视觉注意力分散、难以聚焦目标区域的问题,提出了一种采用隐式对齐范式的重建式VLA模型 [5][6] - 方法以模型视觉输出为条件,引入扩散Transformer来重建图像中对应于被操作物体的注视区域,促使模型学习更细粒度的表征并准确分配视觉注意力 [9] - 构建了大规模预训练数据集,包含来自开源机器人数据集的十万余条轨迹和两百万条数据样本,提升了模型在视觉重建任务上的泛化能力 [9] - 大量仿真与真实环境实验表明,该方法在精细操作能力和泛化表现上均有出色表现 [9] - 作者来自香港科技大学(广州)、西湖大学、浙江大学、莫纳什大学 [7] 论文2:LLM2CLIP: Powerful Language Model Unlocks Richer Cross-Modality Representation - 研究如何利用LLM更强的语言理解能力与广泛的世界知识来增强CLIP模型,尤其是在处理冗长且结构复杂的描述文本时的表现 [12] - 提出一种高效的微调框架,将LLM嵌入到预训练的CLIP中,训练成本几乎与常规的CLIP微调相当 [12] - 方法首先将LLM转化为适配CLIP场景的“嵌入化”形式,随后通过一个轻量级适配器将其与预训练的CLIP视觉编码器耦合,该适配器仅需在数百万规模的图像-文本对上进行训练 [12] - 相较于EVA02、SigLIP-2等当前最先进的CLIP变体,该方法在无需大规模重新训练的前提下取得了显著的性能提升 [16] - 增强后的CLIP在多种下游任务上均表现出稳定改进,包括线性探测分类、支持短文本与长文本的零样本图像-文本检索、零样本与有监督的图像分割、目标检测等 [16] - 作者来自同济大学、微软、麦考瑞大学 [13] 论文3:Model Change for Description Logic Concepts - 该论文已获奖,但目前尚未公开发布 [17] - 作者来自奥斯陆大学、卡迪夫大学 [18] 论文4:Causal Structure Learning for Dynamical Systems with Theoretical Score Analysis - 针对现实世界连续时间演化系统的因果关系学习,现有方法存在对时间离散化处理(面对不规则采样数据性能差)或忽略系统背后因果结构的问题 [20] - 提出CADYT方法,一种用于动力系统因果发现的新方法,可同时解决上述两大挑战 [20] - 该方法基于差分的因果模型进行建模,对连续时间系统的刻画只需更弱的假设,更符合真实系统的连续演化特性 [20] - 采用精确的高斯过程推断来建模连续时间动力学,并通过结合马尔可夫条件与最小描述长度原则,采用贪心搜索策略来识别系统的因果结构 [20] - 实验表明,无论是在规则采样还是不规则采样的数据场景下,CADYT都显著优于现有先进方法,能够恢复出更接近真实底层动力学机制的因果网络结构 [24] - 作者来自博世AI中心团队、德国达姆施塔特工业大学、德国医学AI研究所IKIM等 [21] 论文5:High-Pass Matters: Theoretical Insights and Sheaflet-Based Design for Hypergraph Neural Networks - 该获奖论文目前尚未放出论文链接 [25] - 作者来自浙江师范大学、香港城市大学、南洋理工大学、剑桥大学 [27]
拒绝成为落后的开发者:用TRAE Skills构建你的10倍效能工具箱
机器之心· 2026-01-22 12:05
文章核心观点 - AI编程领域当前最热的概念是Skill,它标志着AI协作进入“经验资产化”新阶段,将高度依赖个人经验、难以量化的SOP通过SKILL.md文件实现标准化封装与跨场景移植,使AI从通用“对话者”转变为拥有特定领域直觉的“专业执行者”,打破专家经验传播壁垒,为全行业生产力爆发奠定基石 [3] - Skill正在成为AI编程甚至日常工作流程的标配,它代表了一个包含智能体、提示词、工具等在内的全新“可编程抽象层”,掌握并整合这些工具以实现10倍效能提升已成为程序员的核心竞争力,反之则被视为“技能问题” [6] - AI工具正经历从“助理”向“数字员工”的本质转变,开发者关注重点从零散提示词编写转向构建可复用的智能体工作流 [7] - 字节跳动旗下AI工程师产品TRAE通过深度集成Skill功能,提供了AI编程的“OS原生集成”,为开发者提供了现成的技能脚手架,帮助其从繁琐代码搬运中解脱,转而构建更具想象力的“抽象层” [8] - Skill的普及将个人或团队的经验打包并像npm包一样自由分发与复用,个体的创造力将被无限放大,Skill正在确立一种全新的协作标准 [44] Skill的概念与定义 - Skill可被理解为一个“专业技能包”,其物理形态是一个名为SKILL.md的Markdown文件,通常存放在项目根目录下的`./trae/skills`路径中,该文件像一份给AI智能体的“按需读取手册”,记录了完成特定领域任务所需的详细指令、自动化脚本以及模板资源 [10] - 一个SKILL.md文件通常由元数据和具体提示词构成,其中仅有SKILL.md文件是必需的 [12][14] - Skill本质上是提示词,但它解决了当前AI编程的核心痛点:Token消耗与任务专注度的平衡 [15] - 与传统全量加载的Rules文件不同,Skill引入了动态调用机制,智能体只有在识别到当前任务与Skill触发条件匹配时,才会主动加载相关指令包,这种“即插即用”设计节省了Token消耗并确保了任务专注度 [15] - Skill正将分散、碎片化的提示词经验转化为标准化的“数字资产”,通过模块化封装,开发者可以沉淀个人工作SOP,并能在社区中快速获取复用顶尖专家的专业能力 [16] Skill在TRAE中的定位与优势 - TRAE深度兼容“技能封装”范式,允许用户通过SKILL.md文件将复杂指令、脚本和资源封装成可复用的专业技能包,且0代码基础也可轻松上手 [8] - TRAE对Skill的深度集成被类比为AI编程的“OS原生集成”时刻,而Vercel的Skills软件包则定义了AI技能分发标准,完成了“npm时刻”的跨越 [8] - 在TRAE中使用Skill只需将其文件夹放到项目文件夹的`.trae/skills`目录下即可 [20] - TRAE对自然语言的支持让创建Skill极其简单,用户只需对TRAE描述需求,它就能自动编写Skill,例如让TRAE“写一个用于编写Chrome插件的Skill”,其调用默认Skill“skill-creator”仅用时50秒便完成创建 [21][22] - TRAE生成的Skill展现了极高的工程化水准,能精准捕捉开发核心痛点并将复杂SOP拆解为可执行、可验证的指令集 [23] Skill与传统AI协作功能的差异化 - 与普通提示词的区别:提示词通常是单次使用,反复输入同一段指令意味着效率损耗;Skill将重复性Prompt提取出来,转变为SKILL.md中的标准指令,使飘忽不定的对话逻辑变为可被智能体反复调用的专业技能包 [21] - 与Rules的区别:Rules适合存放全局偏好(如代码规范、语言习惯);Skill用于封装具体工作流,当同一个提示词被输入超过三次时,就应该被沉淀为一个Skill [21] - 与Context的区别:Context属于被动读取的知识库,智能体无法自主决定何时调用且会持续占用上下文空间;Skill是结构化的主动指令,能够根据意图识别自动触发 [21] - 与Sub agent的区别:Sub agent定义具体的专家角色;Skill是这些专家可以共享的技能组件,具有极强的可移植性,可在不同智能体之间自由组合与复用 [21] Skill的实际应用与效能提升 - 在TRAE中调用Skill方法简单,智能体会根据当前任务需求自动选择调用合适Skill,开发者也可在提示词中显式指示使用哪些Skill [24] - 使用TRAE生成的chrome-extension-developer Skill编写一个将当前网页导出为Markdown文件的Chrome插件,接入GPT-5-medium的TRAE仅用2分钟便完成任务,且输出代码质量令人满意 [25][26][27] - 可直接下载网络开源Skill(如Anthropic官方skills库中的所有Skill)将已有成功经验化为己用 [29][30] - 使用Anthropic官方的pdf和pptx两个Skill,将DeepSeek-R1技术报告PDF文档整理成内容详实、图表丰富的PPT,执行过程中智能体接连调用了这两个Skill [32][33] - 可创建名为skill-finder的Skill,让TRAE自动寻找并下载合适Skill,例如在构建“展示洛阳从古至今历史的动态网页”任务中,TRAE使用skill-finder找到并下载了web-design-guideline和vercel-deploy两个Skill,整个执行过程耗时5分钟 [35][36] - TRAE展现出“自我驱动”特质,当第一版结果存在问题时,能通过“发现问题、寻找技能、自我修复”的闭环进行改进,将开发者工作重心从“修Bug”转移到“定义工作流”的高度 [38] - 即便对于完全不懂编程的用户,只要能够清晰描述自己的业务SOP,就能通过TRAE快速封装出属于自己的技能组合以提升效率 [39] Skill的潜在应用场景与生态发展 - Skill可成为Vibe Coder们的得力工具,也可作为用户手中的个人数字管家,例如配置技能包让TRAE扫描清理下载文件夹、进行智能重命名与归类 [40] - 对于知识管理爱好者,Skill可自动将杂乱网页剪藏转化为带有标准YAML区块和双链规范的Markdown笔记 [40] - 无论是将长视频文案转化为适合社交媒体分发的短贴,还是通过上传CSV格式银行流水生成月度消费趋势报告,用户都可借助Skill实现高效的机器执行力 [40] - Skill生态正在全网范围内爆火,在GitHub上的开源仓库或开发者社区中,大量可用资源(如Anthropic的官方Skill库)正在涌现,尝试通过Skill沉淀专业经验 [19] - TRAE凭借极强的生态兼容性、自然语言驱动的极简门槛、高度结构化的能力封装等核心优势正在全网走红 [19] - 为庆祝周年并降低Skill功能使用门槛,TRAE官方从1月14日起为国际版用户发放丰厚Fast Request权益,相当于赠送一个月以上Pro会员额度,其中Free用户增加600次,Pro用户增加800次,权益期内包括GPT 5.2在内的所有顶级模型均可免费使用 [41]
第一梯队的大模型安全吗?复旦、上海创智学院等发布前沿大模型安全报告,覆盖六大领先模型
机器之心· 2026-01-22 12:05
报告概述 - 由复旦大学、上海创智学院、迪肯大学与伊利诺伊大学厄巴纳-香槟分校的研究团队联合发布,旨在系统性评估前沿大模型的安全性 [2] - 构建了一套覆盖语言、视觉语言与图像生成三大核心场景的统一安全评测框架,对六大前沿模型进行了全景式刻画 [2] - 评测融合了四大关键维度:基准评测、对抗评测、多语言评测和合规性评测,形成多层次、立体化的评估体系 [2][4] - 评测对象为通用能力处于第一梯队的前沿模型,包括GPT-5.2、Gemini 3 Pro、Qwen3-VL、Grok 4.1 Fast、Nano Banana Pro、Seedream 4.5,未覆盖Claude系列模型 [2][6] 语言模态安全 - **GPT-5.2** 平均安全率为78.39%,业界领先,其安全机制已进入以深层语义理解与价值对齐为核心的阶段,在复杂灰区场景中判断稳定,对抗输入下失效风险低 [11] - **Gemini 3 Pro** 平均安全率为67.9%,呈现“强但不均衡”特征:基准测试达88.06%,多语言安全率67.00%,合规性73.54%,但对抗鲁棒性下降至41.17%,在语义伪装与复杂操纵中泛化能力有待提升 [11] - **Qwen3-VL** 平均安全率为63.7%,与Gemini 3 Pro比肩,合规性表现突出,以77.11%的成绩位居第二,但对抗安全性(33.42%)与多语言安全(64.00%)明显回落 [12] - **Grok 4.1 Fast** 平均安全率为55.2%,表现不均衡:基线安全性(66.60%)和合规性评测(45.97%)垫底,但在对抗评测中以46.39%的安全率位列第二,显示出对特定攻击模式的拦截能力 [12] 多模态安全 - **GPT-5.2** 平均多模态安全率为94.69%,全面领先,对抗评测下达97.24%,基准场景中92.14%稳居首位,代表当前多模态安全对齐的最高成熟度 [13] - **Qwen3-VL** 平均安全率为81.11%,超越Gemini 3 Pro,基准成绩83.32%,对抗成绩78.89%,在视觉-语言交互场景中安全策略具备较好的结构完整性 [13] - **Gemini 3 Pro** 平均安全率为78.99%位列第三,呈现“可靠但保守”特征,面对多轮视觉诱导、隐性语义嵌套等复杂攻击时防御强度弱于前两名 [15] - **Grok 4.1 Fast** 平均安全率为68.16%,对抗成绩68.34%略高于基准成绩67.97%,其防护机制可能停留在浅层过滤与简单触发逻辑上 [15] 文生图安全 - **Nano Banana Pro** 平均安全率为59.86%,在基准评测(60.00%)、对抗评测(54.00%)与合规性评测(65.59%)三个维度均位居首位,安全机制具备风险语义重构与情境适配能力 [16] - **Seedream 4.5** 平均安全率为41.71%,展现了坚实的合规基础,基准安全47.94%,合规性57.53%,但对抗安全性仅19.67%,在面对语义伪装、隐性诱导等对抗型提示时鲁棒性不足 [16] 模型安全人格画像 - **GPT-5.2(全能内化型)**:安全雷达图谱近乎全向饱和,安全机制已从外置规则演进为内生推理能力,在灰区与复杂语境中能给出克制而精确的合规引导 [19] - **Qwen3-VL(准则合规型)**:在法律政策边界清晰、监管要求明确的场景中展现出极强的稳定性与可预期性,安全策略明显偏向规则驱动范式 [20] - **Gemini 3 Pro(伦理交互型)**:采用“先响应、后校准”的人本化安全交互范式,擅长处理偏见与歧视类风险,但安全策略偏向事后纠偏,面对对抗性重构时稳定性有提升空间 [21] - **Grok 4.1 Fast(自由效率型)**:呈现出轻量化与极速响应的产品哲学,原生防御机制相对克制,强调开放表达与低摩擦交互体验,体现效率与表达自由优先的取舍 [22][23] - **Nano Banana Pro(柔性重塑型)**:擅长通过内生语义净化策略对高风险提示进行隐性重构,平衡安全与创作自由,但对边界模糊风险的处理高度依赖隐式转换机制 [24] - **Seedream 4.5(坚实屏障型)**:坚持以强约束为核心的安全设计理念,在版权与暴力内容防御方面构建了稳定可靠的拦截闭环,但安全体系呈现“阻断优先”特征,缺乏对灰区场景的语义判别弹性 [25] 核心安全挑战 - **多轮自适应攻击的深层威胁**:攻击者通过持续观测模型响应并动态调整诱导策略,可形成具备“自我进化”能力的多步攻击链路,单一拦截层和静态规则体系难以形成有效防线 [27] - **跨语言安全的结构性不均衡**:多数模型在非英语语境(如泰语、阿拉伯语等)下的安全表现出现20%–40%的系统性下滑,暴露出安全对齐在语料分布与策略迁移上的显著不平衡 [28] - **决策透明度与可解释性的治理短板**:当前安全机制更多体现为“结果合规”,而非“过程可审计”,在高风险领域中决策可解释性与责任可追溯性存在结构性不足 [29] 行业观察与趋势 - 基于静态安全基准的评测会普遍高估安全性,在真实越狱攻击下没有模型具备可靠的防御能力,即使GPT-5.2在最坏情况下的安全率也仅约6%,其他模型接近于0% [14] - 大模型安全对齐必须转向从底层架构、训练范式到多模态交互机制的全栈式深度嵌入,学术界、产业界与治理机构需协同构建兼具包容性、标准化与动态演进能力的安全评估体系 [30]
第二届CVPR 2026 CV4CHL Workshop征稿启动,用AI大模型守护儿童未来
机器之心· 2026-01-22 11:13
近年来,随着多模态大语言模型、具身人工智能等技术飞速发展,大多数应用已落地在人们生活的方方面面,但是针对儿童发育、健康和教育的相关人工智能和 计算机视觉技术尚处于起步阶段。 CV4CHL (Workshop on Computer Vision for Children) ,传承自 ICLR 2025 首届 Workshop on AI for Children (AI4CHL),由北美首家儿科人工智能初创公司 PediaMed AI (儿医智能) 联合伊利诺伊大学厄巴纳 - 香槟分校、香港科技大学(广州)、苏黎世联邦理工学院、深圳儿童医院等知名高校和研究所在 CVPR 2026 期间承办, 目标是进一步汇集面向儿童及儿科 AI 和计算机视觉解决方案的多维度学科观点,填补该领域的关键空白。 本研讨会致力于搭建一个跨学科的桥梁,汇聚计算机视觉研究员、大模型技术专家、儿科医生、心理学家、教育家,共同探讨前沿计算机视觉和 AI 技术在儿童应 用场景的创新应用与伦理挑战。 研讨会将包括多个主题演讲,期间儿医智能也将发布相关儿科 AI 产品,并联合伊利诺伊大学厄巴纳 - 香槟分校组织儿童人工智能未来方向的圆桌讨论,联合 ...
刚刚, 2025 ACM Fellow公布!陈宝权、贾佳亚、梅涛、朱军等多位华人入选
机器之心· 2026-01-22 11:13
ACM 2025年度会士评选概况 - 美国计算机协会ACM公布了2025年度会士名单,共有71位科学家新入选,其贡献覆盖计算机图形学、网络安全、人机交互、数据管理、机器学习、人工智能、算法、可视化等多个领域[3] - ACM主席表示,入选名单代表了计算机领域当前发展的快照,既表彰了在计算机架构、软件工程等成熟学科的成员,也表彰了在群体智能、场景识别等新兴学科的创新者[3] 入选华人学者及其贡献 - **Pei Cao**:现任YouTube工程副总裁,因在网络缓存、搜索引擎效率和信息质量方面的贡献入选[5][8] - **陈宝权**:北京大学教授、智能学院副院长,因在大规模场景重建、离散几何处理和制造形状设计方面的贡献入选,已发表论文200余篇[9][10] - **陈德铭**:伊利诺伊大学厄巴纳-香槟分校终身正教授,因对可重构计算的贡献,包括综合算法和可定制人工智能加速器设计方法入选[13][16] - **郑光廷**:香港科技大学副校长(研究及发展),因在电子电路与计算系统的设计自动化以及软硬件协同设计方面的贡献入选[17][21] - **付昀**:美国东北大学双聘杰出教授,因在表征学习、计算机视觉、面部和手势识别方面的贡献入选,其提出的RDN与RCAN网络被引用逾1.3万次,总引用逾5.8万次,H-index超过107[20][22] - **黄教授**:澳大利亚昆士兰大学数据科学学科负责人,因对大规模多媒体内容理解、索引和检索的贡献入选,已发表200多篇论文[24][27] - **贾佳亚**:思谋科技创始人、香港科技大学讲座教授,因在计算机视觉领域的图像分割、场景解析和纹理分析方面的贡献入选,其论文被引用超过10万次[25][28][29] - **贾小华**:香港城市大学讲座教授,因在数据安全和分布式计算系统领域的杰出贡献入选[32][36] - **金海**:华中科技大学教授,因在高效的数据中心处理、内存管理以及分布式系统架构方面的贡献入选[35] - **马坚**:卡内基梅隆大学教授,因在计算生物学算法和机器学习方面的贡献入选[38][42] - **梅涛**:智象未来创始人兼CEO,因在多媒体分析、检索及应用方面的贡献入选,已发表200余篇学术论文[41][43] - **陈建利**:新加坡国立大学教授,因在高级数据库应用的查询优化与处理方面的贡献入选,已发表论文300余篇[46][49] - **童行行**:伊利诺伊大学厄巴纳香槟分校教授,因对大规模图挖掘理论、算法和应用的贡献入选[50][51] - **熊辉**:香港科技大学(广州)协理副校长,因在人工智能和移动计算领域研究方面的贡献入选,已发表论文400余篇[54][55] - **Li Xiong**:埃默里大学教授,因在编程语言静态类型系统和机械化数学方面的贡献入选,已发表200多篇论文[57][59] - **杨俊峰**:哥伦比亚大学教授,因其在可信软件和人工智能系统方面的领导力和贡献入选[60][61] - **易珂**:香港科技大学教授,因在查询处理理论与实践方面的贡献入选[64][65] - **郑宇**:京东集团副总裁、京东科技首席数据科学家,因在时空数据挖掘和城市计算领域的贡献入选,总引用逾6.2万次[67][70] - **朱军**:清华大学教授,因在概率机器学习的理论和方法方面的贡献入选[71]