Workflow
量子位
icon
搜索文档
这届清华特奖机器人含量爆表!丘成桐(国内版)现身点评
量子位· 2025-11-14 20:10
清华大学特等奖学金评选趋势 - 2025年本科生特等奖学金前十名入围名单显示研究方向高度集中于人工智能领域,特别是具身智能成为主线剧情[1][5] - 候选人研究成果覆盖大模型视频理解、人形机器人全身控制、触觉模拟、自动驾驶智能决策等前沿方向[6] - 清华大学通过成立人工智能学院和扩大招生规模150人,战略布局人工智能与多学科交叉拔尖人才培养[37][39] 具身智能与机器人技术突破 - 交叉信息院李忆唐以第一作者在CVPR 2025发表论文,实现仅用简短行走参考数据让机器人推断全身协调动作[10][12] - 其提出的控制方法融合稳定性与柔性,在CoRL 2025发表成果,并担任顶会审稿人[13] - 行健书院陈博沅完成172学分和7门跨学科选修,研究成果覆盖单张图片重建可交互场景、灵巧手触觉视觉一体仿真[16][18] - 其Physgen3D和GaussTac项目分别发表于ICCV和CoRL,推动三维世界构建与触觉融合技术[19] 人工智能模型优化与部署 - 计算机系徐汝一提出Xattention注意力机制,在保持精度同时将处理速度提升13.5倍,成果发表于ICML 2025[25] - 其StreamingVLM技术实现视觉模型无限长度推理与实时延迟,在GitHub获600余星标[25] - 通过创建"新星OpenDay"讲座和培训课程,推动大模型、视频理解等技术向20余万观众普及[26] 跨学科人才培养模式 - 行健书院作为AI+工程科学家试验场,鼓励学生从A型向X型人才转型,结合力学基础与AI/机器人课程[15] - 求真书院实行3+2+3本博衔接制度,陈嘉熙在大三阶段通过8个方向的博士资格考核,远超3个方向的要求[32][33] - 丘成桐院士亲自为数学领军人才计划站台,体现学校对基础学科与人工智能交叉的重视[2][29]
原神Agent,字节出品
量子位· 2025-11-14 20:10
文章核心观点 - 字节公司推出专为3D开放世界游戏设计的智能体Lumine,该智能体能够自主完成《原神》等游戏中的跑图、战斗、解谜及长周期主线任务,并展现出强大的跨游戏泛化能力 [1][4][9] - Lumine智能体基于Qwen2-VL-7B-Base模型构建,通过三大核心机制设计和三阶段训练流程,实现了感知、推理、行动的无缝融合,在多项测试中性能显著领先于主流视觉语言模型 [9][10][12][17][22][24] - 行业趋势显示,谷歌等公司也在利用游戏场景训练通用智能体,游戏被视为构建具身通用人工智能的重要试验场,代表了一条清晰的Agent发展路径 [46][48][51] Lumine智能体的核心能力 - 在《原神》中能够动态追踪敌人位置、精准射击、流畅切换角色、收集宝箱,并成功应对Boss战和各种解谜关卡 [4][5][6] - 具备空间感知能力,能沿风场方向收集风神瞳,并在多NPC环境中锁定指定对象完成对话 [6] - 可处理GUI操作,如材料制作、使用传送锚点、切换角色武器,通过鼠标移动完成 [7] - 对于复杂长指令,只需提供任务先验信息或步骤,即可自主执行,例如切换角色并释放技能完成特定收集任务 [8] 技术架构与训练方法 - 感知空间将游戏画面帧调整至720P,以每200ms处理一帧的速度平衡文本可读性和计算效率,并保留历史推理轨迹与动作记录以提供完整上下文 [12][13] - 采用混合思考策略,仅在关键场景生成内心独白式推理,简单场景直接输出动作,提高计算效率 [14] - 通过键盘与鼠标操作建模,将所有操作纳入语言空间,定义为鼠标位移和按键序列格式 [15] - 三阶段训练流程:预训练阶段混合80%游戏动作数据和20%多模态网页数据,使模型掌握基础动作;指令跟随训练使用200小时数据,使短周期任务成功率超80%;决策推理训练使用15小时人工标注数据,使模型能自主完成长周期任务 [17][20][21][22][23][24] 性能表现与实验结果 - Lumine-Instruct在短周期任务中表现优异,简单任务成功率92.5%,困难任务成功率76.8%,显著领先于GPT-5和Gemini 2.5 Pro [33][34][35] - Lumine-Thinking在长周期任务中效率突出,完成《原神》蒙德主线第一章耗时56分钟,任务完成率100%,而GPT-5耗时112分钟,Gemini 2.5 Pro未完成 [40][41] - 跨游戏测试显示,Lumine-Thinking在《鸣潮》前100分钟剧情完成率100%,在《崩坏·星穹铁道》第一章完成率92.3%,在《黑神话·悟空》新手教程及第一章完成率85.7% [43][45] 行业动态与竞品分析 - 谷歌推出基于Gemini模型的SIMA 2智能体,能够遵循基本指令、理解多模态提示、完成长时间复杂任务,并在生成的世界中合理自我定位 [48][49] - 行业共识认为,在大型3D游戏中训练通用智能体是构建具身AGI的重要路径,游戏内的Agent未来有望进入现实物理世界 [51][52]
最后一周!人工智能年度榜单申报即将截止。
量子位· 2025-11-14 16:22
2025人工智能年度榜单评选概览 - 量子位主办的「2025人工智能年度榜单」评选已进入第八年,旨在见证并评选推动AI时代前行的企业、人物与产品[1] - 评选从企业、产品、人物三大维度设立五类奖项,报名将于2025年11月17日截止[2][7] - 评选结果将在定于2025年12月10日举办的MEET2026智能未来大会上公布,大会主题为“共生无界,智启未来”[7][27] 企业类奖项评选标准 - **年度领航企业**:评选中国AI领域最具综合实力的企业,要求注册地在中国或主营业务面向中国市场,主营业务属于AI及相关产业或已广泛应用AI,在细分领域领先,具备成熟产品并获得市场认可,近一年在技术、产品、市场或商业模式上有显著突破[9][11] - **年度潜力创业公司**:聚焦最具投资价值和发展潜力的AI创业公司,要求公司未上市,拥有已落地的AI产品或服务及可行商业模式,并初步获得市场认可,近一年在技术研发、产品创新或行业应用方面取得显著成果[14][16] - **企业评选通用标准**:涵盖业务能力(市场占有率、营收规模、盈利能力、客户覆盖、增长潜力)、技术能力(科研实力、研发投入、技术核心竞争力、创新案例)、资本能力(融资情况、财务状况、市值/估值)及其他综合能力(品牌影响力、行业口碑)[11] 产品与解决方案类奖项评选标准 - **年度杰出产品**:评选在技术创新、市场落地和行业引领方面突出的AI产品,要求产品以AI技术为核心或特色并已投入市场,获得实际用户应用及反馈,近一年完成重要技术创新或迭代,对AI规模化落地与商业化有显著推动[16][17] - **年度杰出解决方案**:评选在创新性、落地性和行业推动力方面突出的AI行业解决方案,要求方案以自主创新的AI技术为核心,已在实际业务场景中落地并获得客户验证,近一年在技术融合、应用创新或商业模式上有显著突破,积极推动行业智能化转型[19][22] - **产品与解决方案评选通用标准**:涵盖产品力与技术力(功能完整性、性能表现、技术先进性)、落地情况(市场占有率、用户规模、营收、行业应用价值)及其他综合能力(品牌影响力、用户口碑、产品生态、销售服务能力、行业生态)[21][22] 人物类奖项评选标准 - **年度焦点人物**:评选中国AI领域最受关注的新星与行业领军人物,要求国籍为中国或所属公司主体在中国,并为公司创始团队成员或核心高管,所属公司主营业务属于AI及相关产业且具有一定影响力,近一年带领团队在AI技术或商业化方面取得显著突破并对行业发展产生重要影响,具有持续贡献潜力和较高行业认可度[21][23] - 科研院所中在AI领域具有同等影响力的个人也可参与评选[24] - **人物评选标准**:涵盖企业情况(企业基本情况、行业地位、商业模式、营收情况)、个人能力(技术能力、商业能力、创新能力、团队领导力)及其他综合能力(个人学术或行业背景、品牌影响力、社会及行业认可度)[31] 相关行业活动与趋势 - MEET2026智能未来大会将关注以AI为代表的智能科技如何穿透产业、学科与场景的边界,成为驱动社会演进的核心动能[27] - 大会内容将涵盖学术前沿与商业落地的最新碰撞,以及来自基础设施(Infra)、模型、产品产业的领先技术成果[28]
4个旷视天才具身创业获投近10亿,阿里独家很瞩目
量子位· 2025-11-14 16:22
融资情况 - 具身智能公司Dexmal原力灵机完成近10亿元融资 [1][2] - A+轮融资数亿元由阿里巴巴独家投资 [3][4][5] - A轮融资于9月初完成,由蔚来资本领投,洪泰基金、联想创投、锡创投和正景基金跟投,老股东君联资本超额追投、启明创投和九坤创投追投 [5] - 天使轮融资于成立后20天完成,金额2亿元人民币,投资方包括君联资本、九坤创投、启明创投 [7] - 融资资金将主要用于机器人软硬件技术研发与场景落地 [7] 公司概况 - 原力灵机成立于2025年3月,专注于具身智能软硬件技术研发与落地 [7] - 公司使命是打造智能、有用、可信赖的机器人 [8] - 核心团队拥有顶尖AI学术背景和AI原生产品规模化落地经验 [9] - 团队核心成员主要来自旷视科技,延续了其在物流机器人技术、场景理解与系统工程方面的积累 [10][11] - 公司在智慧物流、柔性仓库等工业场景具备技术复用潜力 [12] 技术研发与成果 - 已发表十余篇AI与具身智能方向顶会论文 [13] - 推出两个VLA框架:Real-time VLA优化实时操作,MemoryVLA赋予机器人记忆能力 [14][15] - 开源基于PyTorch的VLA工具箱Dexbotic,提供一站式科研工作台 [18][20] - 开源硬件产品DOS-W1,采用模块化设计,全链路开源,具备高性价比 [21][24][25][26] - 联合Hugging Face发布全球首个具身智能大规模真机评测平台RoboChallenge [28] 行业认可与奖项 - 在ICRA 2025全球机器人视触融合挑战赛中获"纯触觉操控"和"触觉传感器设计"赛道金牌 [30] - 在CVPR 2025协作智能Workshop的RoboTwin赛事仿真平台赛中获并列第一 [31] 团队背景 - 联合创始人兼CEO唐文斌为旷视科技联创,姚班毕业,Yao Award金牌得主,曾率旷视团队在LFW评测中击败Facebook夺冠 [33][36][37][39][40] - 联合创始人范浩强为IOI金牌得主,姚班第一名,旷视首个算法研究员,曾获三个技术评测世界冠军,谷歌学术被引超1万次 [43][44][45][49][50][51] - 创始团队成员周而进为NOI、IOI金牌选手,旷视12号员工,曾带队研发人脸识别技术并落地于小米、OPPO等企业 [57][58][59][67][68] - 创始团队成员汪天才为原旷视高级研究员,累计发表顶会顶刊论文30余篇,谷歌学术引用超6000次,曾获多项全球顶赛冠军 [71][72][74]
聊AI,当然得来量子位MEET大会!首波嘉宾阵容曝光
量子位· 2025-11-14 16:22
大会概况 - 大会以"共生无界,智启未来"为主题,关注AI技术穿透产业、学科与场景边界,成为驱动社会演进的核心动能[3] - 大会聚焦强化学习、多模态、芯片算力、AI+行业、AI出海等年度热门话题[4] - 内容涵盖学术前沿与商业落地碰撞,以及Infra、模型、产品产业领先技术成果[5] 嘉宾阵容 - 清华大学智能产业研究院院长张亚勤院士是数字视频和AI领域世界级科学家,拥有31岁获IEEE Fellow最年轻科学家记录[12][13] - 清华大学人工智能研究院常务副院长孙茂松主持国家973项目、国家社科基金重大项目等20余项科研项目[17] - 北京智源人工智能研究院院长王仲远发表国际顶级学术论文100余篇,获得ICDE 2015最佳论文奖[21][22][23] - 浙江大学赵俊博研究员首创数据库大模型TableGPT,突破通用模型局限,参与PyTorch早期研发[27] - 昆仑万维董事长方汉拥有31年互联网从业经验,是中文Linux奠基人之一[30] - 潞晨科技创始人尤洋获福布斯30岁以下精英榜,曾是高性能计算领域谷歌学术引用最高博士毕业生[35][36] - 小米首席语音科学家Daniel Povey是Kaldi之父,谷歌学术引用近52000次,h-index 70[40] - 上海高级金融学院朱宁教授2021至2024年连续入选爱思唯尔"中国高被引学者"[44][45] - RockAI CEO刘凡平主导实现国内首个非Transformer架构大模型,拥有20余项AI专利[48][49] - 中关村科金总裁喻友平带领公司入选2025《财富》中国科技50强、2024胡润中国人工智能企业50强[53][54] - 太初元碁联合创始人乔梁获评2024年度"算力中国·青年先锋人物",参与国家核高基重大专项[57][58] 行业活动 - 大会将发布人工智能年度榜单,从公司、产品、人物三大维度评选五类奖项[60] - 年度AI趋势报告将提名十大AI趋势并进行深入分析,提名代表机构和最佳案例[64][65] - 大会每年吸引上千名科技从业者参与,百万观众线上围观,近百家合作媒体联合曝光[72]
小米给智能家居做了个“大模型大脑”
量子位· 2025-11-14 16:22
行业现状与痛点 - 当前智能家居行业体验不够智能,多数系统依赖预设规则引擎,用户需手动配置繁琐的触发条件,交互过程机械且繁琐[3][4][10] - 行业存在“规则预设固化”与“生态协同不足”的双重制约,不同品牌设备间缺乏统一联动标准,用户需花费大量精力适配系统[9][10] 小米Miloco方案核心观点 - 公司认为AI代表未来方向,“大模型+智能家居”是行业大势所趋,Miloco的出现重构了家庭智能范式[5][6] - 该方案旨在为家庭赋予一个能理解生活细节的“AI大脑”,核心目标是让智能家居从“人适应设备”转变为“设备适应人”[11][29][30] 技术架构与核心能力 - 方案的技术核心是Xiaomi MiMo-VL-Miloco-7B端侧视觉语言大模型,该模型基于公司自研MiMo-VL-7B大模型优化构建,具备强大的视觉-语言融合能力[15][17] - 模型能力包括全屋视觉问答、规则智能触发、复杂的联动控制以及场景化动态推理,推动智能家居从“单一条件触发”迈入“多维度场景感知”的高阶形态[18][19][20] - 系统构建了四层完整技术架构:用户层、应用层、能力平台层和硬件层,确保功能稳定落地与未来灵活扩展[16][22][26] 生态整合与开放性 - 通过标准化的MCP协议封装,方案实现了米家生态与Home Assistant生态的无缝打通,并支持第三方IoT平台接入,打破生态壁垒[13][14][27] - 项目已在GitHub上面向全社会开放,开发者可部署、体验并修改扩展体系中任何一层的能力,体现了开放共创的理念[8][22][27] 隐私安全与部署方式 - 方案高度重视隐私安全,采用端侧部署大模型的方式,所有视觉数据在家庭端侧完成计算,不向外部服务器传输,保障用户隐私不被侵犯[7][27] - 端侧部署确保了数据处理的实时性与安全性,从技术层面保障家庭隐私不外流[7][27]
报名启动!快来和张亚勤孙茂松一起参与MEET2026智能未来大会
量子位· 2025-11-14 13:38
大会概况 - 大会以"共生无界,智启未来"为主题,关注AI穿透产业、学科与场景边界,成为社会演进核心动能[3] - 聚焦强化学习、多模态、芯片算力、AI+行业、AI出海等前沿技术与产业落地进展[4] - 包含学术前沿与商业落地碰撞,涵盖Infra、模型、产品产业领先技术成果[5] - 将发布人工智能年度榜单与年度AI趋势报告[6] - 预计吸引上千名科技从业者参与,百万观众线上围观,近百家合作媒体联合曝光[72] 嘉宾阵容 - 张亚勤:清华大学智能产业研究院院长,中国工程院院士,数字视频和AI领域世界级科学家,曾任百度总裁、微软全球资深副总裁[12][13] - 孙茂松:清华大学人工智能研究院常务副院长,欧洲人文和自然科学院外籍院士,主持国家973项目等20余项科研项目[17] - 王仲远:北京智源人工智能研究院院长,发表论文100余篇,获得ICDE 2015最佳论文奖,拥有美国专利5项、中国专利50余项[21][22][23] - 赵俊博:浙江大学百人计划研究员,蚂蚁集团资深技术专家,首创数据库大模型TableGPT,参与PyTorch早期研发[27] - 方汉:昆仑万维董事长兼CEO,拥有31年互联网从业经验,中文Linux奠基人之一[30] - 尤洋:潞晨科技创始人,新加坡国立大学校长青年教授,高性能计算领域谷歌学术引用最高博士毕业生[34][35] - 朱宁:上海高级金融学院金融学教授,行为金融学专家,连续四年入选爱思唯尔"中国高被引学者"[39] - 刘凡平:RockAI CEO,主导实现国内首个非Transformer架构大模型,拥有20余项AI技术专利[43][44] - 喻友平:中关村科金总裁,前百度智能云副总裁,提出"平台+应用+服务"大模型落地三级引擎战略[47][48] - Daniel Povey:小米集团首席语音科学家,IEEE Fellow,Kaldi开源语音识别工具创始人,论文引用近52000次[52][53] - 乔梁:太初元碁联合创始人兼COO,清华大学计算机系博士,主导国产异构众核平台超大规模并行深度学习框架研发[57][58] 行业活动 - 人工智能年度榜单从公司、产品、人物三大维度评选五类奖项,申报截止2025年11月17日[60][61] - 年度AI趋势报告案例征集截至2025年11月20日,将提名十大AI趋势并分析代表机构[64][65][66] - 大会地点设在北京金茂万丽酒店,已开启观众报名通道[70]
发布即开放:百度猎户座葫芦里卖的什么药?
量子位· 2025-11-14 13:38
百度猎户座系统升级 - 百度推出基于多智能体框架的AI底层系统“百度猎户座”,对搜索系统进行“换头”升级,使其成为能听、能想、能干活、能创作的AI超级大脑[1] - 该系统整合百度二十多年的搜索技术积累、各行业专业能力及全网MCP服务生态,支撑百度百看、文心助手等AI应用[1] - 核心逻辑是让搜索从“给答案”的工具进化成能听懂意图、记忆、交互并完成任务的AI伙伴,具备规划与执行能力[5] 行业搜索技术演进 - 搜索技术从早期关键词匹配、语义识别发展到AI生成富媒体答案,行业探索方向包括谷歌SGE直接总结答案、Perplexity问答对话及OpenAI Atlas让Agent自主执行任务[4] - 当前趋势是多模态、富媒体成为搜索产品新标配,信息呈现方式从文字转向图片、视频甚至生成短片,提升省力直观体验[11] - 搜索角色从检索工具转变为理解世界、实时更新的知识接口,成为AI系统的中枢神经,OpenAI和谷歌均推进“搜索+API”模式[23] 新搜索能力特点 - 具备需求拆分、规划及总结生成能力,例如用户询问北京周末游玩地点,系统自动生成包含景点、路线、时间安排及穿衣建议的完整攻略[7][8][10] - 拥有长期记忆和个性化满足能力,通过记忆用户偏好及意图推断预测需求,如文心助手在演唱会前主动提醒注意事项[13][14] - 支持多模态内容生成,包括生图、生视频及多场景切换,每日AI内容生成量超千万,视频模型调用量超200万[16][18][21] 开放战略与生态影响 - 百度猎户座即日起全面对外开放,企业开发者可接入其搜索AI API,调用百度25年搜索技术沉淀、权威内容资源及多模态文本特征提取能力[2][23] - 已有625家企业通过百度智能云接入搜索API,覆盖手机、汽车、智能家居、办公、教育等行业[23] - 开放策略使搜索从用户工具转变为AI底层能力,助力开发者快速打造专属应用,强化行业生态整合[23][24]
何必DiT!字节首次拿着自回归,单GPU一分钟生成5秒720p视频 | NeurIPS'25 Oral
量子位· 2025-11-14 13:38
技术突破与核心优势 - 提出InfinityStar方法,通过时空金字塔建模统一处理图像和视频生成任务,核心是将视频分解为首帧(外观信息)和后续片段(动态信息)进行解耦建模[13][14][15][16] - 采用纯自回归生成方式,相比DiT(Diffusion Transformer)所需的20-100步去噪迭代,实现"一条过"生成,计算效率提升一个数量级[4][25][31] - 在单张GPU上生成5秒720p视频仅需不到1分钟,比同尺寸DiT方法(如HunyuanVideo、Wan-Video)快一个数量级[31] 模型架构创新 - 引入时空金字塔建模架构,将图像金字塔的下一尺度预测思想扩展到时空维度,使用单一Transformer统一建模所有尺度间和片段间依赖关系[13][16] - 采用基于多尺度残差量化的视觉分词器,并应用知识继承技术加速训练,通过继承预训练连续分词器权重使离散分词器更快收敛[18][19] - 提出随机量化器深度正则化技术,随机丢弃精细尺度Token,迫使模型在粗糙尺度下也能重建有效信息,改善信息分布均衡性[21] 性能优化技术 - 设计语义尺度重复技术,在预测时对控制全局信息的语义尺度重复预测N次,增强视频结构一致性和运动流畅性[24] - 应用时空稀疏注意力机制,只关注必要上下文信息(如前一片段最后一个尺度),大幅降低长序列注意力计算复杂度[24] - 引入时空RoPE位置编码,同时编码尺度、时间、高度和宽度信息,为Transformer提供精确时空坐标感知[24] 多任务能力 - 支持文生图、文生视频、图生视频、交互式长视频生成等多种任务,所有任务均统一为"预测下一个尺度/片段"的自回归问题[9][12][16] - 具备交互式长视频生成能力,可根据5秒参考视频和新提示词持续生成后续内容[12] 性能表现 - 在VBench基准测试中,InfinityStar-8B在文生视频任务上取得83.74综合得分,超越CogVideoX-5B(81.61)和HunyuanVideo-13B(83.24)等扩散模型[27][28] - 人类偏好评估显示InfinityStar-8B在指令遵循方面优于HunyuanVideo-13B[29] - 文生图任务在GenEval和DPG基准上表现优异,在位置和物体关系方面具有明显优势[25]
破解多模态大模型“选择困难症”!内部决策机制首次揭秘:在冲突信息间疯狂"振荡"
量子位· 2025-11-14 13:38
研究核心观点 - 多模态大语言模型的模态跟随行为并非静态属性,而是由案例特定的相对推理不确定性和模型稳定的固有模态偏好共同作用的动态过程[1] - 传统的宏观模态跟随统计数据具有误导性,因其混淆了模型的能力和偏好[1] - 模型跟随某一模态的概率会随着该模态相对推理不确定性的增加而单调递减,这一法则在测试的六个模型中普遍存在[5][19] 研究团队与贡献 - 主要作者来自北京大学、华南理工大学、佐治亚大学、KAUST和MBZUAI等机构[3] - 核心贡献包括构建新的可控玩具数据集,以及提出将模态跟随行为解耦为相对推理不确定性和固有模态偏好的分析框架[4] 框架设计:可控数据集与不确定性度量 - 构建了可通过视觉难度和文本难度两个独立设计等级系统控制模态推理复杂性的数据集[9][10] - 采用输出熵作为以模型为中心的不确定性度量指标,熵值随设计难度增加而一致上升[11] - 引入相对单模态不确定性指标,通过(文本熵减视觉熵)除以(两者之和)并归一化来计算,量化模型在每个冲突案例中的置信度差距[12] 传统指标的局限性 - 使用传统宏观指标(如文本跟随率TFR和视觉跟随率VFR)测试6个MLLM时,发现了令人困惑的组合模式,暴露了宏观指标的局限性[14] - 相似的难度感知下,模型可能表现出相反的宏观偏好;而宏观偏好相似的模型,其难度感知可能相反,这共同指向传统指标混淆了数据集伪影和固有模态偏好[15][16] 实验新范式与主要发现 - 设计新实验范式,以相对不确定性为横轴,文本跟随概率为纵轴绘制偏好曲线,成功解耦能力与偏好[18] - 所有被测试模型都展现出文本跟随概率随文本相对不确定性增加而单调递减的统一法则[19][21] - 将曲线穿过50%概率线的点定义为平衡点,作为量化固有模态偏好的原则性指标[22] - 平衡点框架成功解释了宏观指标下的矛盾:LLaVA和Qwen2.5-VL的固有偏好不同,而Qwen2-VL和Qwen2.5-VL的差异揭示了数据集伪影的影响[23][24] 内部决策机制 - 当相对不确定性接近模型的平衡点时(模糊区域),模型内部的逐层预测会在冲突答案间表现出强烈的振荡,而在清晰区域则迅速确定答案[29][30][34] - 模糊区域内冲突输入的振荡次数显著高于清晰区域和无关冲突情况,为模型外部的犹豫不决行为提供了机制性解释[33][34]