Workflow
认知债务
icon
搜索文档
KAN作者刘子鸣:AI还没等到它的「牛顿」
机器之心· 2026-01-02 13:00
AI研究范式与现状 - 行业当前处于AI研究的“第谷时代”,即拥有海量实验数据和强大模型,但缺乏对底层现象的系统性梳理与理论总结[1] - 行业为追求短期性能指标而跳过了“理解”这一关键步骤,正在积累高昂的“认知债务”[3][8] - 即便在“观察”层面,行业目前也极其原始,大多仅关注少数几个基于性能的指标调优[8] 学术发表机制的制约 - 当前学术发表机制偏爱“完美的故事”或“巨大的性能提升”,导致大量碎片化但极具价值的“AI现象学”工作被忽视[5] - 明星数据科学家Jeremy Howard指出,“实验性观察”几乎无法在AI/ML期刊和会议上发表,这阻碍了领域发展[6] - 能够被包装成“故事”的现象极其稀少,许多有趣的现象因无法整理成论文而被随意丢弃[14] AI现象学发展的困境 - 可发表的工作通常只有两类:在性能上有显著提升的工作,或拥有一个足够吸引人的“故事”[12] - 所谓“好故事”通常需要满足普适性或惊奇性,这两类要求都极高,抑制了现象学的发展[13][15] - 行业对“AI物理学”现象学提出了过高的期望,但其本身仍处于非常早期的阶段[9][13] 倡导的新研究范式 - 呼吁建立一种“平易近人的现象学”,不以即时应用为导向,回归用玩具模型进行可控、多视角的假设驱动探索[5][21] - 该方法强调可控性、多视角刻画以及好奇心或假设驱动的探索,定性结果已足够,定量结果更好[21] - 这种“可接近的现象学”对于社区建设具有极高价值,能促进不同研究者之间的观察联系、理论统一与算法改进[17] 个人与社区的行动计划 - 作者宣布将通过博客分享“半成品”的实验笔记,以记录观察、吸引志同道合者,并为课程准备材料[5][19][22] - 计划在清华大学开设一门《Physics of AI》课程,相关博客文章及配套代码可能成为课程材料[5][22] - 建议研究者从自己真正关心的问题开始,定义简单的玩具模型,并致力于彻底理解该模型[20][22]
AI用多了,人会变傻吗?
36氪· 2025-08-05 15:17
麻省理工学院AI辅助写作研究 - 研究设计将54名学生分为三组:大型语言模型组(ChatGPT辅助)、搜索引擎组(仅用谷歌搜索)、纯脑力组(无工具辅助)[3] - 脑部活动监测显示纯脑力组在阿尔法和贝塔频率带的脑部连接性最强,大型语言模型组最弱[4] - 记忆测试中纯脑力组准确引用率89%,搜索引擎组83%,大型语言模型组0%[4] 研究结果分析 - ChatGPT辅助文章被教师评价为重复且缺乏原创性,部分被称为"没有灵魂的"[4] - 纯脑力组89%参与者对作品有强烈归属感,ChatGPT用户普遍缺乏归属感[4] - 研究人员提出"认知债务"概念,指过度依赖AI导致学习记忆能力下降[3] 研究局限性 - 样本量仅54人且来自精英大学,难以推广到广泛人群[5] - 20分钟严格时限的SAT风格写作无法反映日常AI使用场景[5][7] - 仅18人参与最终"切换"环节,结果不确定性高[5] AI使用建议 - 保持核心内容的主动参与,用AI优化工作流程而非完全外包[11] - 通过AI挑战思维漏洞,提出开放性问题促进深度思考[11] - 先独立起草内容再用AI润色,增强对主题的掌控力[11] - 定期反思AI使用方式,平衡效率与技能保留需求[11] 研究价值与启示 - 实验室环境与日常AI使用存在显著差异,结果需谨慎解读[10] - AI工具本身无危害性,关键在于使用方式是否保持大脑参与[7][10] - 合理使用AI可成为增强创造力的伙伴而非思维拐杖[10][11]
你的大脑真的在被AI“腐蚀”吗?
36氪· 2025-07-10 08:09
研究核心观点 - MIT研究报告指出使用ChatGPT可能导致认知债务累积,但媒体解读存在显著偏差,将复杂结论简化为"AI让人变笨"的片面论断 [1][3] - 研究实际表明AI对认知的影响具有双向性:长期无意识依赖会削弱神经连接活跃度(降低45%-55%),但主动思考者使用AI时神经连接反而增强 [6][12] - 技术中性论是核心结论,AI的影响取决于使用方式,建议采用"先独立思考再AI辅助"的模式 [8][25] 实验设计与发现 - 实验设计:54名受试者分为纯人工/搜索引擎/AI辅助三组,进行4轮SAT级别写作测试,每次20分钟,间隔1-2周 [4] - 脑电图数据显示:AI辅助组前三轮神经连接数量比纯人工组减少45%-55%,83.3%用户无法回忆创作内容,但第四轮独立写作时活跃度部分回升 [6][8] - 交叉测试发现:纯人工组首次使用AI时大脑活跃度提升且产出质量优于长期依赖AI者,说明认知影响具有可逆性 [8] 媒体误读分析 - 概念混淆:将神经连接活跃度降低47%错误表述为"大脑萎缩47%",实际未涉及物理结构变化 [9] - 逻辑简化:忽视"认知债务"的可逆性特征,将其等同于永久性智力衰退 [12] - 结论片面化:未报道研究指出的高基线认知者使用AI时神经连接增强的现象 [12] 研究局限性 - 样本缺陷:仅54名WEIRD群体参与者(西方/高学历/工业化/富裕/民主背景),完成第四阶段者仅18人,结论普适性存疑 [13] - 环境失真:20分钟高压写作任务不能代表真实场景中非线性、多步骤的AI使用过程 [15] - 测量局限:EEG技术空间分辨率不足,无法探测海马体等深层结构,且易受电噪声干扰 [15] 补充研究证据 - 微软与卡内基梅隆大学研究显示:319名知识工作者中,专业自信者使用AI会激发更多批判性思维 [17] - 《计算机与教育》期刊综述69项研究证实:AI辅助的问题式学习能提升批判性思维/问题解决/创造力等高阶能力 [19] 历史技术对比 - 文字/电视/计算机等技术初期均引发能力退化恐慌,但最终扩展了人类认知边界 [20][22] - AI与历史技术类似,其影响取决于应用方式:被动依赖导致能力下降,主动整合则提升认知效率 [24]
最新研究表明,使用AI进行写作会增加认知负荷
新京报· 2025-07-01 20:30
人工智能工具对认知能力的影响 - 频繁使用AI工具可能导致用户在神经、语言和行为层面表现不佳,研究显示仅使用大脑写作的小组在创造性构思和语义处理方面表现最佳 [1] - 54名用户分组测试中,纯人脑写作组的文本在表达和词汇独特性上优于使用大型语言模型和谷歌搜索的组别 [1] - 脑电图记录显示,不使用AI工具时用户大脑的注意力和语义处理活动更活跃 [1] 用户对作品的归属感差异 - 近90%的大型语言模型用户对作品缺乏归属感,而纯人脑写作和谷歌搜索用户仅10%存在此问题 [2] - 纯人脑写作组更关注内容本质("什么"和"为什么"),其他组则更关注执行层面("如何写") [2] - 大型语言模型用户倾向于复制粘贴工具输出,而非融入原创想法和个性化编辑 [2] 认知债务与长期影响 - 频繁使用AI工具的用户切换至纯大脑写作时仍存在"认知债务",表现为记忆痕迹弱化、自我监控能力下降和内容碎片化 [4] - 过度依赖AI可能导致表面流利但无法内化知识,阻碍深度认知处理和真实参与 [4] - "谷歌效应"表明用户更倾向于记忆信息获取路径而非信息本身,大型语言模型加剧了这一趋势 [4] 效率悖论 - 理论上AI工具应提升效率,但实际用户因反复调整内容花费更多时间,延长任务周期 [5] - 效率衡量需考虑用户对流程和最终产品的关注度下降等隐性成本 [5]