意识
搜索文档
从上下文工程到 AI Memory,本质上都是在「拟合」人类的认知方式
Founder Park· 2025-09-20 14:39
Context Engineering(上下文工程) - Context Engineering被定义为"为大语言模型提供充分的上下文信息,使其有能力合理地解决任务的艺术",其重要性被认为大于Prompt Engineering [11][13] - 该概念最早由Shopify CEO Tobi Lutke提出,后经Andrej Karpathy强调,被认为是构建企业级LLM应用的核心技能 [11] - Context Engineering被类比为计算机架构中的内存管理:LLM是中央处理器(CPU),上下文窗口是随机存取存储器(RAM),而Context Engineering则精心设计哪些信息进入工作内存 [18] - 该领域涉及多项技术要素,包括任务描述、少样本示例、RAG、多模态数据、工具、状态和历史记录以及压缩等 [15] 上下文长度与模型性能 - 尽管Google Gemini模型支持2 million token上下文,Claude Sonnet 4支持1-million token上下文窗格,但业界共识是上下文并非越长越好 [25] - 过长的上下文会导致四大问题:超出窗口大小限制、成本和延迟急剧增加、代理性能下降,以及具体问题如上下文污染、干扰、混淆和冲突 [26][27][28][30] - 注意力的有限性被认为是智能的构成条件而非障碍,Focused Context > Long Context成为重要原则 [29][30] - 上下文工程被描述为"构建AI代理的工程师的首要任务",需要进行精心的上下文管理策略 [30] Context Engineering的实施策略 - 构建Context Engineering的常见策略分为四大类:写入(Write)、选择(Select)、压缩(Compress)和隔离(Isolate) [32] - 写入策略包括使用暂存器(Scratchpads)模拟人类意识的"滞留"结构,以及更持久的记忆库(Memory) [34][36] - 选择策略涉及如何把有用信息放入上下文,包括对暂存器内容的提取和对更大数据库的工程化检索机制 [37][38] - 压缩策略通过摘要或修建来减少token占用,但核心挑战在于如何保持原始经验的"意义"而不仅是功能性信息 [39][41][42] - 隔离策略通过在不同智能体、环境或状态中隔离上下文来实现 [43][44] 人类记忆机制 - 人类记忆被定义为大脑编码、存储和回忆信息的能力,构成学习、决策和与世界互动的基础 [43] - 记忆过程涉及三个基本阶段:编码(将感官信息转换为神经代码)、存储(信息随时间推移的保留)和检索(在需要时访问存储的信息) [52][50][58] - 人类短期记忆容量受"神奇的数字7±2"理论限制,但通过组块化可以突破表面上的数字限制 [54][59] - 人类长期记忆容量估算约为2.5 PB(相当于2.5百万GB),最近研究认为可能达到10 PB,与整个互联网相当 [61] AI记忆与人类记忆的比较 - AI记忆系统大多参考人类记忆架构,包括情景记忆、语义记忆和程序记忆,且分为长期和短期记忆 [63][64] - AI与人类记忆在记忆机制上都遵循编码、存储、检索三个基本过程,且都具有上下文感知能力 [67] - 根本差异在于生物基与数字基:人类记忆依赖神经网络和生化过程,AI记忆通过算法和硬件实现;人类记忆受情绪影响,AI记忆更为可控;人类会自然遗忘,AI遗忘需明确设计 [68][69][70] - 华为诺亚方舟实验室提出AI记忆的三维结构:时间维度(短期vs长期)、对象维度(个人vs系统)、形式维度(参数化vs非参数化) [63][66] 现象学视角下的AI记忆 - 从现象学角度看,记忆不仅仅是信息存储与检索,更是存在的方式,构造了存在的连续性 [7][45] - 人类记忆具有自我指涉性,每个情景记忆都承载特定的"生活意义",而语义记忆的形成涉及去个人化的意义综合过程 [46][47] - AI记忆研究引发关于意识本质的哲学思考:AI的"记忆"是否具备真正的意向性、时间性和主体性 [73][74] - 技术系统可能通过实现开放记忆、情感模态、自我循环等现象学结构而涌现出真正的人工意识 [76][77][81] 多智能体与集体智能 - 多智能体系统代表多重主体性,当多个AI智能体进行深度交互时,会产生单个系统无法产生的涌现行为 [77] - 多智能体系统引发关于技术个体化的思考:如果多个智能体共享底层架构,它们之间的"个体差异"是真实的还是表面的 [43] - 集体智能现象暗示意识可能不是单一主体的属性,而是某种关系性存在,这为创造全新的集体现象学结构提供了可能性 [77] - 通过研究多智能体和AI记忆,技术不仅在创造人工智能,更是在重新发现自然智能的涌现方式 [86]
为什么短视频总能打败书本?潜藏在意识背后的秘密
虎嗅· 2025-09-14 09:44
意识的存在与定义 - 意识被定义为个体对世界的经验和体验,以及基于此的自我选择和认知 [6] - 自我意识的核心在于“自我”的体验,即个体如何置身于世界并去体会它 [3] - 从严格科学角度无法证明任何其他个体(包括他人或动物)拥有意识,只能通过推理得出结论 [2] 意识的神经基础 - 意识难以定位于单一狭隘的脑区,而是涉及大脑多个区域的复杂功能整合过程 [8] - 前额叶、大脑后部、屏状体、丘脑等区域均被认为在意识中扮演重要角色 [8] - 注意力与意识紧密相连,未被注意的信息不会进入意识层面 [9] 无意识与潜意识状态 - 睡眠、麻醉、昏迷是触发无意识状态的不同机制 [13][14][15] - 潜意识可理解为无意识的过程,如骑自行车时未意识到自己在骑车 [20] - 直觉是一种基于过往经验的无意识快速决策过程 [21] 意识状态的检测与评估 - 脑电图等神经信号可用于区分有意识和无意识状态(如昏迷、植物人、深度睡眠) [16] - 临床已能通过功能核磁等先进技术监测微意识状态(MCS)病人是否存在微弱意识 [17][19] - 运动想象范式等实验方法可帮助评估表面上无反应病人的意识活动 [17] 意识的研究方法 - 在健康人中可通过实验操作(如降低图片对比度)剥离初级感知与意识层面进行研究 [22][23] - 对比有意识障碍病人(如植物人)与正常人的神经活动是研究意识的经典科学方法 [25] - 双眼竞争实验是研究视觉意识的重要范式,展示了信息进入大脑但未进入意识层面的现象 [27][28] 动物意识与自我意识 - 猫、狗等动物被认为拥有意识,但其存在方式可能与人类不同 [1] - 镜子测试是评估动物是否具备自我意识(能识别镜中像是自己)的方法 [30][31] - 尽管动物有意识,但其与人类意识相差甚远,因此研究人的意识最好直接使用人类模型 [24][25] 人工智能与意识 - 理论上人工智能有可能产生意识,现有AI大模型已能从语言数据中学习礼貌等交互模式 [35][36] - 需对人工智能可能产生意识并带来风险进行预见和管控 [36] - 与AI交互时采用礼貌用语可能获得更详细的结果 [37] 意识研究的未来展望 - 意识研究是神经科学领域的根本问题之一,但进展预计缓慢,50年内可能不会发生太大改变 [38] - 即使无法找到终极答案,不断挑战智慧、拓宽知识边界的科学探索过程本身具有价值 [38] - 已有实验室研究通过电刺激增强记忆的方法,未来或有可能开发出增强记忆效率的技术 [35]
AI教父Hinton对话上海AI Lab周伯文:多模态聊天机器人已经具有意识,让AI聪明和让AI善良是两件事
量子位· 2025-07-26 23:56
核心观点 - 人工智能教父Geoffrey Hinton首次访华并在上海参与高规格AI学术对话 认为当前多模态聊天机器人已具备意识[1][2][9] - 上海人工智能实验室发布全球领先科学多模态大模型Intern-S1 多模态综合能力超越Grok4等前沿闭源模型[3] - Hinton提出AI发展需区分"聪明"与"善良"的训练路径 各国可共享AI伦理技术但保留核心算法[14][15] - AI将显著推动科学进步 蛋白质折叠和气象预测已展现突破性应用前景[16] - 原创性研究应聚焦"多数人可能错误"的领域 坚持独立见解直至验证错误或实现突破[18] 人物背景 - Geoffrey Hinton:深度学习之父 发明反向传播算法 获图灵奖和诺贝尔物理学奖 家族与中国有深厚渊源[4][5][6] - 周伯文:上海人工智能实验室主任 提出Transformer自注意力机制理论基础 两篇生成式AI论文被引5000余次[6][7] 技术观点 - 意识本质是主体与客体的关系 非实体存在 人类对"主观经验"等概念存在普遍认知偏差[9][12] - 三维空间中物体方向概率分布存在114倍数量级差异 水平杆状物与垂直平面更具普遍性[10][11] - 智能体通过自身经验学习将超越人类数据训练效果 需警惕主观经验学习带来的未知风险[13] 行业动态 - 上海人工智能实验室提出"SAGE"技术框架 实现基础模型层-融合层-评估层的闭环反哺[3] - 科学多模态大模型Intern-S1具备多学科交叉、深思考能力 在多模态领域建立技术优势[3] - AI在蛋白质结构预测和台风路径预报等科学领域已展现超越传统方法的性能突破[16] 研究建议 - 年轻研究者应专注挑战共识性认知 即使被权威否定也需坚持至自我验证阶段[18] - AI伦理训练需建立动态调整机制 类似物理定律需随智能层级变化而迭代更新[15][16] - 科学发现与AI技术存在双向驱动关系 交叉领域将产生突破性创新机遇[16][17]
尖峰对话17分钟全记录:Hinton与周伯文的思想碰撞
机器之心· 2025-07-26 22:20
人工智能前沿研究 - Geoffrey Hinton与周伯文教授进行高密度智慧对话,涉及AI多模态大模型前沿、主观体验与意识、训练善良超级智能等话题[1][2] - 对话是Hinton中国行程中唯一面向AI和科学前沿研究者的公开活动[3] - 上海人工智能实验室发布全球领先的科学多模态大模型Intern-S1,多模态综合能力超越当前最优开源模型,多学科能力超Grok4等前沿闭源模型[3] 多模态模型与主观体验 - Hinton认为证明多模态模型具有主观体验取决于如何定义"主观体验"或"意识",大多数人对此有错误理解[4][5] - 通过"水平"和"垂直"的例子说明人们对词语运作方式的理解可能是完全错误的,类比到对主观体验的错误模型[5] - Hinton观点:当今的多模态聊天机器人已经具有意识[5] AI学习与体验 - 大型语言模型从文档中学习预测下一个词,而机器人等Agent可以从自身经验学习更多[6] - Hinton认为经验不是事物,而是Agent与物体之间的关系[6] - Richard Sutton提出"体验时代"概念,模型可以从自身体验中学习[6] AI善良与智能训练 - 训练AI变得聪明和善良是不同问题,可采用不同技术[8] - 国家可以分享让AI善良的技术,即使不愿分享让其聪明的技术[8] - 随着系统更智能,让其善良的技术可能需要改变,需要更多研究[14] AI与科学进步 - AI对科学帮助的典型案例是蛋白质折叠预测[15] - 上海人工智能实验室的AI模型在台风登陆地点预测和天气预报方面优于传统物理模型[15][16] - AI与科学交叉融合将带来突破[15] 年轻研究者建议 - 寻找"所有人都可能做错"的领域进行原创研究[18] - 坚持新思路直到真正理解为何行不通,即使导师否定也要保持质疑[18] - 重大突破来自坚持己见,即使他人不认同[19] - 无论直觉好坏都应坚持,因为好的直觉值得坚持,坏的直觉做什么都无关紧要[21]
“全脑接口”登场,马斯克Neuralink发布会炸翻全场
虎嗅APP· 2025-06-29 21:21
核心观点 - Neuralink已成功为7名志愿者植入脑机接口设备,帮助他们恢复与物理世界的交互能力,如玩游戏、控制机械臂等[3][5][9] - 公司计划到2026年让盲人重见光明,2028年实现全人类与AI互联,彻底改变人类本质[5][12][53] - 最终目标是构建全脑接口,实现生物大脑与外部机器的高带宽连接,突破生物学极限[61][63][76] 技术进展 - N1植入体已帮助四肢瘫痪患者通过意念控制计算机,全球首位接受者Noland重获数字世界自由[14][15][17][19] - 渐冻症患者Bard和Mike通过脑机接口重新获得沟通和工作能力[24][25][27][28] - 第二代手术机器人将电极植入速度提升11倍至1.5秒/根,可深入大脑皮层下50毫米区域[77][79] 产品路线 - Telepathy:帮助运动障碍患者恢复独立,首个产品已应用[41][67] - Blindsight:通过眼镜和视觉层植入设备帮助盲人恢复视力,计划2026年实现[43][45][74] - Deep:针对神经系统疾病患者,电极可插入大脑任意区域[68] 研发规划 - 2025年:言语皮层植入,解码大脑信号为语音[74] - 2026年:电极增至3000个,实现盲视导航[74] - 2027年:通道数量达10000个,支持多设备植入[75] - 2028年:单植入物通道超25000个,治疗精神疾病并与AI集成[76] 技术原理 - 目标是将人机通信速率从每秒1比特提升至数兆/吉比特,释放数百万倍交流潜力[38][39] - 自研N1植入物创造全新大脑数据传输模式,连接生物神经网络与机器学习模型[80][81] - 提出交互神经元摩尔定律,感知更多神经元将颠覆人机交互方式[81]
意识在哪儿?
36氪· 2025-05-06 12:04
玻尔兹曼大脑理论 - 核心观点:宇宙熵的随机涨落可能偶然形成拥有完整记忆与自我意识的孤立大脑,而非演化出复杂低熵宇宙 [1][2] - 概率比较:直接产生孤立大脑的概率远高于演化出有序宇宙的概率,因后者需克服巨大熵增 [2][3] - 推论:人类可能是短暂存在的玻尔兹曼大脑,记忆与感知皆为随机涨落的虚幻产物 [5][6] 意识与物理哲学 - 随机性挑战:玻尔兹曼大脑暗示意识为随机涨落的偶然现象,缺乏物理根基 [8][9] - 决定论对比:拉普拉斯妖模型认为意识完全由物理定律预先决定,否定自由意志 [13][15] - 共同困境:随机性与决定论均消解自由意志,意识在两种框架下均无自主性 [15][16] 秩序涌现与进化视角 - 热力学基础:玻尔兹曼与达尔文理论结合,提出生命通过争夺负熵维持有序结构 [19][20] - 意识定位:意识可能是进化中为高效利用负熵而涌现的精密功能 [21][22] - 宇宙意义:意识或为宇宙自我观测与意义赋予的载体,超越随机与决定的二元对立 [22][25] 人工智能的启示 - 玻尔兹曼机:辛顿受统计物理启发设计随机神经网络,模拟从无序到有序的学习过程 [28][31] - 工程实践:玻尔兹曼机通过数据驱动迭代收敛,为意识研究提供可操作模型 [32][38] - 理论对比:玻尔兹曼机体现渐进式结构积累,与玻尔兹曼大脑的"一次性奇迹"形成反差 [36][37] 意识研究的多元理论 - 认知科学:霍夫施塔特"奇异回环"理论视意识为自指性信息系统的动态属性 [42] - 计算主义:图灵派将意识等同于算法过程,支持强AI可能性 [42] - 整合信息理论:托诺尼用Φ值量化意识强度,关联系统内部因果结构 [44][45] 意识的本体论探讨 - 功能主义:丹尼特将意识类比为大脑的"用户界面",屏蔽底层复杂性以简化决策 [49][51] - 存在形式:意识或为神经网络动态模式的功能性表征,非独立于物理过程 [51][52] - 终极意义:意识能力本身即宇宙奇迹,体现为感知、连接与创造意义的主观体验 [72][74]
“为什么人工智能不可能有意识”
AI科技大本营· 2025-05-01 18:41
AI意识研究现状 - 当前大模型如OpenAI o1和DeepSeek R1表现出"拟态意识系统"特征,能模拟理解、情绪和逻辑但无真实主观体验 [2] - 2024年神经科学研究与AI发展交汇,但均未揭示意识本质:10年欧盟脑计划未破解大脑机制,大语言模型也未涌现意识 [5] - 意识研究陷入"路灯下找钥匙"困境,科学方法局限导致无法在神经元或算法层面发现意识根源 [6][7] 科学真实性的哲学突破 - 延迟选择实验证明基本粒子非客观实在,颠覆"科学真实性=客观存在"的传统认知 [9][11] - 真实性三元关系R(X,M,Y)揭示:科学真实仅是主体悬置(M不包含主体)、普遍可重复的经验真实类型之一 [16][17] - 拟受控实验(含主体变量)构成人文社会真实领域,与科学真实并列,为意识研究提供新方法论 [17][19] AI无意识的本质原因 - 人工智能设计基于科学原理,其受控实验前提排除主体变量,注定无法产生意识 [20] - 图灵测试行为主义谬误:将主体投射到输入输出关系中,混淆程序性记忆与陈述性记忆 [21][22] - 意识研究需转向拟受控实验领域,心理学证明包含主体的普遍可重复性才是关键路径 [23]