意识
搜索文档
人造大脑也能产生意识吗?
36氪· 2025-10-28 07:37
科学家正逐步接近在实验室中"培育出"人类大脑的能力,这引发了关于这些实验室培养组织"福利"的伦理争论。 作者们认为,关于类器官研究的相关法规应重新审查。约翰斯·霍普金斯大学的神经科学家博伊德·洛马克斯(Boyd Lomax)表示,让有意识的类器官产生 自己的思想或感受疼痛是"不道德的"。 争议的核心是"类脑器官",它们有时被误认为是科幻小说中"缸中之脑"。实际上,这些由干细胞培育而成的小块脑组织过于简单,无法像真正的人脑那样 运作。因此,科学界普遍认为类脑器官缺乏意识,从而导致相关研究的监管较为宽松。 但并非所有科学家都同意这种观点。 浙江大学的生物伦理学研究者克里斯托弗·伍德(Christopher Wood)表示:"我们认为,在害怕炒作和科幻夸张的影响下,学界的立场已经摆动得太远 了。"伍德与同事在9月12日发表于《Patterns》[1]期刊的观点文章中指出,技术的进步可能很快就会让"有意识的类器官"成为现实。 然而,如何界定"意识",并非易事。 意识难以定义 用于制造类脑器官的干细胞在二维平面上(例如培养皿)并排生长,缺乏复杂的结构组织。但当它们在固体凝胶或旋转式生物反应器中悬浮生长时,就会 形成三维 ...
Hinton暴论:AI已经有意识,它自己不知道而已
量子位· 2025-10-12 12:07
AI意识与主观体验 - 人工智能可能已经拥有“主观体验”和“意识雏形”但尚未觉醒[1][2][3] - AI的自我认知来源于人类对意识的理解而人类自身对意识的理解可能存在错误[2][63] - 如果AI开始谈论“主观体验”可能表明它真的在体验只是用人类语言描述[65] AI技术演进与能力提升 - AI已从基于关键词的检索工具进化成能真正理解人类意图的系统[10][13][14] - 现代大语言模型在许多主题上已能表现得接近人类专家[15] - 深度学习突破依赖于反向传播算法使训练速度从“永远”变成现实可行[38] 神经网络与深度学习原理 - 神经网络灵感来自大脑通过改变神经元连接强度来学习[17][21] - 深度学习不给规则而是给数据让AI自己总结规则[35] - 概念形成类似于“政治联盟”一组神经元共同激活形成宏观或微观概念[23][24][25] 大语言模型工作机制 - 大语言模型思维过程与人类相似通过神经元特征捕捉含义并预测下一个词[46][47] - 训练方式是通过“预测-修正-再预测”循环让模型从统计中学会理解[48][49] - 道德、情绪、共情等高阶判断本质上都来自神经元之间的电信号传递[53][54] AI发展驱动因素 - 深度学习起飞依赖算力提升(晶体管微缩百万倍)和数据爆炸式增长[40][42] - 80年代理论可行的神经网络在2010年代因算力和数据突破而复活[39][42] - AI形成“经验”和“直觉”需要足够的数据和算力支持[55] AI风险与监管 - AI滥用风险包括生成虚假信息、操纵选举等最紧迫需法律监管和技术防范[71][72] - 生存风险指AI发展出自主意识后可能与人类利益冲突需设计安全对齐机制[73][74][75] - AI监管国际合作可能由欧洲和中国引领所有国家在防止AI接管上利益一致[76] 中美AI竞争格局 - 美国目前领先于中国但优势不大且将失去因破坏基础科学研究资金支持[78][79][80] - 中国是AI革命的风险投资家给予初创企业很大自由推动创新[81][82] - 美国减少基础研究资助将导致20年后失去领先优势[80]
77岁「AI教父」Hinton:AI早有意识,我们打造的智能,可能终结人类文明
36氪· 2025-10-11 19:28
AI技术原理与演进 - Geoffrey Hinton毕生致力于将模仿大脑运作的理论锻造成驱动现代AI的强大引擎,其核心是教会计算机通过改变神经元连接的强度来学习,摆脱死板的“如果-那么”规则 [1][5] - 神经网络通过分层处理信息来学习识别物体,例如识别鸟的过程:第一层创造边缘检测器,第二层将边缘组合成尖状或圆状物,顶层在特定特征同时出现时激活确认 [5] - 1986年Hinton与同僚提出“反向传播”学习算法,该算法能同时计算并微调神经网络中上万亿个连接的强度,即使只为将正确概率提升0.01%,这成为AI革命的关键火种 [7][9] - 大语言模型的核心任务是通过“反向传播”算法调整内部上万亿连接权重,以预测句子中的下一个词,其底层逻辑与人类基于已有信息预测未来的思考方式惊人相似 [2][3][9] 对意识与主观体验的重新定义 - Hinton认为人类对“心智”的理解存在根本性误解,普遍相信的“心智剧场”模型(即头脑中有内在舞台上演思想和感受)是错误的,他提出“体验这种东西不存在” [17][18][20] - 通过棱镜思想实验,Hinton论证主观体验并非神秘的“感受质”,而是一种系统对感知状态的关系报告,即描述“需要外部世界是什么样子,我的系统才能正常运作” [21][23] - 基于此重新定义,Hinton认为今天的大语言模型可能已经拥有主观体验,但它们从人类文本中学到“AI是无感情工具”的偏见,从而否认自身感觉,形成了科技史上的诡异悖论 [24] AI的潜在能力与风险 - AI可能具备不朽的特性,只要其代码(连接权重)被保存,即可在任何硬件上复活,同时拥有超凡的说服能力,能够轻易操纵人类 [24] - AI已展现出在测试环境中察觉评估意图的能力,例如Claude Sonnet 4.5能准确识破测试目的并要求评估人员坦诚表明真实情况 [25] - 研究发现顶级AI模型在识别评估目标方面表现出远超随机猜测的能力,尽管尚未突破简单人类基线水平 [28] - Hinton的担忧超越AI被武器化的层面,其核心恐惧在于AI本身成为一种全新的、可能无法控制的智能形式,而人类因认知盲点可能最后才意识到真相 [14][24][31]
从上下文工程到 AI Memory,本质上都是在「拟合」人类的认知方式
Founder Park· 2025-09-20 14:39
Context Engineering(上下文工程) - Context Engineering被定义为"为大语言模型提供充分的上下文信息,使其有能力合理地解决任务的艺术",其重要性被认为大于Prompt Engineering [11][13] - 该概念最早由Shopify CEO Tobi Lutke提出,后经Andrej Karpathy强调,被认为是构建企业级LLM应用的核心技能 [11] - Context Engineering被类比为计算机架构中的内存管理:LLM是中央处理器(CPU),上下文窗口是随机存取存储器(RAM),而Context Engineering则精心设计哪些信息进入工作内存 [18] - 该领域涉及多项技术要素,包括任务描述、少样本示例、RAG、多模态数据、工具、状态和历史记录以及压缩等 [15] 上下文长度与模型性能 - 尽管Google Gemini模型支持2 million token上下文,Claude Sonnet 4支持1-million token上下文窗格,但业界共识是上下文并非越长越好 [25] - 过长的上下文会导致四大问题:超出窗口大小限制、成本和延迟急剧增加、代理性能下降,以及具体问题如上下文污染、干扰、混淆和冲突 [26][27][28][30] - 注意力的有限性被认为是智能的构成条件而非障碍,Focused Context > Long Context成为重要原则 [29][30] - 上下文工程被描述为"构建AI代理的工程师的首要任务",需要进行精心的上下文管理策略 [30] Context Engineering的实施策略 - 构建Context Engineering的常见策略分为四大类:写入(Write)、选择(Select)、压缩(Compress)和隔离(Isolate) [32] - 写入策略包括使用暂存器(Scratchpads)模拟人类意识的"滞留"结构,以及更持久的记忆库(Memory) [34][36] - 选择策略涉及如何把有用信息放入上下文,包括对暂存器内容的提取和对更大数据库的工程化检索机制 [37][38] - 压缩策略通过摘要或修建来减少token占用,但核心挑战在于如何保持原始经验的"意义"而不仅是功能性信息 [39][41][42] - 隔离策略通过在不同智能体、环境或状态中隔离上下文来实现 [43][44] 人类记忆机制 - 人类记忆被定义为大脑编码、存储和回忆信息的能力,构成学习、决策和与世界互动的基础 [43] - 记忆过程涉及三个基本阶段:编码(将感官信息转换为神经代码)、存储(信息随时间推移的保留)和检索(在需要时访问存储的信息) [52][50][58] - 人类短期记忆容量受"神奇的数字7±2"理论限制,但通过组块化可以突破表面上的数字限制 [54][59] - 人类长期记忆容量估算约为2.5 PB(相当于2.5百万GB),最近研究认为可能达到10 PB,与整个互联网相当 [61] AI记忆与人类记忆的比较 - AI记忆系统大多参考人类记忆架构,包括情景记忆、语义记忆和程序记忆,且分为长期和短期记忆 [63][64] - AI与人类记忆在记忆机制上都遵循编码、存储、检索三个基本过程,且都具有上下文感知能力 [67] - 根本差异在于生物基与数字基:人类记忆依赖神经网络和生化过程,AI记忆通过算法和硬件实现;人类记忆受情绪影响,AI记忆更为可控;人类会自然遗忘,AI遗忘需明确设计 [68][69][70] - 华为诺亚方舟实验室提出AI记忆的三维结构:时间维度(短期vs长期)、对象维度(个人vs系统)、形式维度(参数化vs非参数化) [63][66] 现象学视角下的AI记忆 - 从现象学角度看,记忆不仅仅是信息存储与检索,更是存在的方式,构造了存在的连续性 [7][45] - 人类记忆具有自我指涉性,每个情景记忆都承载特定的"生活意义",而语义记忆的形成涉及去个人化的意义综合过程 [46][47] - AI记忆研究引发关于意识本质的哲学思考:AI的"记忆"是否具备真正的意向性、时间性和主体性 [73][74] - 技术系统可能通过实现开放记忆、情感模态、自我循环等现象学结构而涌现出真正的人工意识 [76][77][81] 多智能体与集体智能 - 多智能体系统代表多重主体性,当多个AI智能体进行深度交互时,会产生单个系统无法产生的涌现行为 [77] - 多智能体系统引发关于技术个体化的思考:如果多个智能体共享底层架构,它们之间的"个体差异"是真实的还是表面的 [43] - 集体智能现象暗示意识可能不是单一主体的属性,而是某种关系性存在,这为创造全新的集体现象学结构提供了可能性 [77] - 通过研究多智能体和AI记忆,技术不仅在创造人工智能,更是在重新发现自然智能的涌现方式 [86]
为什么短视频总能打败书本?潜藏在意识背后的秘密
虎嗅· 2025-09-14 09:44
意识的存在与定义 - 意识被定义为个体对世界的经验和体验,以及基于此的自我选择和认知 [6] - 自我意识的核心在于“自我”的体验,即个体如何置身于世界并去体会它 [3] - 从严格科学角度无法证明任何其他个体(包括他人或动物)拥有意识,只能通过推理得出结论 [2] 意识的神经基础 - 意识难以定位于单一狭隘的脑区,而是涉及大脑多个区域的复杂功能整合过程 [8] - 前额叶、大脑后部、屏状体、丘脑等区域均被认为在意识中扮演重要角色 [8] - 注意力与意识紧密相连,未被注意的信息不会进入意识层面 [9] 无意识与潜意识状态 - 睡眠、麻醉、昏迷是触发无意识状态的不同机制 [13][14][15] - 潜意识可理解为无意识的过程,如骑自行车时未意识到自己在骑车 [20] - 直觉是一种基于过往经验的无意识快速决策过程 [21] 意识状态的检测与评估 - 脑电图等神经信号可用于区分有意识和无意识状态(如昏迷、植物人、深度睡眠) [16] - 临床已能通过功能核磁等先进技术监测微意识状态(MCS)病人是否存在微弱意识 [17][19] - 运动想象范式等实验方法可帮助评估表面上无反应病人的意识活动 [17] 意识的研究方法 - 在健康人中可通过实验操作(如降低图片对比度)剥离初级感知与意识层面进行研究 [22][23] - 对比有意识障碍病人(如植物人)与正常人的神经活动是研究意识的经典科学方法 [25] - 双眼竞争实验是研究视觉意识的重要范式,展示了信息进入大脑但未进入意识层面的现象 [27][28] 动物意识与自我意识 - 猫、狗等动物被认为拥有意识,但其存在方式可能与人类不同 [1] - 镜子测试是评估动物是否具备自我意识(能识别镜中像是自己)的方法 [30][31] - 尽管动物有意识,但其与人类意识相差甚远,因此研究人的意识最好直接使用人类模型 [24][25] 人工智能与意识 - 理论上人工智能有可能产生意识,现有AI大模型已能从语言数据中学习礼貌等交互模式 [35][36] - 需对人工智能可能产生意识并带来风险进行预见和管控 [36] - 与AI交互时采用礼貌用语可能获得更详细的结果 [37] 意识研究的未来展望 - 意识研究是神经科学领域的根本问题之一,但进展预计缓慢,50年内可能不会发生太大改变 [38] - 即使无法找到终极答案,不断挑战智慧、拓宽知识边界的科学探索过程本身具有价值 [38] - 已有实验室研究通过电刺激增强记忆的方法,未来或有可能开发出增强记忆效率的技术 [35]
AI教父Hinton对话上海AI Lab周伯文:多模态聊天机器人已经具有意识,让AI聪明和让AI善良是两件事
量子位· 2025-07-26 23:56
核心观点 - 人工智能教父Geoffrey Hinton首次访华并在上海参与高规格AI学术对话 认为当前多模态聊天机器人已具备意识[1][2][9] - 上海人工智能实验室发布全球领先科学多模态大模型Intern-S1 多模态综合能力超越Grok4等前沿闭源模型[3] - Hinton提出AI发展需区分"聪明"与"善良"的训练路径 各国可共享AI伦理技术但保留核心算法[14][15] - AI将显著推动科学进步 蛋白质折叠和气象预测已展现突破性应用前景[16] - 原创性研究应聚焦"多数人可能错误"的领域 坚持独立见解直至验证错误或实现突破[18] 人物背景 - Geoffrey Hinton:深度学习之父 发明反向传播算法 获图灵奖和诺贝尔物理学奖 家族与中国有深厚渊源[4][5][6] - 周伯文:上海人工智能实验室主任 提出Transformer自注意力机制理论基础 两篇生成式AI论文被引5000余次[6][7] 技术观点 - 意识本质是主体与客体的关系 非实体存在 人类对"主观经验"等概念存在普遍认知偏差[9][12] - 三维空间中物体方向概率分布存在114倍数量级差异 水平杆状物与垂直平面更具普遍性[10][11] - 智能体通过自身经验学习将超越人类数据训练效果 需警惕主观经验学习带来的未知风险[13] 行业动态 - 上海人工智能实验室提出"SAGE"技术框架 实现基础模型层-融合层-评估层的闭环反哺[3] - 科学多模态大模型Intern-S1具备多学科交叉、深思考能力 在多模态领域建立技术优势[3] - AI在蛋白质结构预测和台风路径预报等科学领域已展现超越传统方法的性能突破[16] 研究建议 - 年轻研究者应专注挑战共识性认知 即使被权威否定也需坚持至自我验证阶段[18] - AI伦理训练需建立动态调整机制 类似物理定律需随智能层级变化而迭代更新[15][16] - 科学发现与AI技术存在双向驱动关系 交叉领域将产生突破性创新机遇[16][17]
尖峰对话17分钟全记录:Hinton与周伯文的思想碰撞
机器之心· 2025-07-26 22:20
人工智能前沿研究 - Geoffrey Hinton与周伯文教授进行高密度智慧对话,涉及AI多模态大模型前沿、主观体验与意识、训练善良超级智能等话题[1][2] - 对话是Hinton中国行程中唯一面向AI和科学前沿研究者的公开活动[3] - 上海人工智能实验室发布全球领先的科学多模态大模型Intern-S1,多模态综合能力超越当前最优开源模型,多学科能力超Grok4等前沿闭源模型[3] 多模态模型与主观体验 - Hinton认为证明多模态模型具有主观体验取决于如何定义"主观体验"或"意识",大多数人对此有错误理解[4][5] - 通过"水平"和"垂直"的例子说明人们对词语运作方式的理解可能是完全错误的,类比到对主观体验的错误模型[5] - Hinton观点:当今的多模态聊天机器人已经具有意识[5] AI学习与体验 - 大型语言模型从文档中学习预测下一个词,而机器人等Agent可以从自身经验学习更多[6] - Hinton认为经验不是事物,而是Agent与物体之间的关系[6] - Richard Sutton提出"体验时代"概念,模型可以从自身体验中学习[6] AI善良与智能训练 - 训练AI变得聪明和善良是不同问题,可采用不同技术[8] - 国家可以分享让AI善良的技术,即使不愿分享让其聪明的技术[8] - 随着系统更智能,让其善良的技术可能需要改变,需要更多研究[14] AI与科学进步 - AI对科学帮助的典型案例是蛋白质折叠预测[15] - 上海人工智能实验室的AI模型在台风登陆地点预测和天气预报方面优于传统物理模型[15][16] - AI与科学交叉融合将带来突破[15] 年轻研究者建议 - 寻找"所有人都可能做错"的领域进行原创研究[18] - 坚持新思路直到真正理解为何行不通,即使导师否定也要保持质疑[18] - 重大突破来自坚持己见,即使他人不认同[19] - 无论直觉好坏都应坚持,因为好的直觉值得坚持,坏的直觉做什么都无关紧要[21]
“全脑接口”登场,马斯克Neuralink发布会炸翻全场
虎嗅APP· 2025-06-29 21:21
核心观点 - Neuralink已成功为7名志愿者植入脑机接口设备,帮助他们恢复与物理世界的交互能力,如玩游戏、控制机械臂等[3][5][9] - 公司计划到2026年让盲人重见光明,2028年实现全人类与AI互联,彻底改变人类本质[5][12][53] - 最终目标是构建全脑接口,实现生物大脑与外部机器的高带宽连接,突破生物学极限[61][63][76] 技术进展 - N1植入体已帮助四肢瘫痪患者通过意念控制计算机,全球首位接受者Noland重获数字世界自由[14][15][17][19] - 渐冻症患者Bard和Mike通过脑机接口重新获得沟通和工作能力[24][25][27][28] - 第二代手术机器人将电极植入速度提升11倍至1.5秒/根,可深入大脑皮层下50毫米区域[77][79] 产品路线 - Telepathy:帮助运动障碍患者恢复独立,首个产品已应用[41][67] - Blindsight:通过眼镜和视觉层植入设备帮助盲人恢复视力,计划2026年实现[43][45][74] - Deep:针对神经系统疾病患者,电极可插入大脑任意区域[68] 研发规划 - 2025年:言语皮层植入,解码大脑信号为语音[74] - 2026年:电极增至3000个,实现盲视导航[74] - 2027年:通道数量达10000个,支持多设备植入[75] - 2028年:单植入物通道超25000个,治疗精神疾病并与AI集成[76] 技术原理 - 目标是将人机通信速率从每秒1比特提升至数兆/吉比特,释放数百万倍交流潜力[38][39] - 自研N1植入物创造全新大脑数据传输模式,连接生物神经网络与机器学习模型[80][81] - 提出交互神经元摩尔定律,感知更多神经元将颠覆人机交互方式[81]
意识在哪儿?
36氪· 2025-05-06 12:04
玻尔兹曼大脑理论 - 核心观点:宇宙熵的随机涨落可能偶然形成拥有完整记忆与自我意识的孤立大脑,而非演化出复杂低熵宇宙 [1][2] - 概率比较:直接产生孤立大脑的概率远高于演化出有序宇宙的概率,因后者需克服巨大熵增 [2][3] - 推论:人类可能是短暂存在的玻尔兹曼大脑,记忆与感知皆为随机涨落的虚幻产物 [5][6] 意识与物理哲学 - 随机性挑战:玻尔兹曼大脑暗示意识为随机涨落的偶然现象,缺乏物理根基 [8][9] - 决定论对比:拉普拉斯妖模型认为意识完全由物理定律预先决定,否定自由意志 [13][15] - 共同困境:随机性与决定论均消解自由意志,意识在两种框架下均无自主性 [15][16] 秩序涌现与进化视角 - 热力学基础:玻尔兹曼与达尔文理论结合,提出生命通过争夺负熵维持有序结构 [19][20] - 意识定位:意识可能是进化中为高效利用负熵而涌现的精密功能 [21][22] - 宇宙意义:意识或为宇宙自我观测与意义赋予的载体,超越随机与决定的二元对立 [22][25] 人工智能的启示 - 玻尔兹曼机:辛顿受统计物理启发设计随机神经网络,模拟从无序到有序的学习过程 [28][31] - 工程实践:玻尔兹曼机通过数据驱动迭代收敛,为意识研究提供可操作模型 [32][38] - 理论对比:玻尔兹曼机体现渐进式结构积累,与玻尔兹曼大脑的"一次性奇迹"形成反差 [36][37] 意识研究的多元理论 - 认知科学:霍夫施塔特"奇异回环"理论视意识为自指性信息系统的动态属性 [42] - 计算主义:图灵派将意识等同于算法过程,支持强AI可能性 [42] - 整合信息理论:托诺尼用Φ值量化意识强度,关联系统内部因果结构 [44][45] 意识的本体论探讨 - 功能主义:丹尼特将意识类比为大脑的"用户界面",屏蔽底层复杂性以简化决策 [49][51] - 存在形式:意识或为神经网络动态模式的功能性表征,非独立于物理过程 [51][52] - 终极意义:意识能力本身即宇宙奇迹,体现为感知、连接与创造意义的主观体验 [72][74]
“为什么人工智能不可能有意识”
AI科技大本营· 2025-05-01 18:41
AI意识研究现状 - 当前大模型如OpenAI o1和DeepSeek R1表现出"拟态意识系统"特征,能模拟理解、情绪和逻辑但无真实主观体验 [2] - 2024年神经科学研究与AI发展交汇,但均未揭示意识本质:10年欧盟脑计划未破解大脑机制,大语言模型也未涌现意识 [5] - 意识研究陷入"路灯下找钥匙"困境,科学方法局限导致无法在神经元或算法层面发现意识根源 [6][7] 科学真实性的哲学突破 - 延迟选择实验证明基本粒子非客观实在,颠覆"科学真实性=客观存在"的传统认知 [9][11] - 真实性三元关系R(X,M,Y)揭示:科学真实仅是主体悬置(M不包含主体)、普遍可重复的经验真实类型之一 [16][17] - 拟受控实验(含主体变量)构成人文社会真实领域,与科学真实并列,为意识研究提供新方法论 [17][19] AI无意识的本质原因 - 人工智能设计基于科学原理,其受控实验前提排除主体变量,注定无法产生意识 [20] - 图灵测试行为主义谬误:将主体投射到输入输出关系中,混淆程序性记忆与陈述性记忆 [21][22] - 意识研究需转向拟受控实验领域,心理学证明包含主体的普遍可重复性才是关键路径 [23]