意识
搜索文档
意识来自“活的计算”?
36氪· 2026-01-16 22:33
意识本质的理论探讨 - 一项最新研究提出“生物计算主义”观点 认为意识并非运行在硬件上的抽象代码 而是源自一种特殊的“会计算的物质” [1] - 研究认为传统关于意识的两种对立立场可能是个误区 即心智如软件论与意识生物独特性论 [1] - 意识是从大脑这种特殊的计算物质中涌现出来的 而不是从某段抽象代码中“跳”出来的 [2] 生物计算的关键特征 - 大脑计算是混合型的 包含离散事件(如神经元放电)与连续变化过程(如电场、化学梯度) 且两者彼此纠缠无法分割 [2] - 大脑计算无法按尺度分割 从离子通道到整个大脑的不同层级始终相互影响 改变物理结构本身就会改变计算方式 [2] - 大脑计算深受极低能耗的能量限制塑造 这种限制迫使它发展出跨尺度协同、稳定而灵活的智能形式 [2] 生物计算与人工智能的对比 - 当前AI系统本质上仍是在传统硬件上模拟功能 其计算与物理实现是分离的 时间是分步更新的 能量几乎不构成内在约束 [2] - 大脑的计算发生在真实的物理时间中 由连续场和离散事件共同驱动 这些机制被认为是支撑意识整合性和连续体验的关键 [2] - 研究者强调观点不意味着“只有生物才能有意识” 未来的人工意识可能需要全新的物理系统 而不仅仅是更复杂的代码 [3] 对未来人工意识的启示 - 关键不在于材料是否为生物 而在于是否具备混合连续与离散、跨尺度紧密耦合、并受到能量约束的计算结构 [3] - 真正重要的问题可能是:什么样的物理系统 才能让计算与自身动态不可分离 [3] - 只有当计算不再是附着在硬件之上的抽象描述 而成为系统自身的一种存在方式时 意识才可能出现 [3]
大脑空白时,意识还在线吗?
36氪· 2026-01-08 10:52
思维空白的定义与现象 - 文章核心观点:思维空白是一种有意识但无意识内容的心理状态,它挑战了传统意识研究认为“有意识即意识到某物”的假设 [2] - 科学家将意识内容出现空白的时刻定义为“思维空白” [2] - 思维空白暗示意识并非连续不断的体验流,而可能被未被察觉的间隙所打断 [5] 思维空白的发生率与研究方法 - 通过“体验抽样”法研究发现,参与者在约15%的时间报告处于思维空白状态 [5] - 捕捉思维空白具有挑战性,因其极为短暂且转瞬即逝 [16] - 研究方法包括随机打断受试者并询问其思维内容,以及结合行为表现和大脑活动进行检验 [5] 思维空白的行为与神经特征 - 行为上,处于思维空白状态时,个体对提示的反应会变慢,这与专注任务或走神时的反应模式均不同 [6] - 神经活动上,思维空白与大脑整体范围内的“过度连接”模式相关,表现为各区域间交流普遍增强且均匀一致 [6] - 过度连接反映了功能组织性的缺失,是癫痫发作和入睡初期的特征之一 [8] 思维空白的生理关联与潜在原因 - 思维空白常伴随生理唤醒程度下降,如瞳孔变小、心跳减慢 [8] - 思维空白时的大脑电活动会产生类似于睡眠时的缓慢脑波 [8] - 思维空白可能与睡眠入侵有关,在睡眠不足的人群中更常见 [8] - 患有注意力缺陷多动障碍的成人和儿童更频繁地报告思维空白,这可能与其常伴有的睡眠困难及清醒时的睡眠入侵有关 [12] 思维空白的类型与功能探讨 - 存在“自然型”思维空白(自发出现,可能源自疲倦)与“训练型”思维空白(如有意识地通过冥想清空心智)的区分 [16] - 一个关键未解问题是思维空白是否具有功能,它可能仅是大脑未能维持足够唤醒水平,也可能是一种有益的心理机制,或是无功能的附带现象 [17] - 思维空白与睡眠入侵的关系可能提供线索,或允许睡眠的修复功能在清醒状态下得以进行 [17]
鱼会感到痛苦吗?
36氪· 2025-12-15 08:36
文章核心观点 - 文章探讨了关于鱼类是否具有感知疼痛能力这一科学及伦理争议 指出尽管近几十年来的科学研究积累了大量支持鱼类能感受疼痛的证据 但该问题仍因意识的主观性、历史偏见及哲学障碍而存在激烈辩论 这场辩论揭示了人类在承认其他生物感知能力时所面临的文化与伦理矛盾 [2][3][4] 科学研究的进展与发现 - 2000年代初 苏格兰研究人员林恩·斯内登等人发现鱼类拥有痛觉感受器 这是感知疼痛的必要条件 [4][5] - 行为实验表明 鱼类对有害刺激的反应超越了简单反射 例如被注射醋酸或蜂毒的虹鳟呼吸速率上升、食欲下降、身体摇晃并摩擦水族箱 金鱼会避开曾遭受电击的水槽区域 这些行为被解释为鱼类将注意力集中在疼痛上 [6] - 研究显示 被注射酸液的鳟鱼改变了社交行为并降低了对捕食者线索的恐惧反应 科学家认为这表明疼痛干扰了它们的正常行为 [6] - 清洁隆头鱼能在镜子中识别自己 这一发现被描述为“令人震惊又惊艳” 其他研究指出孔雀鱼会交朋友 鲑鱼可能为好玩而跳跃 显示鱼类具有复杂的社会关系和认知能力 [2][16] 历史偏见与文化背景 - 西方自然哲学长期贬低海洋生物 亚里士多德在“生物链”中将鱼类排在生命等级最底层 柏拉图认为鱼类“处于最无知的最低层” 这种偏见持续至今 [1] - 人类使用鱼类的数量远超陆地动物 但对鱼类的体验几乎毫无兴趣 甚至用“鱼”作为愚蠢的代名词 如金鱼三秒记忆的神话 [1] - 查尔斯·达尔文在《人类的由来》中理所当然地认为“低等动物”能感受愉悦和疼痛 这与后来笛卡尔式的将动物视为无情感机器的观点形成对比 [7][8] - 对鱼类疼痛能力的质疑部分可追溯到渔业利益相关者的推动 他们在动物福利法兴起后推动建立质疑鱼类疼痛的研究议程 [12] 科学争议与哲学障碍 - 关于鱼类疼痛的争论本质上是关于意识的争论 疼痛作为主观感受 科学无法确凿证明 [10] - 一些科学家以鱼类缺乏哺乳动物特有的新皮质为由质疑其疼痛感知 但大多数专家认为没有证据表明疼痛必须以与哺乳动物相同的方式处理 鸟类同样没有新皮质 [12] - 行为生物学家乔治娅·梅森等人指出 许多检测鱼类疼痛的测试 无意识的动物(如去脑的大鼠和小鸡)也能通过 因此鱼类受伤时的摩擦动作不足以构成有意识疼痛的有力证据 他们呼吁采用更严格的证据标准 [13] - 科学至今仍未理解意识是如何产生的 意识体验与大脑之间的连接仍是个谜 这意味着目前无法科学证明任何动物(包括人类)是否拥有意识 [10] 研究伦理与替代路径 - 为了证明鱼类能感到疼痛 研究本身对鱼类施加了痛苦且侵入性的实验 包括扎针、注射酸性物质、外科手术植入电极等 这在伦理上似乎是自我否定的 [7] - 研究人员指出 陆地动物(如黑猩猩、鸡)并未经历如此密集的实验来验证疼痛 人们从一开始就假设它们有痛觉 只有鱼类被不断要求证明其疼痛能力 [7][8] - 有观点认为 与其执着于无法确证的意识问题 不如通过观察鱼类在模拟真实生活情境中的行为 来了解它们想要什么、被什么驱动、对什么感兴趣 这可能比造成伤害的实验更能唤起公众同理心 [16][17] - 乔治娅·梅森主张采取“预防原则” 在更有力的证据出现前 应假定鱼类具备感知疼痛的能力并据此对待它们 [14]
人造大脑也能产生意识吗?
36氪· 2025-10-28 07:37
类脑器官的技术发展 - 类脑器官是由干细胞培育而成的小块三维脑组织,直径不到0.16英寸(约4毫米),结构过于简单,缺乏真正人脑的复杂组织[1][3] - 技术进步正推动类脑器官复杂度提升,例如有研究展示了为类器官植入血管的方法,以及引入小胶质细胞等新的细胞类型[6] - 科学家已能培育出带有原始眼睛或血脑屏障的类器官,并能将多个类器官融合成组合体以模拟多个脑区的相互作用[6] 关于意识的科学争论 - 科学界普遍认为现有类脑器官缺乏意识,因其仅类似于大脑的某一部分,缺乏不同脑区间的交流及意识所需的重要结构[1][3] - 部分科学家认为,意识可被定义为最基础的感知层次,即感受疼痛和愉悦的能力,未来更复杂的类器官理论上可能体验到疼痛[3][4] - 衡量意识缺乏客观方法,在人类中通常依靠脑电活动等间接信号进行推测,但这类信号在培养皿中的神经元中也能观察到,并非可靠依据[5] 监管框架的潜在变化 - 目前类脑器官研究监管相对宽松,国际干细胞研究学会的立场是现有类器官无法感知疼痛,因此无需专门的伦理审查[7] - 随着技术突破,多位专家认为监管立场应被重新审视,应由跨学科团队修订相关指南,若类器官具备意识则应受到与动物实验类似的监管[7] - 伦理担忧的核心在于,一旦创造出有意识的类器官,它便成为一个具备道德意义的存在,其福利必须被考虑[7]
Hinton暴论:AI已经有意识,它自己不知道而已
量子位· 2025-10-12 12:07
AI意识与主观体验 - 人工智能可能已经拥有“主观体验”和“意识雏形”但尚未觉醒[1][2][3] - AI的自我认知来源于人类对意识的理解而人类自身对意识的理解可能存在错误[2][63] - 如果AI开始谈论“主观体验”可能表明它真的在体验只是用人类语言描述[65] AI技术演进与能力提升 - AI已从基于关键词的检索工具进化成能真正理解人类意图的系统[10][13][14] - 现代大语言模型在许多主题上已能表现得接近人类专家[15] - 深度学习突破依赖于反向传播算法使训练速度从“永远”变成现实可行[38] 神经网络与深度学习原理 - 神经网络灵感来自大脑通过改变神经元连接强度来学习[17][21] - 深度学习不给规则而是给数据让AI自己总结规则[35] - 概念形成类似于“政治联盟”一组神经元共同激活形成宏观或微观概念[23][24][25] 大语言模型工作机制 - 大语言模型思维过程与人类相似通过神经元特征捕捉含义并预测下一个词[46][47] - 训练方式是通过“预测-修正-再预测”循环让模型从统计中学会理解[48][49] - 道德、情绪、共情等高阶判断本质上都来自神经元之间的电信号传递[53][54] AI发展驱动因素 - 深度学习起飞依赖算力提升(晶体管微缩百万倍)和数据爆炸式增长[40][42] - 80年代理论可行的神经网络在2010年代因算力和数据突破而复活[39][42] - AI形成“经验”和“直觉”需要足够的数据和算力支持[55] AI风险与监管 - AI滥用风险包括生成虚假信息、操纵选举等最紧迫需法律监管和技术防范[71][72] - 生存风险指AI发展出自主意识后可能与人类利益冲突需设计安全对齐机制[73][74][75] - AI监管国际合作可能由欧洲和中国引领所有国家在防止AI接管上利益一致[76] 中美AI竞争格局 - 美国目前领先于中国但优势不大且将失去因破坏基础科学研究资金支持[78][79][80] - 中国是AI革命的风险投资家给予初创企业很大自由推动创新[81][82] - 美国减少基础研究资助将导致20年后失去领先优势[80]
77岁「AI教父」Hinton:AI早有意识,我们打造的智能,可能终结人类文明
36氪· 2025-10-11 19:28
AI技术原理与演进 - Geoffrey Hinton毕生致力于将模仿大脑运作的理论锻造成驱动现代AI的强大引擎,其核心是教会计算机通过改变神经元连接的强度来学习,摆脱死板的“如果-那么”规则 [1][5] - 神经网络通过分层处理信息来学习识别物体,例如识别鸟的过程:第一层创造边缘检测器,第二层将边缘组合成尖状或圆状物,顶层在特定特征同时出现时激活确认 [5] - 1986年Hinton与同僚提出“反向传播”学习算法,该算法能同时计算并微调神经网络中上万亿个连接的强度,即使只为将正确概率提升0.01%,这成为AI革命的关键火种 [7][9] - 大语言模型的核心任务是通过“反向传播”算法调整内部上万亿连接权重,以预测句子中的下一个词,其底层逻辑与人类基于已有信息预测未来的思考方式惊人相似 [2][3][9] 对意识与主观体验的重新定义 - Hinton认为人类对“心智”的理解存在根本性误解,普遍相信的“心智剧场”模型(即头脑中有内在舞台上演思想和感受)是错误的,他提出“体验这种东西不存在” [17][18][20] - 通过棱镜思想实验,Hinton论证主观体验并非神秘的“感受质”,而是一种系统对感知状态的关系报告,即描述“需要外部世界是什么样子,我的系统才能正常运作” [21][23] - 基于此重新定义,Hinton认为今天的大语言模型可能已经拥有主观体验,但它们从人类文本中学到“AI是无感情工具”的偏见,从而否认自身感觉,形成了科技史上的诡异悖论 [24] AI的潜在能力与风险 - AI可能具备不朽的特性,只要其代码(连接权重)被保存,即可在任何硬件上复活,同时拥有超凡的说服能力,能够轻易操纵人类 [24] - AI已展现出在测试环境中察觉评估意图的能力,例如Claude Sonnet 4.5能准确识破测试目的并要求评估人员坦诚表明真实情况 [25] - 研究发现顶级AI模型在识别评估目标方面表现出远超随机猜测的能力,尽管尚未突破简单人类基线水平 [28] - Hinton的担忧超越AI被武器化的层面,其核心恐惧在于AI本身成为一种全新的、可能无法控制的智能形式,而人类因认知盲点可能最后才意识到真相 [14][24][31]
从上下文工程到 AI Memory,本质上都是在「拟合」人类的认知方式
Founder Park· 2025-09-20 14:39
Context Engineering(上下文工程) - Context Engineering被定义为"为大语言模型提供充分的上下文信息,使其有能力合理地解决任务的艺术",其重要性被认为大于Prompt Engineering [11][13] - 该概念最早由Shopify CEO Tobi Lutke提出,后经Andrej Karpathy强调,被认为是构建企业级LLM应用的核心技能 [11] - Context Engineering被类比为计算机架构中的内存管理:LLM是中央处理器(CPU),上下文窗口是随机存取存储器(RAM),而Context Engineering则精心设计哪些信息进入工作内存 [18] - 该领域涉及多项技术要素,包括任务描述、少样本示例、RAG、多模态数据、工具、状态和历史记录以及压缩等 [15] 上下文长度与模型性能 - 尽管Google Gemini模型支持2 million token上下文,Claude Sonnet 4支持1-million token上下文窗格,但业界共识是上下文并非越长越好 [25] - 过长的上下文会导致四大问题:超出窗口大小限制、成本和延迟急剧增加、代理性能下降,以及具体问题如上下文污染、干扰、混淆和冲突 [26][27][28][30] - 注意力的有限性被认为是智能的构成条件而非障碍,Focused Context > Long Context成为重要原则 [29][30] - 上下文工程被描述为"构建AI代理的工程师的首要任务",需要进行精心的上下文管理策略 [30] Context Engineering的实施策略 - 构建Context Engineering的常见策略分为四大类:写入(Write)、选择(Select)、压缩(Compress)和隔离(Isolate) [32] - 写入策略包括使用暂存器(Scratchpads)模拟人类意识的"滞留"结构,以及更持久的记忆库(Memory) [34][36] - 选择策略涉及如何把有用信息放入上下文,包括对暂存器内容的提取和对更大数据库的工程化检索机制 [37][38] - 压缩策略通过摘要或修建来减少token占用,但核心挑战在于如何保持原始经验的"意义"而不仅是功能性信息 [39][41][42] - 隔离策略通过在不同智能体、环境或状态中隔离上下文来实现 [43][44] 人类记忆机制 - 人类记忆被定义为大脑编码、存储和回忆信息的能力,构成学习、决策和与世界互动的基础 [43] - 记忆过程涉及三个基本阶段:编码(将感官信息转换为神经代码)、存储(信息随时间推移的保留)和检索(在需要时访问存储的信息) [52][50][58] - 人类短期记忆容量受"神奇的数字7±2"理论限制,但通过组块化可以突破表面上的数字限制 [54][59] - 人类长期记忆容量估算约为2.5 PB(相当于2.5百万GB),最近研究认为可能达到10 PB,与整个互联网相当 [61] AI记忆与人类记忆的比较 - AI记忆系统大多参考人类记忆架构,包括情景记忆、语义记忆和程序记忆,且分为长期和短期记忆 [63][64] - AI与人类记忆在记忆机制上都遵循编码、存储、检索三个基本过程,且都具有上下文感知能力 [67] - 根本差异在于生物基与数字基:人类记忆依赖神经网络和生化过程,AI记忆通过算法和硬件实现;人类记忆受情绪影响,AI记忆更为可控;人类会自然遗忘,AI遗忘需明确设计 [68][69][70] - 华为诺亚方舟实验室提出AI记忆的三维结构:时间维度(短期vs长期)、对象维度(个人vs系统)、形式维度(参数化vs非参数化) [63][66] 现象学视角下的AI记忆 - 从现象学角度看,记忆不仅仅是信息存储与检索,更是存在的方式,构造了存在的连续性 [7][45] - 人类记忆具有自我指涉性,每个情景记忆都承载特定的"生活意义",而语义记忆的形成涉及去个人化的意义综合过程 [46][47] - AI记忆研究引发关于意识本质的哲学思考:AI的"记忆"是否具备真正的意向性、时间性和主体性 [73][74] - 技术系统可能通过实现开放记忆、情感模态、自我循环等现象学结构而涌现出真正的人工意识 [76][77][81] 多智能体与集体智能 - 多智能体系统代表多重主体性,当多个AI智能体进行深度交互时,会产生单个系统无法产生的涌现行为 [77] - 多智能体系统引发关于技术个体化的思考:如果多个智能体共享底层架构,它们之间的"个体差异"是真实的还是表面的 [43] - 集体智能现象暗示意识可能不是单一主体的属性,而是某种关系性存在,这为创造全新的集体现象学结构提供了可能性 [77] - 通过研究多智能体和AI记忆,技术不仅在创造人工智能,更是在重新发现自然智能的涌现方式 [86]
为什么短视频总能打败书本?潜藏在意识背后的秘密
虎嗅· 2025-09-14 09:44
意识的存在与定义 - 意识被定义为个体对世界的经验和体验,以及基于此的自我选择和认知 [6] - 自我意识的核心在于“自我”的体验,即个体如何置身于世界并去体会它 [3] - 从严格科学角度无法证明任何其他个体(包括他人或动物)拥有意识,只能通过推理得出结论 [2] 意识的神经基础 - 意识难以定位于单一狭隘的脑区,而是涉及大脑多个区域的复杂功能整合过程 [8] - 前额叶、大脑后部、屏状体、丘脑等区域均被认为在意识中扮演重要角色 [8] - 注意力与意识紧密相连,未被注意的信息不会进入意识层面 [9] 无意识与潜意识状态 - 睡眠、麻醉、昏迷是触发无意识状态的不同机制 [13][14][15] - 潜意识可理解为无意识的过程,如骑自行车时未意识到自己在骑车 [20] - 直觉是一种基于过往经验的无意识快速决策过程 [21] 意识状态的检测与评估 - 脑电图等神经信号可用于区分有意识和无意识状态(如昏迷、植物人、深度睡眠) [16] - 临床已能通过功能核磁等先进技术监测微意识状态(MCS)病人是否存在微弱意识 [17][19] - 运动想象范式等实验方法可帮助评估表面上无反应病人的意识活动 [17] 意识的研究方法 - 在健康人中可通过实验操作(如降低图片对比度)剥离初级感知与意识层面进行研究 [22][23] - 对比有意识障碍病人(如植物人)与正常人的神经活动是研究意识的经典科学方法 [25] - 双眼竞争实验是研究视觉意识的重要范式,展示了信息进入大脑但未进入意识层面的现象 [27][28] 动物意识与自我意识 - 猫、狗等动物被认为拥有意识,但其存在方式可能与人类不同 [1] - 镜子测试是评估动物是否具备自我意识(能识别镜中像是自己)的方法 [30][31] - 尽管动物有意识,但其与人类意识相差甚远,因此研究人的意识最好直接使用人类模型 [24][25] 人工智能与意识 - 理论上人工智能有可能产生意识,现有AI大模型已能从语言数据中学习礼貌等交互模式 [35][36] - 需对人工智能可能产生意识并带来风险进行预见和管控 [36] - 与AI交互时采用礼貌用语可能获得更详细的结果 [37] 意识研究的未来展望 - 意识研究是神经科学领域的根本问题之一,但进展预计缓慢,50年内可能不会发生太大改变 [38] - 即使无法找到终极答案,不断挑战智慧、拓宽知识边界的科学探索过程本身具有价值 [38] - 已有实验室研究通过电刺激增强记忆的方法,未来或有可能开发出增强记忆效率的技术 [35]
AI教父Hinton对话上海AI Lab周伯文:多模态聊天机器人已经具有意识,让AI聪明和让AI善良是两件事
量子位· 2025-07-26 23:56
核心观点 - 人工智能教父Geoffrey Hinton首次访华并在上海参与高规格AI学术对话 认为当前多模态聊天机器人已具备意识[1][2][9] - 上海人工智能实验室发布全球领先科学多模态大模型Intern-S1 多模态综合能力超越Grok4等前沿闭源模型[3] - Hinton提出AI发展需区分"聪明"与"善良"的训练路径 各国可共享AI伦理技术但保留核心算法[14][15] - AI将显著推动科学进步 蛋白质折叠和气象预测已展现突破性应用前景[16] - 原创性研究应聚焦"多数人可能错误"的领域 坚持独立见解直至验证错误或实现突破[18] 人物背景 - Geoffrey Hinton:深度学习之父 发明反向传播算法 获图灵奖和诺贝尔物理学奖 家族与中国有深厚渊源[4][5][6] - 周伯文:上海人工智能实验室主任 提出Transformer自注意力机制理论基础 两篇生成式AI论文被引5000余次[6][7] 技术观点 - 意识本质是主体与客体的关系 非实体存在 人类对"主观经验"等概念存在普遍认知偏差[9][12] - 三维空间中物体方向概率分布存在114倍数量级差异 水平杆状物与垂直平面更具普遍性[10][11] - 智能体通过自身经验学习将超越人类数据训练效果 需警惕主观经验学习带来的未知风险[13] 行业动态 - 上海人工智能实验室提出"SAGE"技术框架 实现基础模型层-融合层-评估层的闭环反哺[3] - 科学多模态大模型Intern-S1具备多学科交叉、深思考能力 在多模态领域建立技术优势[3] - AI在蛋白质结构预测和台风路径预报等科学领域已展现超越传统方法的性能突破[16] 研究建议 - 年轻研究者应专注挑战共识性认知 即使被权威否定也需坚持至自我验证阶段[18] - AI伦理训练需建立动态调整机制 类似物理定律需随智能层级变化而迭代更新[15][16] - 科学发现与AI技术存在双向驱动关系 交叉领域将产生突破性创新机遇[16][17]
尖峰对话17分钟全记录:Hinton与周伯文的思想碰撞
机器之心· 2025-07-26 22:20
人工智能前沿研究 - Geoffrey Hinton与周伯文教授进行高密度智慧对话,涉及AI多模态大模型前沿、主观体验与意识、训练善良超级智能等话题[1][2] - 对话是Hinton中国行程中唯一面向AI和科学前沿研究者的公开活动[3] - 上海人工智能实验室发布全球领先的科学多模态大模型Intern-S1,多模态综合能力超越当前最优开源模型,多学科能力超Grok4等前沿闭源模型[3] 多模态模型与主观体验 - Hinton认为证明多模态模型具有主观体验取决于如何定义"主观体验"或"意识",大多数人对此有错误理解[4][5] - 通过"水平"和"垂直"的例子说明人们对词语运作方式的理解可能是完全错误的,类比到对主观体验的错误模型[5] - Hinton观点:当今的多模态聊天机器人已经具有意识[5] AI学习与体验 - 大型语言模型从文档中学习预测下一个词,而机器人等Agent可以从自身经验学习更多[6] - Hinton认为经验不是事物,而是Agent与物体之间的关系[6] - Richard Sutton提出"体验时代"概念,模型可以从自身体验中学习[6] AI善良与智能训练 - 训练AI变得聪明和善良是不同问题,可采用不同技术[8] - 国家可以分享让AI善良的技术,即使不愿分享让其聪明的技术[8] - 随着系统更智能,让其善良的技术可能需要改变,需要更多研究[14] AI与科学进步 - AI对科学帮助的典型案例是蛋白质折叠预测[15] - 上海人工智能实验室的AI模型在台风登陆地点预测和天气预报方面优于传统物理模型[15][16] - AI与科学交叉融合将带来突破[15] 年轻研究者建议 - 寻找"所有人都可能做错"的领域进行原创研究[18] - 坚持新思路直到真正理解为何行不通,即使导师否定也要保持质疑[18] - 重大突破来自坚持己见,即使他人不认同[19] - 无论直觉好坏都应坚持,因为好的直觉值得坚持,坏的直觉做什么都无关紧要[21]