Workflow
AlphaFold
icon
搜索文档
深度|谷歌DeepMind CEO:中国在AI技术能否实现重大突破尚未验证,发明新东西比复制难一百倍
搜狐财经· 2026-02-02 15:26
公司战略与组织架构 - Google DeepMind是Google所有AI研究的整合实体,汇集了Google Research、Google Brain和DeepMind,作为公司的“发动机室”负责所有AI技术的研发,然后扩散到各个产品中[41] - 公司内部进行了大规模重组,将所有AI团队整合到Demis Hassabis领导下的DeepMind,形成了高度统一的技术体系和紧密的迭代闭环,这被认为是2025年通过Gemini 3取得显著成效的关键[42][53] - 公司与三星等主要设备制造商建立了深度合作,Gemini已成为三星手机的核心AI和主要聊天机器人,并且也将成为苹果新版本Siri的核心引擎,这为技术提供了巨大的部署平台[43][52] 技术进展与产品竞争力 - Gemini系列模型表现强劲,最新版本Gemini 3让公司重新回到了AI排行榜的前列,被认为几乎可以与ChatGPT平起平坐,甚至在某些方面表现更好[3][30] - 公司认为实现AGI(通用人工智能)还需要5到10年时间,并且需要一两项重大的创新,而不仅仅是对现有理念(如Scaling Laws)的规模化提升[6][10] - 当前AI系统(如LLMs)的智能是碎片化的,缺乏持续学习、在线获取新知识和真正创造原创内容的能力,要实现AGI需要发展“世界模型”以理解物理规律和因果关系[7][8] - 公司正在开发名为Genie的交互式模型以及先进的视频模型,这些被视为早期“胚胎”世界模型,是迈向AGI所需的其他关键技术和能力[9][10] 行业竞争格局 - AI领域的竞争环境被描述为科技行业有史以来最激烈的,几乎所有最有能力的参与者和大型科技公司都已入场[28] - 中国在AI领域的进展迅速,其模型(如DeepSeek、阿里巴巴的模型)与美国和西方的前沿模型相比可能只落后几个月,但在实现真正的原创性突破方面尚未得到验证[35][36][37] - 行业部分领域可能存在估值泡沫,特别是私募市场中一些几乎没有产品或业务的项目筹集了数十亿美元资金,但从长远看不可持续[32] - 拥有强大资产负债表和稳定现金流的大型科技公司(如Google、Microsoft、Meta)在激烈的竞争中处于更有利的位置,能够调整方向并持续投入[40][53] 研发重点与未来展望 - 公司长期致力于将AI作为科学的终极工具,其AlphaFold项目解决了存在50年的蛋白质折叠难题,被超过300万研究人员使用,是AI应用于科学的最佳案例[4][48] - 公司正在多个科学领域推进类似AlphaFold的变革性项目,涵盖材料科学、物理学、数学以及天气预测等,有望开启科学发现的新黄金时代[48] - 预计2026年AI领域的重要进展包括:能够自主执行任务的智能体系统开始变得可靠并真正发挥作用;机器人领域将出现有趣进展;设备上的AI助手将在现实世界中发挥作用;世界模型将得到进一步推进[49] - AI被视为解决社会重大挑战(如气候变化、疾病、能源问题)的关键工具,同时其自身的发展也是一项需要谨慎管理的挑战[11][17] 基础设施与算力 - 公司除了使用GPU,还拥有自研的TPU芯片,通常用于内部训练性能最强的模型,而GPU则用于探索新的架构或应用(如AlphaFold)[11][48] - 算力和能源是AI发展的关键瓶颈,AI本身也能帮助提高基础设施效率、改进材料设计(如更高效的太阳能材料)甚至推动核聚变等突破性技术发展以解决能源问题[11] - 通过模型蒸馏等技术创新,AI系统的效率每年以约10倍的速度提升,推动每瓦特计算性能大幅增长[12]
深度|谷歌DeepMind CEO:中国在AI技术能否实现重大突破尚未验证,发明新东西比复制难一百倍
Z Potentials· 2026-02-02 13:00
文章核心观点 - Google DeepMind首席执行官Demis Hassabis在访谈中阐述了公司在人工智能领域的战略布局、技术进展与未来展望,核心观点包括:扩展定律仍有效但需结合重大创新以实现AGI、世界模型是迈向AGI的关键能力、AI是解决全球重大挑战的双刃剑且需负责任地开发、Google通过内部重组与整合已形成强大的AI产品化能力并在激烈竞争中占据有利位置[7][11][14][17][31][42] 技术进展与AGI路径 - **扩展定律与模型能力**:通过增加算力、数据量和模型规模,系统能力仍在获得非常可观的回报,但迈向AGI可能还需要一两项重大的创新,而不仅仅是对现有理念的规模化提升[7] - **当前AI系统的局限性**:现有系统智能表现是碎片化的,缺乏一致性,且无法持续学习、在线获取新知识或真正创造原创内容,这些能力对于实现真正的AGI仍然缺失[8] - **世界模型的关键作用**:为实现AGI,需要系统理解世界的物理规律和因果关系,能够进行长期规划并验证假说,即构建“世界模型”,这是顶尖科学家所做的事情而当前AI系统尚无法做到[9][10] - **技术融合趋势**:基础模型(如Gemini)仍是核心,但实现AGI需要世界模型等其他类型的技术和能力,这些技术最终会趋向融合,例如将视频生成模型视为早期“胚胎”世界模型[11] - **实现AGI的时间表**:DeepMind创立时设想为约20年的长期使命,目前认为距离实现展示所有认知能力的AGI大约还有5到10年时间[11] 行业竞争与市场格局 - **竞争环境异常激烈**:被描述为科技行业有史以来最激烈的竞争环境,几乎所有最有能力的参与者(科技巨头和优秀初创企业)都在参与,因为AI被视为迄今为止最重要的技术[29] - **Google的竞争策略与调整**:过去两到三年,公司回归到类似初创公司的灵活、快速模式,快速推出产品并取得实质性进展,这在Gemini系列中得到了体现,并使其重新回到了排行榜的前列[31] - **对中国AI进展的评估**:中国在开发强大AI模型方面比一两年前预想的更接近美国和西方的前沿模型,可能只落后几个月,但关键问题在于其能否在前沿之外实现真正的、突破性的创新[35][36] - **AI行业是否存在泡沫**:行业的某些部分可能存在泡沫,但AI将成为人类历史上最具变革性的技术是核心支撑,过度热情不可避免,随后可能迎来清算,真正有价值的事物将生存并繁荣,特别指出私募市场中种子轮融资达数十亿美元却几乎无产品的情况不可持续[33] - **Google的竞争优势**:拥有强大的资产负债表、自由现金流和数十款拥有数十亿用户的产品,AI可以自然融入所有这些产品,使其无论未来局势如何发展都能处于有利位置并从中受益[34][40][53] 公司战略与业务整合 - **DeepMind与Google的整合**:过去三年,Google将所有的AI研究整合为Google DeepMind实体,汇集了Google Research、Google Brain和DeepMind,该团队被视为整个公司的“发动机室”,负责所有AI技术开发并扩散到各个产品中[41] - **高效的内部协作与部署**:CEO与Google/Alphabet的CEO几乎每天沟通战略,内部构建的基础设施使新模型(如Gemini)能够非常快速地部署,几乎可以当天或第二天就上线到搜索等核心产品,形成了紧密的迭代闭环和高度统一的技术体系[42] - **通过合作伙伴扩大生态**:技术与三星等大型设备厂商合作,将其作为核心AI集成到智能手机等终端,并对边缘计算和在更多设备(如智能眼镜)上部署AI助手的概念非常感兴趣[43][52] - **收购DeepMind的历史价值**:Google在2014年以约4亿英镑(当时约5.4亿美元)收购DeepMind,按照现在的估算,这笔投资的价值可能已达到数百亿甚至上千亿美元,收购被证明与Google“组织全球信息”的使命高度契合[5][44][45] AI的应用与影响 - **AI作为科学发现的终极工具**:AI最终将成为科学的终极工具,已通过AlphaFold(解决了存在50年的蛋白质折叠难题,超过300万研究人员使用)等项目证明,未来有望在材料科学、物理学、数学等多个领域开启科学发现的新黄金时代[9][47][48] - **解决能源等全球挑战**:AI本身是能源消耗者,但也能帮助提高基础设施效率、改进材料设计(如更高效的太阳能材料)、推动核聚变等突破性技术,甚至可能帮助发现室温超导材料,被认为是AI最有前景的应用场景之一[12] - **积极影响与潜在风险**:AI可能成为人类历史上最具深远影响和正向价值的技术之一,其应用包括加速药物发现以攻克疾病,但同时也可能带来类似工业革命但规模更大、速度更快的经济冲击,以及被用于恶意目的或自主系统偏离预期等风险[13][14] - **2026年及未来的关键进展**:预计能够自主执行任务的智能体系统将开始变得足够可靠,机器人领域将出现有趣进展,设备上的AI助手将在现实世界中真正发挥作用,世界模型的进一步推进以实现更高效的规划也令人兴奋[49] 产品与市场部署 - **Gemini系列的发展**:Gemini模型的表现让公司重新回到了竞争前列,其背后技术很大程度上来自DeepMind,最新版本Gemini 3的反响非常好[5][31] - **广泛的产品集成与用户触达**:Google开发的AI能够在其整个产品矩阵(如Chrome、Gmail)中全面铺开,借助Android操作系统约70%的全球市场份额,可以迅速触达海量用户,这构成了巨大的市场推广优势[51] - **关键合作伙伴关系**:三星已全面采用Gemini作为其核心AI,苹果也将在新版本Siri中使用Gemini作为核心引擎,这为Gemini提供了巨大的平台和市场份额[52]
AlphaGo之父David Silver离职创业,目标超级智能
机器之心· 2026-01-31 10:34
核心事件 - 谷歌DeepMind知名研究员David Silver已离职并创办AI初创公司Ineffable Intelligence [1] - 公司成立于2025年11月,Silver于2026年1月16日被任命为董事,目前正在伦敦积极招聘研究人员并寻求风险投资 [3][4] - Silver在离职前数月处于休假状态,谷歌DeepMind已证实其离职并高度评价其贡献 [4] 创始人背景与成就 - David Silver是DeepMind创始成员之一,与联合创始人Demis Hassabis大学时期相识,是公司多项突破性成就的关键人物 [9] - 其关键贡献包括:2016年击败世界冠军的围棋AI AlphaGo [9]、2019年达到《星际争霸II》大师级水平的AlphaStar(排名前0.2%)[12]、能超人水平玩多种棋类的AlphaZero与MuZero [14]、2024年达到国际数学奥赛银牌水准的AlphaProof [14] - 他是2023年介绍谷歌首个Gemini系列AI模型研究论文的作者之一 [14] - 目前仍保留伦敦大学学院的教授职位 [9] - 拥有极高的学术影响力:论文总被引次数超过28.5万次,h-index为104,i10-index为180 [16][17] - 是2024年图灵奖得主Richard Sutton的门生,以强化学习研究闻名,被认为是该领域最坚定的支持者之一 [17][18] 创业动机与公司愿景 - Silver渴望重拾“解决AI领域最棘手难题的敬畏与奇妙之感”,并将实现“超级智能”视为最大未解之谜 [14] - 他认为大型语言模型受限于人类知识,呼吁AI进入以强化学习为基础的“经验时代”,以实现超越人类认知的AI [18][20] - Ineffable Intelligence旨在构建一种能够不断学习、自主发现所有知识基础的超级智能 [23] 行业趋势与竞争格局 - 近年来多位顶尖AI研究人员离开大型实验室创办追求超级智能的初创公司,形成趋势 [15] - 例如:OpenAI前首席科学家Ilya Sutskever于2024年创立Safe Superintelligence (SSI),已融资30亿美元,估值达300亿美元 [15] - Silver在DeepMind的同事也离职创办了同样研发超级智能的Reflection AI [15] - Meta重组AI部门成立“超级智能实验室”,而原首席AI科学家Yann LeCun选择离职创业 [15] 技术理念与差异 - Silver认为当前大语言模型的“预训练”和基于人类反馈的“后训练”阶段,其能力上限被人类知识锁死 [18][20] - 强化学习通过试错和反馈进行决策,能使AI自主探索并发现人类未知的新事物,是通往超级智能的途径 [17][18] - 他以AlphaGo和AlphaZero的“非人类”但绝妙的决策为例,说明基于人类偏好的评估可能限制AI潜力 [20][23] - 其理念是AI需要超越并可能摒弃人类知识,从基本原理出发学习以实现目标 [23]
顶尖模型离“科学家”还差得远?AI4S亟待迈向2.0时代
机器之心· 2026-01-30 18:43
行业趋势与战略判断 - 当前科学智能(AI for Science, AI4S)在蛋白质折叠等特定领域取得里程碑成就,但《自然》杂志研究指出过度依赖现有深度学习模型可能局限新知识探索并阻碍创新[1] - 一项系统性评估联合10个不同科学领域的100位科学家构建评测题目,结果显示前沿模型在通用科学推理任务中得分可达50分(满分100),但在各类专业推理任务中得分骤降至15-30分,表明存在明显的“木桶效应”[1][71] - 行业正处在通用人工智能(AGI)前夕,但面临“通专融合”智能环节的缺失,亟需推动科学智能从AI4S 1.0向2.0迭代,即迈向AGI4S[2] - 通往AGI的战略路径是“通专融合”,即构建能够动态融合直觉式“系统1”与逻辑式“系统2”的智能架构,在保持通用认知基座的同时,能在特定任务上实现专家级专精[10][11] - 2024年末OpenAI o1与2025年初DeepSeek-R1的出现,通过在大模型上应用强化学习提升逻辑推理能力,验证了“通专融合”路径预判的正确性[14] - 科学发现被视为推理智能的终极前沿和AI探索的绝对前沿,因其对AI提出了处理组合爆炸(如10^60量级搜索空间)、分布外知识泛化以及稀疏延迟奖励的三重极限挑战[15][19] 核心技术架构:SAGE - 为将“通专融合”战略落地,上海人工智能实验室提出了“智者”SAGE技术架构,这是一个旨在弥合广泛泛化与深度专精鸿沟的递归循环统一认知生态系统[17][18] - SAGE架构由三个逻辑耦合的层次构成:底部的基础模型层致力于知识与推理能力的解耦;中间的融合协同层动态协调快慢思考;顶层的探索进化层赋予AI主动能动性[18][20] - 该架构通过双向循环实现全栈进化:底层表征自下而上支撑推理,顶层探索获得的高水平反馈自上而下回流,将“未知”转化为新的训练信号,推动认知策略持续进化[18] 基础模型层创新 - 记忆解码器(Memory Decoder)作为预训练、即插即用的独立组件,旨在解决现有大模型将事实记忆与逻辑推理混淆的问题[22] - 该组件采用与基础模型并行运行并融合输出分布的机制,用紧凑的参数化模型替代传统非参数检索器,在无需修改基础模型参数、无在线检索开销下实现高效知识注入[22] - 实验数据显示,其推理开销仅为基础模型的1.28倍,显著低于现有主流方案,成功填补了高密度知识供给与推理引擎解耦之间的技术鸿沟[22] 融合协同层算法突破 - 针对复杂推理需要密集过程监督但人工标注成本高昂的矛盾,提出了隐式奖励强化学习算法PRIME,利用策略模型与参考模型间的统计差异,隐式习得Q函数,从而推导出密集的逐步奖励信号[28][31] - 在AIME 2024数据集上,PRIME使模型准确率提升23.4%;在AMC数据集上提升27.7%;在MATH-500等测试中也取得显著增长[38] - 研究发现强化学习训练中策略熵会急剧下降导致“熵坍缩”,使模型过早自信并停止探索,而验证性能与熵呈现显著的对数线性相关[39][40] - 提出了精准化、局部化的熵控制方案,应用该策略后,模型在保持高探索能力的同时显著提升了下游任务准确率,该方法已被Intern-S1等多个头部机构采纳[40] - 为克服传统强化学习以奖励最大化为目标导致的“模式崩溃”,引入了FlowRL,将学习目标从“奖励最大化”重构为“分布匹配”,使模型学习所有有效推理路径的概率分布[47][48] - 实验显示,FlowRL生成的分布与目标分布的KL散度大幅降低至0.11(传统方法为8.68);在32B模型上,其数学推理准确率达48.39%,较GRPO提升10个百分点;生成的解决方案多样性评分约为PPO的2倍[50] 探索进化层机制 - 提出了测试时强化学习框架,其核心假设是“共识即正确性”,在推理时对多个候选解采样,将多数投票结果作为代理奖励,对模型参数进行在线更新,实现了无监督环境下的自我增强[56][58] - 实测数据显示,搭载TTRL的Qwen-2.5-Math-7B模型在AIME 2024数据集上准确率实现了159%的相对提升,性能甚至逼近使用真实标签训练的理论上限[60][62] - 研发了大规模交互验证环境InternBootcamp,覆盖8大任务类别、超1000种多样化环境,支持将专业领域任务转化为可验证环境[61] - 基于InternBootcamp的实验发现,当任务类型数量从8种扩展至512种时,模型性能持续上升,证实了与任务数量增长相关的规模化定律存在[66] - 在具身智能领域,提出了极端数据稀缺下的在线强化学习框架SimpleVLA-RL,仅用极少数据与计算资源便取得了与先进模型比肩的性能,实现了智能体在物理世界中的“具身化”演进[64][69] 公司实践与基础设施 - 研发了“书生”科学多模态大模型Intern-S1,作为SAGE架构在科学领域的体现,旨在构建“可深度专业化通才”[77] - Intern-S1在基础层采用动态分词器与专用编码器,原生支持DNA序列、蛋白质结构等10余种模态,在科学数据上的压缩率较GPT-OSS等通用模型提升1.7倍,并基于2.5万亿高质量科学Token进行预训练[77] - 测评结果显示,Intern-S1在通用能力上对齐顶尖开源模型,而在涵盖化学、生物、材料等9大领域的科学性能上,全面超越了包括GPT-5和Grok-4在内的顶尖闭源模型[79] - 构建了“书生”科学发现平台Intern-Discovery,这是一个将Intern-S1与海量数据、2000+专业工具及湿实验室验证环境深度融合的智能体系统,实现了从假设生成到实验验证的闭环[80] - 平台引入了科学智能上下文协议,以标准化调度科学资源和工作流;并通过分层记忆模块沉淀研究模式、记录实验细节并整合长期知识[86] - 在气候科学领域,Intern-Discovery自主调用30余种工具,分析20年多模态数据,编写4000多行专业代码,成功发现被人类专家忽略的关联并推导出新方程,有效修正了系统性偏差[81] - 在生物医学领域,虚拟疾病生物学家“元生”成功在数据稀疏条件下发现并验证了具有高临床潜力的隐藏靶点,展示了全流程智能化能力[84]
GPT-5.2破解数论猜想获陶哲轩认证,OpenAI副总裁曝大动作
36氪· 2026-01-29 21:24
OpenAI发布AI科研平台Prism并成立OpenAI for Science团队 - 公司于凌晨发布了新一代AI科研平台Prism,该平台由GPT-5.2加持,供科学家撰写和协作研究,即日起向所有拥有ChatGPT个人账户的用户免费开放 [1] - 公司副总裁Kevin Weil表示,目标是赋予每位科学家AI超能力,让世界在2030年就能开展2050年的科学研究 [1] - 公司于2025年10月宣布成立全新的OpenAI for Science团队,核心致力于探索大语言模型助力科研人员的路径,并优化旗下工具为科研人员提供支持 [1] OpenAI布局科研领域的战略意图与竞争格局 - 公司认为,通用人工智能(AGI)能为人类创造的最重大、最积极的价值,正是其推动科学进步的能力,例如帮助探索全新的药物、材料和器械 [3] - 在AI科研领域,公司已面临激烈竞争,谷歌DeepMind早在数年前便已成立AI-for-science团队,并打造了AlphaFold、AlphaEvolve等具有开创性的科学模型 [2] - 公司布局OpenAI for Science,很大程度上是为了在科研这一新领域抢占先机,因为真正的技术创新尚未到来 [16] GPT-5系列模型在科研中的能力评估与表现 - 公司副总裁Kevin Weil评价当前模型的实际能力时表示,模型还达不到取得颠覆性新发现的水平,但能让人不必把时间浪费在已经解决的问题上,这也是对科研的一种加速 [2] - 搭载了推理模型的GPT-5,在解决复杂问题方面较GPT-4有了质的飞跃,在包含400多道博士级专业问题的GPQA基准测试中,GPT-4正确率为39%,而GPT-5.2正确率达到92% [5] - 模型能力被认为早已超过90%的研究生,甚至达到了人类能力的极限,例如能在国际数学奥林匹克竞赛中取得金牌级成绩 [5] - 模型擅长找到科研人员尚未意识到的现有研究成果及关联线索,协助草拟数学证明过程,并为实验室验证假说提供实验思路 [8] - 模型几乎阅读了过去30年发表的每一篇论文,不仅能理解本领域内容,还能从其他不相关的领域中提炼出可类比的思路 [9] GPT-5在科研应用中的实际案例与用户反馈 - 一位开通了GPT-5付费服务的科研人员反馈,GPT-5会犯一些比人更愚蠢的低级错误,但一直在进步 [2] - 范德堡大学物理与天文学教授Robert Scherrer表示,他和研究生为一个问题钻研了数月都毫无头绪,GPT-5却成功解决了它,但模型仍会犯一些低级错误 [10] - 非营利性研究机构杰克逊实验室的生物学教授Derya Unutmaz表示,以前需要几个月才能完成的数据集分析,现在用大语言模型就能完成,不用大语言模型已经行不通了 [10] - 加州大学伯克利分校的统计学家Nikita Zhivotovskiy认为,大语言模型最有用的地方在于能挖掘出其研究工作与一些未知现有研究成果之间的意外关联,但几乎没见过模型能提出真正值得单独发表的全新观点 [10] - 利物浦大学化学教授Andy Cooper表示,其团队并不会借助大语言模型构思研究思路,但这项技术已开始在更庞大的自动化系统中显现实用价值,比如大语言模型可协助操控机器人 [11] 模型存在的缺陷、引发的争议及优化方向 - 模型存在“幻觉”问题,曾导致科学期刊论文出现核心思路错误,例如将检测非线性理论的实验方案错误地设计为检测非定域性理论 [12] - 去年10月,公司高管曾宣称GPT-5已为多个数学未解难题找到解决方案,但事后被数学家指出只是从早期研究论文中挖掘出了已有的答案,相关帖子随后被删除 [6] - 近期有消息称,GPT-5.2 Pro破解了一道埃尔德什猜想(第281号),其提出的新证明方法已被菲尔茨奖得主陶哲轩验证并收录,证明思路与之前的方法“相当不同” [7] - 公司正对模型整体设计作两大思路优化:一是让GPT-5在给出答案时降低置信度,具备认知层面的谦逊性;另一方向是利用GPT-5反向对自身输出进行事实核查 [3][14] - 公司正在探索让模型充当自身校验者的工作流程,即一个模型完成初步推理,再将结果交由另一模型审核,通过筛选和反馈进行改进,这与谷歌DeepMind为AlphaEvolve打造的模式高度相似 [15] 对AI驱动科研未来的展望与预测 - 公司副总裁Kevin Weil预测,2026年对于科研领域的意义,将堪比2025年之于软件工程,一年后,倘若一名科研人员还未深度运用AI开展研究,就可能已经落后 [3] - 范德堡大学教授Robert Scherrer表示,如果当前的发展趋势能持续下去,很快所有科研人员都会用上大语言模型 [10] - 加州大学伯克利分校统计学家Nikita Zhivotovskiy相信大语言模型正在成为科学家们必不可少的技术工具,就像曾经的计算机和互联网一样,那些拒绝使用这类工具的人将会长期处于劣势 [10]
GPT-5.2破解数论猜想获陶哲轩认证!OpenAI副总裁曝大动作:正改模型核心设计,吊打90%研究生但难出颠覆性发现
AI前线· 2026-01-29 18:07
OpenAI发布AI科研平台Prism并成立OpenAI for Science团队 - OpenAI发布由GPT-5.2驱动的新一代AI科研协作平台Prism,并向所有ChatGPT个人用户免费开放 [2] - OpenAI于2024年10月宣布成立全新的OpenAI for Science团队,核心目标是探索大语言模型助力科研的路径并优化相关工具 [2] - OpenAI副总裁Kevin Weil表示,公司的目标是赋予每位科学家AI超能力,加速科研进程,目标是让世界在2030年就能开展2050年的科学研究 [2] OpenAI布局科研领域的战略动机与竞争态势 - OpenAI认为,通用人工智能(AGI)能为人类创造的最重大价值在于其推动科学进步的能力,例如帮助发现新药物、材料和探索现实本质 [5][6] - 在AI科研领域,OpenAI面临激烈竞争,谷歌DeepMind早在数年前便成立了AI-for-science团队,并打造了AlphaFold等开创性科学模型 [3][4] - OpenAI for Science的布局,很大程度上是为了在AI科研这一新领域抢占先机 [20] GPT-5系列模型的当前能力与局限性 - 搭载推理模型的GPT-5在解决复杂问题方面较GPT-4有质的飞跃:在考察博士级专业知识的GPQA基准测试中,GPT-4正确率为39%,而GPT-5.2正确率达到92% [7] - 模型能力被认为已超过90%的研究生,并在国际数学奥林匹克竞赛中取得金牌级成绩,达到了人类能力的极限 [7] - 然而,模型目前还达不到取得颠覆性新发现的水平,有时会犯一些“比人更愚蠢”的低级错误 [4][12][13] - 模型曾因宣称解决数学未解难题但实际只是挖掘已有答案而引发争议,被指沟通“过于草率” [8][9] GPT-5在科研中的实际应用与价值 - GPT-5擅长帮助科研人员找到他们尚未意识到的现有研究成果及跨领域关联线索,从而催生新思路 [11] - 模型能够协助草拟数学证明过程,并为实验室验证假说提供实验思路 [11] - GPT-5.2几乎阅读了过去30年发表的每一篇论文,并能从上千个不相关领域中提炼出可类比的思路,充当一个“从不休息”的合作者 [12] - 实际案例显示,有科研人员借助GPT-5在数月未解的问题上取得突破,或以前所未有的速度完成数据分析 [12][13] 科研界对AI工具的态度与反馈 - 部分科研人员认为大语言模型正变得像计算机和互联网一样,是科学家必不可少的技术工具,拒绝使用将处于劣势 [13][14] - 有科学家指出,大语言模型目前主要是在整合现有成果,而非创造真正全新的研究方法,几乎未见其提出值得单独发表的全新观点 [14] - 也有态度不那么乐观的科研人员认为,大语言模型尚未从根本上改变科研方式,但其在自动化系统(如操控机器人)中可能更有实用价值 [15] OpenAI针对模型缺陷的优化方向 - OpenAI正重点优化模型,让其降低置信度,具备认知层面的“谦逊性”,以更委婉的方式(如“以下思路可供参考”)提供参考思路而非绝对答案 [18] - 公司探索的另一方向是利用GPT-5对自身输出进行事实核查,构建让模型充当自身校验者的工作流程,这与谷歌DeepMind为AlphaEvolve打造的模式相似 [19] - 尽管新一代模型产生“幻觉”(错误信息)的概率已大幅降低,但公司承认问题依然存在,并认为关键在于如何将错误观点转化为科研探索过程的一部分 [17][18]
谷歌AI掌门人、诺奖得主Demis:AGI 需要打破“金鱼记忆”,而谷歌无论泡沫破裂与否都将是赢家
AI科技大本营· 2026-01-29 18:05
文章核心观点 - Demis Hassabis认为AI进步从未停止,行业“撞墙论”是基于对数据枯竭的误解,现有技术仍有巨大优化空间[4] - 通往AGI可能需要一两个全新架构的突破,而非仅靠扩大现有模型规模,但大模型将是未来AGI系统的核心基石[5][6] - AGI应有科学定义,即能执行人类所有认知任务的系统,包括达到人类创造力巅峰和具备物理智能,预计距离实现还有5到10年[10][12][13][14] - 智能眼镜是AI交互的终极形态,能实现解放双手的“通用数字助理”,成熟产品可能很快面世[3][18][19][22] - AI商业模式需谨慎,维护用户信任至关重要,广告模式若损害信任将摧毁产品价值[22][23][24] - 对于行业竞争与“泡沫论”,拥有深厚技术栈和庞大业务底座的公司无论行业周期如何都将处于有利位置[3][26][27] - 从哲学视角看,信息是宇宙最基本单元,AI是宇宙信息处理过程的加速器,将帮助人类解决重大科学问题[29][30][31] - AI不会取代人类,而是承担繁重信息处理工作,赋能人类专注于更高级的创造与探索,类似望远镜对天文学家的作用[31][32] 对AI发展现状与未来的看法 - 一年前行业质疑AI进步停滞,但DeepMind内部从未质疑,一直看到性能在稳步、巨大的提升[4] - 通过预训练、后训练、思维链等现有技术的微调与组合创新,仍能从现有架构和数据中“榨取”出巨大提升空间[5] - 当前大语言模型存在“金鱼记忆”的根本性局限,会话结束便“失忆”,持续学习能力是当前短板[5][8] - 解决持续学习问题已有线索,关键在于让模型在“出厂”后与用户交互中继续学习并改变自身,而不仅是将数据放入上下文窗口[8] - 真正的AGI需具备持续学习、高效记忆机制以及为长远目标进行多步推理的长期规划与推理能力[11] - AGI需包含物理智能,即与物理世界交互的灵巧性,这是当前机器人的短板[13] - 超级智能是指能完成人类生理结构无法做到之事(如在14维空间思考),是AGI之后的话题[14] - 多模态模型(如视频生成模型)因构建了物理世界模型、理解因果关系,在通往AGI的道路上可能比纯语言模型更关键[15] 对产品形态与商业化的思考 - 当前举着手机使用多模态AI的体验笨重,智能眼镜才是解放双手、实现无缝“通用数字助理”的最佳形态[16][17][19] - 谷歌正与Warby Parker、Gentle Monster及三星等伙伴合作打造下一代智能眼镜设备,成熟产品可能今年就能看到[22] - 目前没有在Gemini App中加入广告的计划,维护用户信任是首要原则[22] - 在某些特定场景(如旅行推荐)下,广告可作为有用信息整合,但必须建立在用户完全知情且可控的前提下[23] - 商业模式创新应是“原生”的,不能损害用户对AI助理的核心信任[24] 对行业竞争与可持续性的评估 - 认可Anthropic的Claude是优秀模型,尤其在编程领域,但Gemini 3的编程能力同样有信心[25] - AI的竞争是更广泛的战场,包括多模态搜索、YouTube创作工具、安卓系统整合等,谷歌正将AI深度整合进其庞大产品线中[25][26] - 关于行业崩溃的理论(训练回报率下降、推理成本趋近免费导致基建过剩)是合理推演,但并非最可能发生的情况[26] - 行业存在泡沫现象,尤其是一些仅凭PPT融资的初创公司,其狂热不可持续[26] - 像Alphabet这样拥有深厚技术积累和庞大业务底座的公司,无论泡沫是否破裂都将处于有利位置,因为现有技术已足以驱动其核心业务的效率提升与体验变革[3][27] 对AI本质与人类未来的哲学观点 - 信息是宇宙最基本的单元,而非能量或物质,宇宙演化可被视为信息处理过程[29] - 生命系统本质上是信息处理系统,在抵抗熵增,进化是筛选能稳定保存和复制信息结构的过程[29] - AI是宇宙信息处理过程的加速器,帮助人类更高效地解构、理解和重组信息[29] - AlphaFold解决蛋白质折叠问题是“信息论”视角的胜利,通过数据的信息拓扑结构找到了规律[30] - AI将帮助人类破解物质、能量、生命背后的信息密码,从而发现新材料、设计新药、解决气候变化[31] - AI不会使人类变得多余,它将承担繁重枯燥的信息处理工作,让人类腾出时间进行更高级的科学思考与艺术创造[31][32] - AI的赋能类似工业革命,人类将重新定义“有意义的工作”,并适应新的角色[32]
登上Nature封面:谷歌DeepMind推出DNA模型AlphaGenome,全面理解人类基因组,精准预测基因突变效应
生物世界· 2026-01-29 12:28
文章核心观点 - DeepMind推出新型AI工具AlphaGenome,这是一个能够处理长达100万碱基对序列的统一DNA序列模型,可高精度预测广泛的基因组特征和突变效应,标志着基因组AI模型从“单项专家”向“通用翻译官”的重要转变 [2][26] - AlphaGenome在技术上有三大突破:兼顾长序列分析与单碱基分辨率、统一处理多任务、高效评估突变影响,其性能在绝大多数任务中超越了现有的专用模型 [10][11][12][13][19] - 该工具在解析非编码区域、探究疾病机制、研究罕见遗传病及指导合成生物学设计等方面展现出强大的实际应用价值,有望推动对基因组的基本理解和新疗法的开发 [2][3][22][24][26] 基因组解读的挑战与背景 - 人类基因组中约98%为非编码序列,其功能至今仍是生物学最大的谜团之一,解读DNA序列的细微变化如何影响生物体是巨大挑战 [7] - 过去十年开发的许多AI模型仅专注于单一任务,科学界越来越需要能够“All in One”解读DNA序列的工具 [8] AlphaGenome的技术突破 - **兼顾“远景”与“近景”**:通过创新算法架构,首次实现在100万个碱基对长度上保持单碱基分辨率的分析能力 [11] - **多任务统一处理**:可同时预测数千种分子特性,如基因起止位置、RNA剪接位点、DNA可及性、蛋白质结合位点等,一个模型即可全面解析 [12] - **高效的突变影响评估**:能在一秒钟内评估基因突变对所有分子特性的影响,快速识别可能导致疾病的遗传变异 [13] 模型架构与技术核心 - 架构巧妙结合了卷积神经网络与Transformer模块,前者识别DNA序列中的局部模式,后者建立长距离联系以理解全局语境,实现了“既见树木,又见森林” [15][16] 性能表现 - 在24项DNA序列功能预测任务中,AlphaGenome在22项中实现了最先进性能(SOTA) [19] - 在26项遗传变异影响预测任务中,AlphaGenome在24项中实现了最先进性能(SOTA) [19] - 作为一个“通用模型”,其表现超越了多数为特定任务优化的“专用模型”,打破了传统认知 [19] 实际应用与价值 - **疾病机制解析**:成功用于探究T细胞急性淋巴细胞白血病(T-ALL)中非编码突变通过引入MYB DNA结合基序激活致癌基因TAL1的潜在机制 [22] - **罕见遗传病研究**:能够直接从DNA序列预测RNA剪接位点,为理解由剪接错误引起的疾病(如脊髓性肌萎缩症)提供新工具 [24] - **合成生物学设计**:其预测能力可用于指导设计具有特定调控功能的合成DNA序列,例如组织特异性基因开关,为精准基因治疗奠定基础 [24] 行业意义与未来展望 - 结合AlphaFold和AlphaMissense等成果,科学界正在构建一个前所未有的“基因组集成开发环境”,代表生物学研究从描述性科学转向预测性科学的根本转变 [26] - AlphaGenome是理解和编辑生命代码的强大解码器,为分析调控基因组提供了强大且统一的模型,提升了从DNA序列预测分子功能和突变效应的能力 [26]
速递 | 谷歌AlphaGenome登Nature!AI在10年内攻克所有疾病
核心观点 - AlphaGenome代表了从理解生命静态结构到预测其动态调控过程的根本性转变,标志着“可编程生命”时代的开启[22][23] - 该技术通过破解占人类基因组98%的非编码区域,有望彻底变革药物研发、个性化医疗及合成生物学等多个行业[11][12] 技术突破 - **解决的问题**:AlphaGenome旨在破解不直接编码蛋白质、占人类基因组98%的非编码区域,这部分区域如同基因的“指挥系统”,决定基因何时、何地、以何种程度表达,并与大多数遗传病、癌症易感性及药物反应差异相关[1][5] - **核心创新**:具备**超长上下文**(可分析长达一百万个碱基对)、**单碱基精度**以及**多模态预测**能力,能一次性预测超过**五千九百个**不同的生物学特征[6] - **验证案例**:成功识别出导致T细胞急性淋巴细胞白血病的一个非编码区突变(仅插入三个碱基“ACG”),并预测其通过创建新的转录因子结合位点导致TAL1基因异常激活的机制[7] Alpha技术演进 - **发展路径**:从AlphaGo(游戏)、AlphaFold(预测静态蛋白质结构)到AlphaGenome(理解动态基因调控机制),实现了从“预测结果”到“理解机制”的跨越[9] - **未来展望**:技术演进逻辑指向预测动态过程,下一步可能发展**AlphaCell**(预测整个细胞系统行为)乃至**AlphaOrganism**(模拟整个生物体)[10] 行业影响与机会 - **药物研发**:有望将传统平均耗时**十年**、耗资**三十亿美金**、成功率低于**10%** 的新药研发流程,压缩至**两到三年**,尤其为针对非编码区突变的罕见病治疗带来突破[13] - **个性化医疗**:通过全基因组扫描(包括98%非编码区)预测个体对药物的反应(如代谢酶表达水平差异),预计**两年内**将出现首批基于AlphaGenome的临床检测产品[14][15] - **合成生物学**:使从“试错”模式转向“反向设计”成为可能,例如精确设计作物抗逆基因调控网络或工业菌株生产路径,将过去需**十年**的工程缩短至**可能一年**,2026年可能成为“可编程生物学”元年[16] 技术局限 - **模型可解释性**:作为一个黑盒模型,能提供预测概率但难以解释背后的生物学逻辑[18] - **数据偏差**:主要基于欧洲血统人群数据训练,对其他族裔的预测准确性可能不足,存在加剧医疗不平等的风险[18] - **伦理挑战**:精准的基因预测与操控能力带来了“定制婴儿”等伦理边界问题,技术发展速度远超当前伦理框架的建立速度[18] 对个人的启示 - **职业与教育**:**生物信息学**与**计算生物学**成为黄金赛道,未来需要同时精通生物学与计算机科学的交叉学科人才[20] - **行业从业者**:医疗健康领域的从业者需在**两年内**掌握相关AI工具,但核心仍需深入理解疾病机制[20] - **投资与创业**:应重点关注**非编码变异检测服务**、**AI驱动的反义寡核苷酸药物**以及**个性化用药基因检测**三个细分方向,这些赛道融资与并购活动将加剧[20][21]
AI-驱动的新药研发-原理-应用与未来趋势
2026-01-20 09:50
AI驱动新药研发行业研究纪要关键要点 涉及的行业与公司 * 行业:AI驱动的新药研发(AIDD)行业 [1] * 提及的公司:某西智能(采用GAN模型,已进入临床二期)[16]、某泰科技(以传统CADD为主,拓展深度学习)[16]、星耀科技(曾技术优秀但已倒闭)[16] * 提及的技术/模型提供方:AlphaFold(预测蛋白质结构)[1][2][4]、OpenAI(生成模型)[2]、扩散模型(Diffusion Model)[1][2][4]、Deepseek(对话模型)[7][18]、ChatGPT(对话模型)[7]、GPT系列(大规模参数模型)[11]、DeepMind(智能体应用)[18]、Anthropic(大模型趋势)[18] 核心观点与论据 AI制药的原理与优势 * AI通过预测蛋白质结构(如AlphaFold)加速靶点发现,并利用生成模型(如扩散模型)设计先导化合物,提高新药研发效率和成功率 [1][2] * 人工智能驱动的新型药物发现(AIDD)跳过传统计算机辅助药物设计(CADD)复杂的物理规则,通过海量数据直接预测分子效果,提高了预测准确性和数据集处理能力 [1][3][4] * AI在临床前研究中可预测小分子的毒性、安全性等性质,减少实验筛选时间和成本 [2] 关键技术方法与应用 * **图神经网络(GNN)**:擅长处理小分子结构数据,但随着分子复杂性增加,学习效果显著下降 [1][13] * **多模态学习**:整合图像、文本、指纹和点云等多种数据模态,更全面表征小分子特性,提高研发效率,已在KRAS靶点研究中取得成果(使用3,400多个小分子结构及活性数据)[1][15] * **AI模型类型**:分为解决特定垂直领域问题(如药物结构生成、基因诊断)的“小模型”和用于对话及调用(如撰写报告)的“大模型” [1][7][11][12] * **智能体应用**:可根据用户需求自主设计并监控整个工作流程,例如ADM MEC智能体可自动调用约14个工具生成报告,降低化学家和生物学家使用门槛 [18][20] 行业评估与发展趋势 * **评估AI制药公司能力**需考察:是否采用深度学习等先进算法(非仅传统CADD)、拥有高质量数据、已有成功案例、持续创新能力 [1][5][6] * **未来趋势**:小分子设计复杂化(如雷帕霉素等新型大分子胶)[13][17]、多模态融合技术主流化 [1][17]、新型编码器和深度学习算法涌现 [1][17]、智能体在工作流设计中应用增加 [1][20]、公司技术保密更严格 [17] * **模型选择**:基于测试,上百亿参数的大模型与32B或8B的小模型在调用工具时效果相似,需权衡参数量、效果及成本 [21] 其他重要内容 * AI模型的训练过程类似于人类学习,包括非监督学习的初步分类和引入外部标签的监督学习 [8] * 选择适当的数据编码器(如CNN处理图片、RNN/Transformer处理语言、GNN处理图结构)对提高AI模型性能至关重要 [10] * 当前一些主流AIDD公司的技术特点各异,包括模型类型(如GAN)、技术透明度(开源或保密)和市场化能力 [16] * AI编程(AI coding)是当前最成熟的大模型应用之一,已催生市值数百亿甚至上千亿的公司 [18]