马斯克怒怼诺奖得主:你把AGI写成超神剧本!人类难道要被AI碾压
搜狐财经·2026-02-24 20:28

文章核心观点 - 行业领军人物围绕“爱因斯坦测试”展开的争论,揭示了当前人工智能(AGI)发展的核心矛盾:大模型擅长模仿与重组知识,但缺乏真正的创造性突破,这引发了关于AGI本质定义及其对人类文明潜在影响的深刻讨论 [1][3] - 尽管对AGI定义存在分歧,但行业主要参与者普遍认为AGI的到来已迫在眉睫,其发展速度呈指数级增长,可能在未来数年内对社会结构、就业市场乃至人类对智慧本身的认知产生颠覆性影响 [6][8] AGI定义与能力评估之争 - DeepMind联合创始人Demis Hassabis提出“爱因斯坦测试”作为AGI的“及格线”,即要求AI在知识库限定于1911年的条件下,用4年时间独立推导出广义相对论场方程,以此区分真正的创造与高级知识重组 [1][3] - 行业观点认为,当前大模型本质上是“知识重组机”或“统计规律捕捉器”,能够处理海量数据并模仿人类语言模式,但无法实现从已知边界进行“无中生有”式思维突破的关键飞跃 [1][3] - 有观点指出,即便是领先的AI系统(如Gemini)也表现出能力不均衡,在特定领域(如下围棋)可超越人类,但在其他基础任务上可能出错,缺乏将不同领域知识串联成统一理论的“主线” [4] AGI发展时间线与演进速度 - 行业领袖对AGI实现的时间预测趋于一致且紧迫:Demis Hassabis将预测从“5到10年”修正为“未来五年内”,OpenAI的Sam Altman预测为2028年,而持怀疑态度的研究者也认为可能在2030年实现 [6] - 微软CEO Satya Nadella预测,大多数依赖信息处理的白领工作岗位可能在12到18个月内被AI取代,凸显了技术应用落地的迅猛速度 [6] - 研究数据显示,前沿模型完成复杂任务的能力每4个月翻一倍,按此指数速度推算,到2041年的AI将能完成相当于人类需要5800亿年才能完成的任务,其进化速度远超人类历史上的任何技术革命 [6] AGI的社会影响与人类准备度 - 行业担忧的核心并非AI“作恶”,而是人类社会的法律、伦理和社会结构完全跟不上AI的指数级进化速度,现有为“人类主导”设计的规则体系可能失效 [8] - AGI的潜在能力,如独立掌握科学发现的方法论或拥有远超人类时间感知的运算能力,可能使其成为一种全新的“智慧生命”形式,从根本上改变人机关系,甚至迫使人类重新定义自身 [8][10] - “爱因斯坦测试”如同一面镜子,不仅评估AI的潜力,也映照出人类在可能到来的超级智能面前的局限性,AGI的到来可能像相对论颠覆牛顿力学一样,彻底颠覆人类对生命、智慧和存在的所有认知 [10]