人工智能发展理念对比 - 辛顿将AI比作可能反噬人类的"小老虎",强调其潜在威胁性;莫拉维克则视AI为人类文明的继承者,认为会通过"和平演变"实现智能交接 [1][3] - 两者均认同AI将超越人脑成为超级智能,但辛顿侧重神经网络架构设计与算法训练,莫拉维克强调进化时间带来的感知/动作优化 [3][7] - 莫拉维克在1980年代末预测通用机器人将在2030-2040年间实现类人推理能力,并认为这是人类演化的自然结果 [4][5][6] 莫拉维克悖论核心 - 人类感知/运动能力需消耗巨大计算资源(十亿年进化成果),而高阶推理仅需极少资源(十万年进化产物) [8][9] - 视觉、听觉等"低阶技能"由高度优化的生物算法栈支撑,抽象思维因进化时间短更易被AI逆向工程 [11][12] - 明斯基补充:无意识的人类技能最难被AI模仿,这是机器人研发的根本挑战 [10] 具身智能发展现状 - 当前人形机器人(如宇树R1)多通过预设轨迹完成动作,缺乏真实环境感知能力,实际表现与宣传视频存在显著差距 [13][14] - 英伟达科学家Jim Fan指出:训练"盲体操选手"可通过模拟器实现零样本部署,但具备感知/操作能力的机器人需突破物理模拟技术瓶颈 [15][17] - 宇树认为基础动作训练是机器人进化的必经阶段,但行业共识认为现有技术尚未解决莫拉维克悖论指出的感知-运动鸿沟 [16] 行业领军者技术路线 - 英伟达主张物理AI是AGI关键,认为缺乏具身性则无法实现真正通用智能,其机器人研究聚焦原子世界的复杂交互 [17] - 黄仁勋对AI威胁论持谨慎乐观态度,将人类毁灭概率估值从50%降至10%-20%,与辛顿的警惕立场形成对比 [18] - OpenAI等公司定义的AGI侧重数字空间智能,与莫拉维克1987年提出的物理世界通用机器人理念存在路径差异 [16][19]
AI,人类豢养的老虎,还是智慧之子?
虎嗅·2025-07-27 15:55