ASI(超级智能)
搜索文档
马斯克最新对话:AI 毁灭人类的概率有 20%,但它将创造一个没有钱的“全民高收入”时代
AI科技大本营· 2026-03-13 16:31
AI递归自我提升与xAI进展 - AI递归自我提升(AI独立写代码优化下一代AI)目前仍需人类辅助,但预计全自动化最迟在明年(2027年)实现[4][9] - xAI旗下Grok模型已推出4.2版本,在某些指标上表现最佳,例如预测能力,但在代码能力上仍落后于竞争对手[10] - 公司计划投入大量资源以提升代码能力,目标是在2025年年中赶上竞争对手[10][11] - 特斯拉拥有约10万骨干员工,供应商体系涉及100万至200万人,公司计划增加人手并大幅提升人均产出效率[11] AI与AGI/ASI发展路径及瓶颈 - AI发展遵循S型曲线模式,当前大语言模型处于指数增长区,但将面临边际收益递减,需依靠现实世界物理数据开启下一条增长曲线[14] - 预测未来10年内,全球经济规模将扩大10倍,前提是没有发生世界大战等极端事件[4][16] - 若智能系统能耗比目前地球总量增加100万倍,将耗尽地球电力,但这仅是太阳总输出能量的极小一部分(约百万分之一)[4][18] - 真正的瓶颈是能源而非算力,向太空(太阳系)寻找能源是必然选择[4][19] 未来经济与社会结构变革 - AI和机器人将补齐劳动力短缺,导致商品和服务产出远超货币供应,引发极度通货紧缩[4][21][22] - 金钱在未来将失去相关性,社会将从“追求财富”转向“追求意义”[4][20] - 提出“全民高收入”(UHI)概念,以取代“全民基本收入”(UBI),在商品和服务极度丰饶的后稀缺社会,人类生来即拥有极高生活标准[4][26] - 当经济规模扩大100万倍时,将远超满足全人类所有需求的程度,可能在扩大1000倍时即实现全民极度富足[25] AI风险与人类未来 - 评估人类有20%的概率被AI毁灭,但依然选择加速发展以见证结局而非无聊老去[4][30] - 在物质需求被AI和机器人完全满足的时代,人类存在的意义和动力将面临深刻挑战[27] - 对未来的总体态度极其乐观,认为有80%的几率是非常好的结果[29][30] 其他前沿技术关注 - 支持Colossal公司的复活猛犸象等灭绝物种计划,并表达对拥有“迷你猛犸象”作为宠物的兴趣[4][30] - 对打造“侏罗纪公园”持开放态度,愿意承担相关风险[31]
Ilya重磅发声:Scaling时代终结,自曝不再感受AGI
36氪· 2025-11-26 14:54
当前AI技术路线评估 - 当前模型持续改进但无法实现AGI,现有技术路线后劲不足[3] - 真正可行的AGI系统架构至今尚未掌握构建方法[3] - 模型泛化能力远逊于人类,即使使用所有编程竞赛题目训练仍无法形成真正的解题直觉[3] - 评测结果与现实应用出现明显脱节,评估分数光鲜但实际性能滞后[5][8] - RL训练最终演变为对评估指标的过度优化,真正的奖励机制黑客是设计基准测试的科研人员[3][6] Scaling Law与预训练瓶颈 - 预训练时代已终结,行业正从Scaling时代走向研究时代[1][13][14] - 预训练最大突破是Scaling配方好用,但数据有限总有用光之时[12] - Scaling把行业创新空气吸干,导致公司数量远远多于点子数量[15] - 未来创新将回归小而美实验,类似AlexNet用两张GPU、Transformer用8-64块GPU的模式[16][18] - 已见证从预训练Scaling切换到RL Scaling,但RL非常烧算力且效率低[15] 模型泛化能力与学习机制 - 人类学习能力来自自进化硬编码的价值函数,情绪是决策系统一部分而非噪音[10] - 当前AI的价值函数训练方式脆弱粗糙,还不是内置的[11] - 预训练优势在于数据量大且无需刻意挑选,具有天然高度真实性[8] - RL训练让模型目标变得单一狭隘,削弱全局感知能力[5] - 模型在基础任务上表现不佳,如在修复bug时会反复犯同样错误[5] AGI/ASI发展路径与影响 - ASI可能在5-20年内降临,实现人类级别学习能力后变得超越人类[3][51] - 超级智能不是完成形态心智,而是能够学会做每一项工作的心智[29][30] - 部署将包含通过试错学习时期,是过程而非直接投放最终成品[29] - 一旦实现这种学习算法,可能会迎来一波快速的经济增长[32] - AGI与AI的本质区别在于力量,当力量很大时会发生难以想象的事情[38][40] 行业趋势与安全考量 - 随着AI变得更强大,政府和公众会产生做点什么的愿望,公司将更加充满危机感[43][44] - 竞争激烈的公司开始在AI安全方面合作,OpenAI和Anthropic已迈出第一步[44] - 构建稳健对齐、专门关爱有感知生命的AI比仅关爱人类生命的AI更容易[48][49] - 渐进主义将是任何AGI计划与生俱来的组成部分,逐步发布可分散冲击力[19]