Workflow
旧金山共识(San Francisco consensus)
icon
搜索文档
永久底层:硅谷的AI从业者普遍认为,普通人已经“完蛋了”
虎嗅APP· 2026-05-04 17:09
文章核心观点 - 硅谷AI精英阶层普遍持有一种“旧金山共识”,即认为先进AI将带来巨大经济增长,但也会导致大规模结构性失业,创造出一个“永久底层阶级”,这种共识正引发行业内部的深度焦虑和存在主义危机 [12][13] - AI行业的顶尖从业者(包括研究员、工程师、CEO)在公开场合保持技术乐观主义,但私底下却为AI可能引发的社会动荡和自身安全做极端准备,如停止储蓄、花光积蓄、建造地堡、安装防弹设施,呈现出一种“集体性的双重生活” [14][15][18][21] - 整个行业弥漫着“上车焦虑”,将AI发展视为积累代际财富的“最后机会”,形成了一种“要么zero to 100,要么zero to zero”的极端资本逻辑,这实质上是将社会断裂问题包装成个人选择,并使其在话语层面预先合法化 [31][34][36][38] - AI开发者创造的不是中性工具,而是一种可能系统性剥夺大多数人经济价值的“权力机器”或新“世界座架”,他们自身也深陷其中,既相信自己在创造“神”,又恐惧其后果,这种矛盾心态驱动了其“造神”与“自保”并行的行为模式 [28][40][47][49] AI行业内部共识与认知分裂 - 形成“旧金山共识”:无论立场如何,硅谷AI行业内部普遍悲观地认为,先进AI将取代数以百万计工作岗位,压制经济流动性,加剧不平等,并将权力和财富输送给AI公司和现有资本所有者 [13] - 公开言论与私下担忧严重分裂:科技界人士私下对AI的劳动力市场影响表达“极其极端的担忧”,但面对媒体时则转变为乐观主义者,这种“麦克风开关”现象是普遍行为 [14] - 公司内部存在“道德前置免责”话术:行业通过相信趋势不可逆来为自身行动免责,将责任推给历史或竞争对手,例如有初创公司创始人认为“唯一真正的选择”是自己加速技术革命 [15][16] - 关键公司动态:OpenAI建立的GDPVal基准测试显示,几个月内AI模型在44个职业上的表现胜率已超过80%的人类专家;Anthropic CEO公开提及“白领大屠杀” [14] 行业精英的极端个人准备与行为模式 - 财务策略剧变:部分AI从业者停止为退休储蓄,如前OpenAI研究员28岁起不再储蓄;另有创业者计划主动花光积蓄,视当前为创造代际财富的最后窗口 [19][20] - 生活方式与价值观转向:从业者择偶标准从“聪明”转向“性感”与魅力,认为在AI时代后者将成为稀缺特质;同时,高强度健身以提升身体吸引力成为趋势 [21] - 实体安全投入激增:为CEO提供住宅安防的企业创下2003年以来最高增长水平;AI从业者自建生物防护所、储备数年食物,成本不足一万美元;硅谷流行种植带尖刺的酸橙树作为防御工事 [4][5][21] 1. 面临直接人身威胁:OpenAI CEO Sam Altman的豪宅遭燃烧弹袭击和枪击,袭击者持有包含多名AI公司CEO住址的“最后警告”名单;特斯拉与xAI CEO Elon Musk也深陷被枪杀的担忧;旧金山已出现大规模反AI游行 [8][26] 行业内部的工作文化与生存焦虑 - “全员token-maxxing”与内卷:Meta等公司内部存在token消耗排行榜,员工为争取“token legend”头衔和避免被裁,大量使用竞争对手Anthropic的Claude Code工具,形成一场“没人敢停的军备竞赛” [4][22] - “上车焦虑”渗透生活:焦虑感直接影响从业者的退休规划、婚恋、生育和投资决策,他们不再相信传统“工作-退休”叙事,认为“30年后”已无意义 [18][21] - 新型员工原型:硅谷最受欢迎的员工是“技术强到变态、长期996工作的22岁年轻人”(cracked twenty-two-year-old),反映出在替代压力下更极端的“内卷” [31] - 公司内部的精神分裂:OpenAI首席科学家曾内部讨论在发布AGI前需先建好“地堡”;Anthropic员工一边每周工作80小时,一边讨论“后工作时代”乌托邦,同时承受着“存在主义眩晕感” [43][45] 对社会结构的预期与话语构建 - “永久底层”意识形态全球化:硅谷的焦虑已成为全球精英共享的意识形态,话语从网络梗演变为主流媒体严肃标题和CEO公开言论 [31][33] - “喂猪人”与“猪”的二分隐喻:行业话语将未来社会描绘成少数掌握核心资产的“喂猪人”与大多数依靠UBI和AI生成内容(“猪食”)生活的“被喂者”的对立 [33] - 社会断裂的话语合法化:通过“上车”、“最后机会”等隐喻,将社会分配的政治问题转化为个人责任的选择题,从而在问题发生前就使其被接受 [34][35][38] - 政治动荡的担忧:Palantir CEO Alex Karp公开警告,AI可能引发政治动荡导致“国家爆炸”,这并非道德反思,而是基于利益计算的现实担忧 [27]