文章核心观点 - 深度学习先驱Jeremy Howard严厉批评当前流行的AI辅助编程(Vibe Coding),认为其本质是提供“控制的幻觉”的“老虎机”,会侵蚀开发者的深层知识构建能力,阻碍人类成长,是“反人类”的[4][12][23][49] - AI大模型(如Claude)不具备真正的理解与创造力,只是在训练数据分布内进行“插值”和“角色扮演”,一旦超出分布就会表现糟糕[12][34][36] - 过度依赖AI自动化编程任务,会剥夺开发者通过“适当的困难”建立心智模型的机会,长期将导致行业丧失能架构复杂系统的资深工程师[12][40][44][48] - 真正的AI风险并非机器觉醒,而是科技寡头与政府利用“AI末日论”制造恐慌,建立监管壁垒以垄断技术,导致权力集中与开源社区的消亡[12][56][57][60] AI辅助编程(Vibe Coding)的批判 - Vibe Coding被比喻为“老虎机”,开发者撰写提示词并生成代码,但最终得到的是一堆无人能真正理解的复杂代码,丧失了修复能力[1][12][25][26] - 这过程产生了“控制的幻觉”,开发者如同赌徒,但真正的赢家是AI模型提供商[25][27] - 即使生成的代码能运行,其可靠性与可维护性存疑,公司不应将产品押注在无人理解其运作的代码上[29] - 近期研究显示,资深开发者使用AI辅助处理复杂编程任务时,耗时反而增加19%,因纠正AI错误和理解“代码黑盒”比从头架构更耗心力[40][42] 大模型的能力本质与局限 - 大语言模型没有真正的理解或创造力,它们是在“角色扮演”理解,通过高维统计相关性匹配来回答问题[34][35] - 其能力核心是在训练数据分布内进行“插值”,例如Anthropic宣称的AI编写C编译器,实为对现有LLVM代码进行“风格迁移”,而非从零创造[12][30][32][33] - 模型在训练分布内表现优异,但一旦超出分布边界,其表现会瞬间崩溃,犯下“比白痴还蠢”的错误[12][36][40] - 知识是具身化、网络化且依赖视角的,而将认知任务外包给AI会侵蚀组织内部的知识积累[37][38][39] 对人类学习与工程师成长的危害 - “适当的困难”是人类学习和建立深层直觉的关键,记忆与知识结构需要通过努力回忆和克服挑战来形成[12][45] - 若将初级、繁琐的编程任务全部自动化,开发者将失去在“充满摩擦力”的底层代码中挣扎的机会,无法建立必要的“心智模型”[12][44][48] - 长期影响是,行业将在10年后失去能够理解和架构宏大软件系统的资深工程师[48][49] - 正确的工具应拉近人类与系统内部状态的距离(如Jupyter Notebook提供的交互式探索),而非在人与系统间砌起高墙[50][51][53] 对AI行业风险与垄断的警告 - 当前需要担心的并非“AI觉醒毁灭人类”的科幻场景,而是更现实的、由人类自身引发的风险[54][56] - 科技寡头与政府可能利用对AI风险的恐慌,推动建立极高的监管壁垒,旨在将颠覆性技术垄断在少数实体手中[12][57] - 这种权力集中是最大的威胁,因为它使得控制权易于被少数渴望权力者接管,导致开源社区死亡、初创公司无法生存[57][58][59][60] - 应对之道是坚持开源、研发可在端侧运行的小模型,并维护人类编写代码和理解系统的能力,防止人类在自动化中集体失去思考能力[61][62]
杰瑞米·霍华德最新对话:Vibe Coding 就像在拉老虎机,AI 正在剥夺人类获得“直觉”的权利
AI科技大本营·2026-03-09 16:35