软件2.0

搜索文档
「幻觉」竟是Karpathy十年前命名的?这个AI圈起名大师带火了多少概念?
机器之心· 2025-07-28 18:45
AI术语命名与概念发展 - AI大牛Andrej Karpathy首次提出“幻觉”(hallucinations)一词,用于描述神经网络生成无意义内容的现象 [1][3] - Karpathy在2015年博客中已使用“幻觉”概念,但直到2022年ChatGPT爆发后才成为研究热点 [3][6] - Karpathy被公认为AI圈“取名大师”,提出“软件2.0”“软件3.0”“氛围编程”“细菌式编程”等概念 [6][9][11] 软件范式演进 - **软件1.0**:传统编程模式,开发者需精确编写Python/C++等显式指令代码 [12][14] - **软件2.0**:神经网络时代,代码由权重参数构成,通过数据训练而非人工编写 [13][15] - **软件3.0**:提示词时代,用户用自然语言描述需求,LLM直接生成代码 [16][17] - 软件3.0特点包括:LLM作为计算平台(类比电网基础设施)、自主滑块调节AI控制程度 [19][20] 新型编程范式 - **氛围编程**:开发者仅需向LLM提出需求并全盘接受输出,无需直接编写代码 [22][23][24] - **细菌式编程**:强调代码模块化与可移植性,类似细菌基因的水平转移特性 [35][36] - 细菌式编程检验标准:代码需满足小巧、自包含、无依赖,便于开源社区复用 [35][36] 上下文工程崛起 - 上下文工程因Karpathy转发点评迅速出圈,相关帖子浏览量达220万 [42][43] - 与提示工程区别:上下文工程更注重结构化信息提供,而非单纯优化提示词 [44] - LangChain指出提示工程是上下文工程的子集,后者适用于复杂智能体构建 [43][44] 行业趋势观察 - Karpathy预测未来99.9%内容将由AI处理,文档需转向“为AI优化”格式(如Markdown) [45] - 命名在科研中具有知识奠基作用,精确术语是科学分类的“稳定靶标” [7][9]
Andrej Karpathy:警惕"Agent之年"炒作,主动为AI改造数字infra | Jinqiu Select
锦秋集· 2025-06-20 17:08
软件演进三阶段理论 - 软件1 0时代由人类编写明确指令代码 代表为GitHub托管代码库 [8] - 软件2 0时代核心是神经网络权重 通过数据集训练生成 代表平台包括Hugging Face和Model Atlas [10] - 软件3 0时代以自然语言为编程接口 提示(Prompts)成为新程序形式 大语言模型(LLM)演变为可编程通用计算机 [10][11] LLM作为操作系统 - LLM类比为新型操作系统 模型本身充当"CPU"负责推理 上下文窗口相当于"内存" [15] - 市场格局类似早期操作系统 闭源商业提供商(如OpenAI)与开源替代方案(Llama生态系统)并存 [15] - 服务模式类似公共设施 研发实验室投入巨额Capex训练基础模型 通过API按token计量收费 [12] LLM能力与缺陷 - 超能力包括百科全书式知识记忆 信息处理量远超人类个体 [17] - 认知缺陷涵盖幻觉(编造事实) 锯齿状智能(能力不均衡) 顺行性遗忘症(无法自动巩固新知识)及安全脆弱性 [19][20] 人机协作新范式 - 部分自治应用(如Cursor)特征:自动管理上下文 编排多LLM调用 提供可视化GUI及自治程度滑块 [22] - 未来软件将普遍部分自治 需设计让LLM接触用户可操作界面并建立监督机制 [23] 软件开发民主化 - Vibe Coding现象:自然语言编程接口使非专业开发者能快速实现功能原型 [24] - 创新瓶颈从编码转向部署 手动处理认证 支付 部署等DevOps任务占90%耗时 [25][26] AI基础设施重构 - 需为第三类用户(AI智能体)设计专属交互方式 而非仅适配人类GUI或程序API [27] - 具体方案包括创建AI友好Markdown说明书 重写可执行命令文档 开发人类-AI信息转换工具 [28][29] 行业发展现实展望 - 自动驾驶案例显示技术演示与产品化存在十年级鸿沟 需警惕"2025智能体之年"类炒作 [31] - 短期应聚焦"钢铁侠战衣"式增强工具 通过人机协同设计规避LLM缺陷 [32][34] - LLM技术首次 democratized 全球数十亿普通人可直接参与范式变革 [35]
Karpathy 最新演讲精华:软件3.0时代,每个人都是程序员
歸藏的AI工具箱· 2025-06-19 16:20
软件开发范式演变 - 软件1 0定义为传统代码编程 程序员使用Python C++等语言编写明确指令 源代码编译为二进制文件 典型例子包括特斯拉自动驾驶早期C++代码 [5][6] - 软件2 0以神经网络权重为核心 通过数据集训练生成参数 优势包括计算同质性 硬件易实现性 超人性能等 代表案例有AlexNet和AlphaGo Zero [7][10] - 软件3 0由大型语言模型驱动 自然语言提示成为编程方式 LLMs被视为新型计算机 类比1960年代操作系统 具有自然语言接口和用户普及特性 [11][12][14] LLM技术特性与类比 - 公用事业特性:LLMs需要高资本支出训练 通过API提供服务 OpenRouter实现供应商切换 服务中断会导致"智能断电" [16] - 晶圆厂特性:训练需巨额投入 NVIDIA GPU类似"无晶圆厂"模式 Google TPU则像自建晶圆厂 但软件防御性弱于物理设施 [17] - 操作系统特性:LLMs形成复杂软件生态系统 应用可跨后端运行 当前处于类似1960年代的分时计算阶段 个人计算革命尚未到来 [18] LLM认知模型与缺陷 - 超能力:具备百科全书级知识记忆 远超人类个体能力 [22] - 认知缺陷:包括幻觉 锯齿状智能 顺行性遗忘和易受骗性 需要人类监督验证 [23] - 人机协作:需保持AI在"牵引绳"上 通过生成-验证循环和GUI加速审计 [26] 行业应用机遇 - 部分自主应用:应具备上下文管理 多模型编排 专用GUI和自主性滑块 类似Cursor和Perplexity的交互设计 [26][28] - Vibe Coding:降低编程门槛实现"人人都是程序员" 但产品化面临非代码操作挑战 [30] - Agent基础设施:需构建lm.txt文件 LLM优化文档 上下文工具等支持Agent交互的新范式 [33][34] 技术扩散特征 - 逆向扩散路径:LLMs首先惠及普通消费者 ChatGPT成增长最快应用 企业政府应用滞后于组织惯性和合规障碍 [19][20] - 钢铁侠战甲策略:优先开发增强工具而非完全自主Agent 通过自主性滑块渐进升级 [2][28] - 长期发展预期:2025-2035年为Agent十年 需克服演示到产品的可靠性鸿沟 [27]