文章核心观点 - 2025年人工智能行业的发展重点从追求模型规模和炫酷演示转向了关注实际运营效率、可靠性和可扩展性 行业正变得更加成熟 致力于解决将AI大规模部署到生产环境时所面临的基础设施、数据治理和信任等现实问题[2][3][22] 行业趋势与教训 - 行业认识到 将AI大规模部署需要直面基础设施、对AI能力的假设以及解决非技术性问题的意愿等方面的现实挑战 2025年更多是关于现实检验而非技术突破[3] - 随着计算成本居高不下和能源消耗成为公众关注点 2026年将更青睐那些能以更少资源做更多事情的公司 而非那些仍在追逐最大模型的公司[12] - 2025年最大的AI叙事围绕自动驾驶、AGI和模型取代职业 但真正取得进展的公司专注于大规模解决小而烦人的问题[17] - 2026年将需要更好的保障措施 而不仅仅是更好的系统 组织需要将AI安全、治理和伦理视为基础 而非可选事项[24] 基础设施与数据基础 - AI需要更深层次地集成到数据库本身才能可靠、可预测和可扩展 数据在到达模型前需要流经多个系统 更新需要手动干预 整个设置依赖于脆弱的连接[1] - 如果没有正确的治理、数据组织和访问权限 AI就无法扩展 一旦建立了数据基础 AI就从一项功能变成了运营方式的一部分[4] - 公司从快速部署转向更审慎的方法 专注于构建共享数据层和明确AI计划的所有权 这使产品能够更可靠地扩展[7] - 量子计算将比许多人预期的更早到来 它不会只是边际改进 AI擅长分析和从数据中生成洞察 而量子计算将能够创造全新类型的数据 两者结合将解锁更大的探索、发现和创新[21] 效率与可预测性 - 当AI行业在2025年追逐更大模型和更多算力时 像Oculeus这样的公司优先考虑效率 专注于设计和完善能够在不过度计算开销下提供可靠性能的系统[9] - 在电信等实时检测欺诈和异常行为的环境中 可预测性比新颖性更重要 因为误报和不一致的输出会带来直接的财务和运营风险[10] - 伴随巨大计算和能源消耗的AI算法和技术是一条错误的道路 训练必须产生100%确定性的响应 否则就是有问题 这与将随机性视为特性的大语言模型的兴奋点背道而驰[11] - 目标不是构建最聪明的AI 而是构建能够处理常规任务而无需戏剧性事件的可预测AI[12] 信任、边界与治理 - AI代理不能像员工那样被信任 需要为其行为有意识地设定边界并积极实施保护措施 可以将它们视为已知易受贿赂的员工[14] - 公司采取了具体措施来设定边界 例如成立专门团队验证AI输出并确保系统获得准确的源数据 以及开发和实施审批链流程并明确限制AI代理可以访问或承诺的内容[14] - AI代理存在于工具和行为者之间的灰色地带 它们响应指令但缺乏判断力 它们执行任务 但无法权衡后果 这需要新的责任框架 不能假设良好的训练就能保证良好的行为[15] - 2026年蓬勃发展的组织将首先把AI部署视为一个信任问题 这意味着对其能力和限制保持透明 对用户有明确的期望 并设计在出错时能够安全失效的系统[16] - 随着2025年AI法律生效 公司难以将法律要求转化为运营现实 国际标准对于培养对这种变革性技术的信任至关重要[21] 实际应用与影响衡量 - 最大的变革将来自解决许多小问题 而不是一个全知全能的大型AI 数量本身就是一种质量 消除许多小的摩擦会带来整体上快得多的节奏[18] - 公司通过授权普通团队成员在几天内构建AI功能 而不是等待顶级工程师批准和执行 来衡量成功与否的标准是AI是否让员工更快、更高效 而不是运行了多少AI项目 结果是单个项目可能 modest 但整体上是变革性的[18] - 公司停止追逐看起来令人印象深刻的东西 开始追踪重要的指标 如节省的时间、提高的准确性和加速的决策 AI的成功现在意味着它真正改善了工作方式 而不仅仅是使用了它[8] - AI的下一阶段是AI与我们生活在一起 每天学习我们 并及时准确地提供我们所需的东西 它将不再感觉像一个工具 而是一个真正理解你的队友[24] - 最终目标是超越最初的敬畏 成为一个透明的、只是把事情做好的工具 不是AGI 不是完全自动化 只是可靠工作、可预测扩展、解决问题而不制造新问题的AI[25]
Looking back at the 5 biggest AI lessons of 2025
Yahoo Finance·2026-02-04 03:21