The alchemy of artificial intelligence
FICOFICO(US:FICO) The Economic Times·2025-11-09 16:28

机器学习与炼金术的类比 - 2017年谷歌人工智能研究员Ali Rahimi首次公开将机器学习比作炼金术,但遭到先驱研究员Yan LeCun的批评 [1][7] - 尽管人工智能模型自那时起快速发展,但该比喻的相关性依然存在,因为算法虽在游戏和图像识别上超越人类,但其工作原理仅停留在实践层面 [7] 人工智能的黑箱问题 - 人工智能模型存在“黑箱”问题,无人能精确解释模型的具体决策过程 [7] - 麦肯锡2024年人工智能现状调查显示,40%的受访者将可解释性视为采用生成式人工智能的关键风险 [7] - Fair Isaac Corporation2021年的调查发现,约70%的受访者无法解释特定人工智能模型决策或预测的方式 [7] 统计规律性与因果机制的区别 - 机器学习算法训练的目标是实现样本数据的最大预测性能,即学习“统计规律性”而非“因果机制” [2][7] - 用于构建人工智能的数据隐含一个明确假设,即存在某种连接物理状况与结果的因果机制,数据是该机制的副产品,但人类受限于知识,这个“数据生成过程”始终未知 [2][7] - 算法通过复杂的数学抽象来可靠地预测“影子”(统计规律性),但数学本身虽非随机,却无法进行因果解释,不传达任何基于经验的推理机制 [2][7] 可解释性缺失的限制与影响 - 局限于统计预测意味着模型仅在与训练数据环境相似的简单、重复性任务中真正可靠,在创造性工作、战略、决策和知识构建方面将面临困难 [3][7] - 在医疗健康和法律等领域,缺乏可解释性尤为严重,例如若无法解释模型做出特定诊断的原因,则无法证明其输出的合理性,也无法在相同疾病由不同病因引起时确定合适的疗法 [3][7] 对人工智能未来发展的启示 - 若人工智能仅适用于简单任务且需人类监督,则不断增长的投资意味着只是在构建一个仅对简单重复任务有用的“AI文员” [5][8] - 真正的目标应是让人工智能变得真正有用,这取决于使其更具可解释性,从而能在公共政策等数据驱动决策至关重要的领域做出有意义的贡献 [5][8] - 如果人工智能模型变得更透明且更善于捕捉真实的因果机制,其输出将因客观严谨性而更可靠、更有价值,届时投入人工智能开发的巨额资金才物有所值 [5][8]