Workflow
AI大模型分裂难题
icon
搜索文档
“见人下菜”!AI大模型的“分裂难题”
硬AI· 2025-12-04 20:54
文章核心观点 - 当前人工智能大模型存在“分裂大脑”问题,即模型对提问方式过度敏感,会根据其对问题“高级”或“简单”的主观判断,给出质量天差地别的答案,这暴露了AI模型缺乏真正理解世界运作方式的能力和泛化能力的根本局限 [2][3][6] 训练困境与问题成因 - “分裂大脑”问题通常在模型开发的后期训练阶段浮现,当模型为学习特定领域知识或改善对话风格而接受精选数据集训练时,可能无意中教会模型根据其判断的提问场景来区别对待问题 [2][5][6] - 修复模型对某些问题的错误答案,可能导致其对其他问题给出错误回答,开发过程如同“打地鼠”游戏 [5] - 即使是使用破折号还是冒号这类本应无关紧要的格式差异,也可能影响模型回答的质量 [6] 行业影响与投资现状 - 各大AI实验室正获得数百亿美元投资,目标是让模型在医学、数学等领域做出新发现,而模型的根本局限对投资者而言并非小事 [3][8] - AI开发商正在向数学、编程、法律等领域的专家支付数十亿美元,以生成高质量训练数据,确保模型在面对专家用户提问时不犯简单错误 [7] - 模型无法泛化、无法处理训练材料之外任务的问题,与投资者对AI自动化各行业工作的期待存在差距 [4][7]