Workflow
DeepSeek流量暴跌,要凉了?是它幻觉太严重还是它在闷声发大财?
混沌学园·2025-07-28 16:34

DeepSeek市场表现与用户反馈 - 核心观点:DeepSeek从"国运级"项目到用户质疑其能力下滑,引发关于AI模型"平庸化"的深度讨论 [1][2][4] - 市场数据:月均下载量从Q1的8111.3万骤降至2258.9万,降幅达72.2% [3] - 用户痛点:社交媒体涌现"去AI味"话题,典型问题包括胡编乱造建议(如南极科考挽回感情)、虚构商家/文献/公司信息等 [6][11][13][19] AI模型技术缺陷分析 - 逻辑暴力:过度依赖连接词(首先/其次)、程式化短语(近年来/关键步骤)及数据堆砌,导致叙事割裂 [22] - 数据代谢病: - 训练数据污染:30%中国AI用户生成内容反哺训练池,造成"近亲繁殖" [22] - 语言反向驯化:如ChatGPT高频词"delve"引发欧洲使用量暴增2700%,加剧语言同质化 [23] - 多模态缺陷:视觉-语言模块割裂,违和场景(沙漠雪人)下GPT-4V准确率从80%降至66% [25] 中文大模型的结构性瓶颈 - 语料匮乏:全球大模型训练库中中文占比不足5%,CSSCI核心期刊数字化率仅30% [28] - 审查副作用:敏感词扩容导致输出倾向安全但平庸的表达 [28] 用户应对策略 - 数据验证:交叉检索关键数据,锚定权威数据库(如CNKI) [30] - 压力测试:要求模型用反例自辩,识别逻辑矛盾 [30] - 内容感知:将AI输出视为初稿,警惕连接词密集区,通过时空锚定法核查细节 [30] 行业启示 - 技术定位:保留5%非优化回答(如吉利车载系统)可增强人机交互人性化 [33] - 竞争壁垒:批判性思维成为AI时代核心能力,需将模型作为思维磨刀石而非替代品 [32][33]