大模型跨语言推理
搜索文档
老外傻眼!明用英文提问,DeepSeek依然坚持中文思考
机器之心· 2025-12-03 16:30
DeepSeek模型新版本发布 - DeepSeek上新两个新模型DeepSeek-V3.2和DeepSeek-V3.2-Speciale [1] - V3.2版本推理能力能与GPT-5硬碰硬,Speciale结合长思考和定理证明能力表现媲美Gemini-3.0-Pro [1] - 海外研究者反馈DeepSeek推理速度显著提升 [1] 多语言推理效率研究 - 微软论文《EfficientXLang》发现使用非英语语言推理能减少Token消耗并保持准确性 [7] - 研究评估了DeepSeek R1、Qwen 2.5和Qwen 3模型在七种目标语言中的表现 [8] - 与英语相比,非英语语言推理能实现20-40%的Token降低,DeepSeek R1的token减少量从14.1%(俄语)到29.9%(西班牙语)不等 [11] - Qwen 3表现更显著,韩语的token减少量高达73% [11] 中文推理特性分析 - 海外用户发现即使用英文询问,DeepSeek在思考过程中仍会使用中文 [1] - 评论普遍认为汉字信息密度更高,表达相同含义所需字符量明显更少 [4][6] - 中文相比英文能够节省推理token成本,但并非最有效率语言 [12] 长上下文多语言性能比较 - OneRuler基准包含26种语言,用于评估LLM在长达128K令牌的上下文理解能力 [12] - 英语在长上下文任务中排名第6,波兰语位居榜首 [14] - 英语和中文均未进入长上下文性能排名前五的语言 [18] 训练数据对思考语言的影响 - 国产大模型采用更多中文训练语料,思考过程出现中文是正常现象 [20] - AI编程工具Cursor的Composer-1模型思考过程完全由中文构成 [21] - OpenAI的o1-pro模型也会随机出现中文思考过程 [25]