Workflow
混元深度思考模型T1
icon
搜索文档
李彦宏说 DeepSeek 幻觉高,是真的吗?
36氪· 2025-05-02 12:29
大模型幻觉问题现状 - DeepSeek-R1在苹果美区App免费下载排行榜上力压ChatGPT,成为国产开源大模型的代表,但其"胡说八道"的批评频发,用户反馈其生成内容真伪难辨[2] - 李彦宏在2025百度AI开发者大会上直接批评DeepSeek-R1存在"单一模态支持、高幻觉率、速度慢且成本高"三大痛点[2] - Vectara的HHEM评估显示DeepSeek-R1幻觉率高达14.3%,较前代V3的3.9%提升近4倍,阿里通义QwQ-32B-Preview幻觉率更高达16.1%[6] - OpenAI内部测试发现o3模型在PersonQA基准测试中幻觉率达33%,轻量版o4-mini更达48%,均显著高于前代o1的16%[8] - 谷歌Gemini 2.0的Flash-Thinking版本比标准版幻觉更突出,显示推理能力增强可能加剧幻觉问题[10] 行业技术挑战 - 推理模型采用多轮思考策略易产生偏差累积,导致多米诺骨牌式幻觉放大,例如DeepSeek-R1的长链式思考会逐步放大微小错误[16] - 当前主流解决方案RAG(检索增强生成)通过先检索权威资料再生成回答,百度2024年发布的iRAG技术已应用于文生图领域[20][22] - 腾讯混元模型T1采用"双重把关"策略,训练Critic批判模型筛选长思维链中的逻辑错误,但数据治理仍面临互联网语料复杂性挑战[23] - OpenAI承认模型规模扩大与推理能力增强后幻觉增多的机制尚未明确,需进一步研究[23] 幻觉的双面性 - 大模型幻觉分为事实性幻觉和忠实性幻觉,后者可能产生"外箱式创意",例如DeepSeek续写刘慈欣小说章节被评价优于原作[23][26] - 刘慈欣认为AI可能突破人类认知极限,OpenAI CEO奥特曼也指出幻觉在创作领域具有积极意义[26] - 行业需根据应用场景差异化接受幻觉程度,高风险领域需严格限制,创意领域则可利用其创新潜力[27] 厂商竞争格局 - 百度等大厂既依赖DeepSeek流量导入,又因自研深度推理模型难以突破用户心智而陷入竞争困境[2] - 阿里通义Qwen系列与DeepSeek-R1同属国产模型第一梯队,但QwQ-32B-Preview幻觉率更高达16.1%[6] - 谷歌Gemini、IBM Granite、Anthropic Claude等国际主流模型幻觉率普遍在14%-17%区间,显示该问题具行业普遍性[7]
智谱发的「干活Agent」,不用邀请码
36氪· 2025-04-01 21:52
智谱AutoGLM新产品"沉思"发布 - 公司推出具有深度思考能力的AI Agent产品"AutoGLM沉思",免费上线并支持开放式问题探究与操作执行[3][4] - 产品能模拟人类思维过程,完成从数据检索、分析到生成报告的全流程,并支持多模态理解(图文网页)[4][5] - 展示用例包括具身智能行业研究、生成式AI技术影响分析、复古相机推荐等具体场景[4] 产品技术特性与竞品对比 - 相较于Manus强调"行动"可视化,"沉思"更突出思维链展示,展现模型理解-拆解-检索-解决的完整思考过程[9][10] - 当前预览版仅支持研究整理类任务(如输出代码),无法像Manus直接交付可操作成果(如网页游戏),需用户额外执行[12][13] - 技术架构整合三款新模型:GLM-4-Air-0414(语言理解)、GLM-Z1-Air(问题分析)、GLM-Z1(反思验证)[15] 商业化与行业趋势 - 公司提出"沉思大模型"概念,强调动态联网搜索、工具调用、自我验证等能力对突破传统AI局限性的价值[17] - 新模型GLM-Z1-Air推理速度较R1提升8倍,成本降至1/30,并支持消费级显卡运行,三款模型将于4月14日开源[18] - CEO认为未来应用形态将以模型为核心,产品化外壳变薄,模型能力直接决定产品能力[20] 公司战略定位 - 坚持预训练路线,认为强化学习等方法仍依赖基座模型天花板,预训练是必须持续投入的方向[20] - 提出Agent存在类似大模型的Scaling Law,推理计算扩展可提升性能[20] - 拒绝被标签化为To B公司,强调根据场景需求创造价值而非限定客户类型[25]