DeepSeek识图模式发布与市场反应 - 公司近期对DeepSeek识图模式进行了灰度测试,该多模态功能受到市场高度期待,其发布紧随V4模型之后[1] - 尽管官方未发布详细信息,但用户已从多个角度探索该识图功能,并发现其背后可能是一个独立于V4 flash/pro的新模型[2][3] - 公司在V4技术报告中提及的“未来展望”项目,其进展可能比外界预想的更快、更深入[4] 识图模式性能实测:速度与基础功能 - 在非深度思考模式下,视觉模型响应速度极快,几乎无需等待即可生成答案[5][6] - 在实用功能方面,模型的OCR能力表现可靠,能快速识别并处理技术报告摘要中的纯文本,并正确添加超链接[32] - 模型能准确识别并转换表格信息,使用markdown格式整齐输出,例如成功处理了包含DeepSeek-V3.2、V4-Flash、V4-Pro参数与性能对比的复杂表格[37] - 模型具备将网页图片复原为可用HTML代码的能力,且其中的按钮功能可正常使用,例如实现API文档链接的跳转[38][39] - 模型能通过“隐藏图片”测试,但在色盲测试中偶有失误[40][42] 识图模式性能实测:推理能力与幻觉问题 - 在空间推理测试中,非思考模式快速给出答案但错误,而开启深度思考后虽得出正确答案D,但耗时长达4分多钟[9][10][14][18] - 深度思考过程存在冗余,模型在思考中期已找到正确答案,但后续又进行了大量不必要的推理[19][20] - 在“图片找不同”任务中,非思考模式快速找出7处不同,但存在明显幻觉,例如识别出图中不存在的物品[24][25] - 开启思考模式后,用时16秒找出12处不同,但幻觉问题似乎更为严重[26][29] 模型技术细节与知识库特征 - 根据模型自身回答,其知识截止日期与DeepSeek V4 flash/pro一致,均为2025年5月[44] - 有迹象表明,视觉模型的知识库可能独立于文本模型,例如视觉模型知晓某特定人物,而V4 flash/pro在不联网时则不了解该人物[45][48] - 视觉模型甚至找到了2026年4月的信息,这进一步暗示其训练数据或知识更新可能独立进行[48] 公司技术发展节奏与行业影响 - 公司多模态能力的推出速度超出市场预期,此前行业普遍认为在多模态整合上公司资源有限、优先级不高[57] - 此次快速推出识图模式表明,公司的技术研发进展可能比其在技术报告中所暗示的更为超前[58] - 这引发市场对公司技术路线图其他方面的猜测,例如其在论文中提到的“积极探索模型稀疏性的其他新维度”可能也已取得进展[59]
DeepSeek识图模式是个新模型?!一手实测在此(没错我被灰度到了)
量子位·2026-04-30 14:09