Workflow
Rubbish in
icon
搜索文档
DeepSeek对“王一博案”道歉?假新闻!
虎嗅APP· 2025-07-03 23:02
核心观点 - 近期网络热议DeepSeek因AI模型违规关联王一博与李爱庆腐败案而道歉,但经核查发现DeepSeek官方并未发布任何道歉声明,大量媒体却一致报道不实消息 [3] - 该事件反映出AI大模型在引用网络信息时存在严重缺陷,即通过假新闻生成新的假新闻,比传统"幻觉问题"更严峻 [6] - AI大模型虽通过联网搜索和推理能力缓解了早期幻觉问题,但面对网络虚假信息时缺乏有效核查机制,导致"垃圾进垃圾出"效应 [6] AI行业现状与挑战 - AI大模型发展迅猛,早期幻觉问题有所改善,主要依赖联网搜索和推理能力生成回答 [6] - 当前AI无法有效辨别网络虚假信息,引用错误信息会导致错误输出,影响生成准确性 [6] - 在企业应用中,定制大模型需依赖专有知识库以避免生成错误答案,凸显通用模型在专业领域的局限性 [7] AI在新闻行业的应用局限 - 新闻从业者使用AI辅助写作时效率反而降低,因需额外时间核实AI生成信息的真实性 [7] - AI无法替代人类撰稿的核心原因在于其缺乏对网络信息真伪的独立判断能力,需人工二次验证 [7] - 行业普遍认为AI生成稿件的效率低于人工撰写,尤其在需要高准确性的场景中 [7] 事件折射的社会影响 - 人类生成假消息的行为会加剧AI输出错误信息,形成恶性循环 [8] - 该事件超出娱乐新闻范畴,揭示了AI技术在社会信息传播中的潜在风险 [6]
DeepSeek对“王一博案”道歉?假新闻!
虎嗅· 2025-07-03 22:51
虚假新闻事件 - 有媒体报道DeepSeek因AI模型违规关联王一博与"李爱庆腐败案"作出道歉,但经核查发现公司所有官方渠道均未发布任何道歉声明[1] - 全网大量媒体和自媒体在无确凿证据情况下集体报道了这条不实消息,形成广泛传播的假新闻[1] - 市面上所有AI大模型在被询问该事件时,均错误地确认DeepSeek已道歉并引用不实新闻链接[2] AI技术局限性 - 当前AI大模型虽然通过增加联网搜索和推理能力缓解了早期"幻觉问题",但仍无法有效辨别网络虚假信息[8] - 当网络信息本身存在大量虚假内容时,AI会产生"Rubbish in, Rubbish out"效应,输出错误结论[8] - 新闻从业者使用AI辅助写作时,反而可能降低工作效率,因为需要花费大量时间核实AI生成信息的真实性[8] 行业发展启示 - AI需要提升在真假难辨网络环境中辨别真伪的能力,才能提高生成准确率并投入实际生产工作[8] - 企业应用大模型时,重要步骤是提供专有知识库,以避免生成错误答案[8] - 人类自身制造假消息的行为会进一步加剧AI输出错误信息的风险[9]