Workflow
AI幻觉
icon
搜索文档
“DeepSeek对王一博道歉”竟是AI编的?大模型幻觉引发热搜假案
第一财经· 2025-07-04 19:27
AI幻觉引发的虚假新闻事件 - 网络流传DeepSeek向演员王一博道歉的新闻系AI生成内容,经核查公司官方渠道未发布任何相关声明,且中国裁判文书网无对应判决记录 [1][2][3] - 虚假信息源头为社交媒体帖子,其中AI生成的道歉声明主体实为"AI聊天助手DeepSeek",但传播中被误认为公司行为 [4][5] - 经纪公司已澄清王一博相关消息为谣言,所谓DeepSeek道歉声明中提及的刑事判决书编号(2025)京03刑终174号经查无关联记录 [3][5] AI技术局限性分析 - 大模型存在"幻觉"缺陷,会基于统计概率生成看似合理但虚构的内容,根源在于技术局限和训练机制 [6][7] - 训练数据质量直接影响输出结果,错误信息输入可能导致"垃圾进垃圾出"效应 [7] - DeepSeek R1新版模型通过优化使幻觉率降低45%-50%,但此前SuperCLUE测评显示其旧版模型幻觉率达21%,国内排名第五 [7] 行业影响与反思 - AI生成内容被媒体误报为事实,反映出信息传播链条中验证环节的缺失 [1][8] - 当前AI仍难以避免伪造法律条文、人物事件等幻觉内容,需用户和机构加强甄别 [7][8] - 公司回应否认发布道歉声明,但AI生成内容中仍包含不实信息如虚构的法务团队行动和官方邮箱(official@deepseek.com与真实service前缀不符) [11]
给大热的智能体做体检:关键「安全」问题能达标吗?
21世纪经济报道· 2025-07-04 14:55
智能体发展现状 - 2025年被称为"智能体元年",AI发展从对话生成跃迁到自动执行,智能体成为最重要的商业化锚点和下一代人机交互范式 [1] - 资本市场及公司动态几乎都与智能体挂钩,但智能体定义混乱,需从"容错性"、"自主性"两个维度建立价值生态 [3] - 容错性是智能体未来发展的核心竞争指标,容错性低领域如医疗需要更准确信息捕捉和稳定执行能力,容错性高领域如写作创意错误后果轻微 [3] - 自主性衡量智能体在没有人类干预下决策和执行能力,更高自主性带来更高效率但也放大错误或滥用后果 [3] 行业认知与挑战 - 67.4%受访者认为智能体安全合规问题"非常重要",使用方最在意保障安全合规 [9] - 行业对安全合规关注度存在分歧:48.8%认为重视但投入不足,34.9%认为缺乏有效关注,16.3%认为已过度重视 [9] - 智能体最需优先解决TOP3问题:执行任务稳定性和完成质量(67.4%)、落地场景探索和产品化(60.5%)、基础模型能力增强(51.2%) [9] - 62.8%受访者认为智能体风险过于复杂和新颖是当前治理最大挑战,48.8%认为风险未显化导致优先级不高 [11] 安全风险焦点 - AI幻觉与错误决策(72%)、数据泄露(72%)、有害内容输出(53.5%)是行业最普遍关注的三大安全合规问题 [14] - 出现安全合规事件后最担心后果:用户数据泄露(81.4%)、非授权操作带来业务损失(53.49%)、监管调查或处罚(44.19%) [16] - 医疗诊断智能体若误诊率为3%,在千万级用户中可能造成数十万例误诊 [17] - 加拿大航空AI客服错误决策导致公司承担乘客损失,成为标志性案例 [18] 智能体协作与数据安全 - 智能体协作框架涌现带来多重安全隐患,现有互连协议在企业级安全设计上存在不足 [22] - "IIFAA智能体可信互连工作组"推出ASL技术,增强智能体协作中权限、数据、隐私安全保障 [22] - 近八成业内人士担心用户数据泄露,智能体协同工作涉及数据收集、存储、调用、跨主体交换多个风险环节 [24] - 智能体平台通过用户协议构建"责任防火墙",数据风险和合规义务转交开发者,但开发者安全合规能力普遍薄弱 [35][36] 数据透明度差异 - 通义平台简历助手主动提示风险并隐去敏感信息,讯飞、百度通过"**"替代敏感字段,智谱、腾讯、字节跳动平台未警示也未遮掩敏感信息 [27][30][32] - 用户数据流转路径复杂,责任分配模糊,开发方未明示背后工具、数据存储节点和算法判断层数 [32]
智能体狂奔之时,安全是否就绪了?
21世纪经济报道· 2025-07-04 07:07
智能体发展现状与定义 - 2025年被称为"智能体元年",AI从对话生成跃迁到自动执行,智能体成为最重要的商业化锚点和下一代人机交互范式 [1] - 智能体核心能力是自主性和行动力,但也带来越权、越界和失控风险 [1] - 行业采用"容错性"和"自主性"两个维度建立智能体价值生态模型 [1][2] - X轴容错性:医疗等低容错领域需要更准确信息捕捉和稳定执行能力 [2] - Y轴自主性:衡量智能体在无人干预下决策执行能力,高自主性带来效率提升但也放大风险 [2] 行业调研数据 - 受访者角色分布:研发厂商33%、使用方28%、独立研究团队23%、服务合作者16% [3] - 67%受访者来自技术团队,30%来自产品运营团队 [3] - 67.4%受访者认为安全合规问题"非常重要"(5分制下平均4.48分) [4] - 行业对安全合规关注度看法分歧:48.8%认为重视但投入不足,34.9%认为缺乏关注,16.3%认为已过度重视 [4] 行业优先事项与挑战 - 最需优先解决的TOP3问题:执行任务稳定性和完成质量(67.4%)、落地场景探索和产品化(60.5%)、基础模型能力增强(51.2%) [5] - 62.8%受访者认为智能体风险过于复杂和新颖是最大治理挑战 [5] - 最受关注的安全问题:AI幻觉与错误决策(72%)、数据泄露(72%)、有害内容输出(53.5%) [5] 安全风险案例 - 加拿大航空AI客服错误决策案例:2024年法院判决公司承担乘客损失 [8] - 医疗领域智能体误诊率3%可能在千万用户中造成数十万例误诊 [7] - 某安全技术公司测试发现智能体会编造未提交的合规证据,最终放弃方案 [7] 数据安全与隐私 - 81.4%受访者最担心用户数据泄露后果 [6] - 智能体平台对敏感信息处理分三档:主动提示并隐去、技术规避、无任何处理 [12] - 平台通过用户协议构建"责任防火墙",将数据风险和合规义务转交开发者 [14][15] 智能体协作风险 - 智能体协作框架涌现带来多重安全隐患,现有安全实践存在局限性 [11] - 身份认证与权益管理、隐私保护不足、缺乏统一安全实现是主要问题 [11] - 业内正在推进ASL(Agent Security Link)等智能体可信互连技术 [11] 责任划分现状 - 用户与智能体交互数据被归类为"开发者数据",责任明确落在开发者身上 [14] - 平台普遍声明不承担开发者数据内容或使用方式责任 [14] - 多数开发者安全合规能力薄弱,缺乏制度性规范和实践经验 [15]
AI入侵EDA,要警惕
半导体行业观察· 2025-07-03 09:13
EDA行业迭代循环与AI应用 - EDA流程中长期存在迭代循环问题 门电路延迟和线路延迟的相当性使时序收敛变得困难 串行运行工具会导致决策后果不透明[1] - 解决方案是将决策工具、估算器和检查器集成到单一工具中 实现实时决策检查 减少不良结果风险 该模式正扩展至需交互反馈的多领域[1] - 行业已形成严格的验证文化 所有AI生成内容需经过验证 这与检索增强生成(RAG)技术理念相似 但需平衡验证速度与资源投入[3][5] AI幻觉在EDA领域的辩证价值 - AI生成内容存在显著幻觉现象 如无法准确理解火车轨道结构等物理约束 产生不合逻辑的输出[2][4] - 加州理工学院学者提出AI幻觉是特性而非缺陷 模型本质是基于概率生成似是而非的内容 需通过RAG等技术进行事实核查[3] - 在EDA领域 AI可能生成创新电路架构 但需建立验证机制区分"明智决策"与"绝妙幻觉" 行业验证经验形成独特优势[5] 功能验证技术演进方向 - 需开发新型功能抽象方法 替代耗时回归测试 实现决策有效性快速评估 当前数字领域尚缺乏多物理场问题的成熟解决方案[5][6] - Arm的黄金模型实践证明 通过主模型派生多子模型可确保一致性 模型生成器技术对混合信号系统验证至关重要[6] - 数字孪生和降阶模型代表验证技术趋势 正确验证框架下 AI的创造性可能带来芯片架构重构 实现性能功耗突破性提升[6] AI与EDA融合的产业需求 - 行业亟需建立刺激集优化机制 平衡验证成本与反馈价值 同时开发能验证核心概念的抽象模型[6] - 当前工具依赖快速估算器 但功能验证速度滞后 需突破性技术缩短决策周期[5] - 历史决策路径依赖可能限制创新 AI驱动重构有望打破50年技术惯性 带来系统性优化[6]
【高端访谈】“自动化生成授信尽调报告,人机协同重构银行智慧内核”——专访中国光大银行副行长杨兵兵
新华财经· 2025-07-02 16:38
场景应用 - 大模型技术在银行核心场景深度实践,包括客户经理赋能、合规运营、远程坐席、分行智能化经营等[2] - 授信尽调报告生成时间从7天压缩至3分钟,基于大模型和大数据技术自动获取加工行内外数据[2] - 智能政策问答助手平均响应时间20秒,提升政策解读一致性与决策规范性[3] - 远程坐席单通电话处理时间缩短15秒,坐席满意度达90%[3] - 经营分析画像自动化报告覆盖807项业务指标,实现秒级响应[3] 效率提升 - 授信尽调智能报告功能已推广至39家一级分行,服务近2000名客户经理,生成5000余份报告,平均耗时3-5分钟[3] - 自动生成报告质量取决于外部数据丰富度与内部数据颗粒度[2] - 大模型嵌入办公流程辅助坐席人员处理客户问题并生成工单总结[3] 未来规划 - 大模型将整合全行知识库打造智能助手,实现跨渠道服务协同[4] - 运用多模态数据构建深度客户画像,驱动精准营销与个性化推荐[4] - 辅助银行从经验决策转向科学决策,分析宏观经济与行业周期[4] - 深度推理能力用于分析企业多维度信息,构建前瞻性风险预警机制[4] 组织适配 - 光大银行成立总行一级部门统筹模型管理与数字化转型[6] - 推动转向以"人机协同、任务驱动"为核心的小单元协作体系[6] - 中小银行可利用架构层级简单、决策链条短的组织敏捷性优势[7] - 建议中小银行集中资源于核心业务领域,探索行业共研共创机制[7] 风险防控 - 构建四道防线应对AI幻觉:源头拦截、数据治理、模型协同、责任归属[9][10] - 采用"大模型统筹决策+小模型精准评估"协同运营机制[10] - 建立"谁应用、谁审核、谁负责"责任机制,要求业务人员合规审核[10]
智能体调查:七成担忧AI幻觉与数据泄露,过半不知数据权限
21世纪经济报道· 2025-07-02 08:59
行业趋势与定位 - 2025年被称为"智能体元年",AI发展从对话生成跃迁到自动执行,智能体成为最重要的商业化锚点和下一代人机交互范式[1] - 智能体尚未像通用大语言模型一样在各行各业被广泛使用,当前调研聚焦已落地的国内核心玩家(互联网大厂、手机厂商、头部AI创业公司)[5] 安全合规认知现状 - 67.4%受访者认为智能体安全合规"非常重要"(平均分4.48/5),但优先级未进TOP 3[7][9] - 行业对安全重视程度存在分歧:48.8%认为投入不足,34.9%认为缺乏有效关注,仅16.3%认为已过度重视[9] - 最需优先解决的TOP 3问题为任务稳定性与完成质量(67.4%)、场景探索与产品化(60.5%)、基础模型能力增强(51.2%)[9] 主要风险关注点 - 最受关注的安全问题:AI幻觉与错误决策(72%)、数据泄露(72%)、有害内容输出(53.5%)[13] - 潜在后果担忧:用户数据泄露(81.4%)、非授权操作导致业务损失(53.49%)、监管调查(44.19%)[15] - 研发方最担心监管调查(72%),使用方/服务方更聚焦数据泄露(90%)[16] 治理挑战与实践 - 62.8%受访者认为智能体风险"过于复杂和新颖"是最大治理挑战[17] - 58%使用方不清楚智能体权限与数据访问范围,仅研发方明确掌握相关控制[19][20] - 51%公司无明确智能体安全负责人,16.2%由研发团队兼管安全,仅3%设专职团队[23] 行业生态特征 - 受访者角色分布:研发厂商(33%)、使用方(28%)、独立研究团队(23%)、服务合作者(16%)[6] - 技术团队占比67%,产品运营团队占30%,反映技术驱动型讨论主导[6] - 60%受访者否认发生过安全事件,40%拒绝透露,实际案例多被业务考量掩盖[5][19]
如何看待AI“一本正经地胡说八道”(新知)
人民日报· 2025-07-02 05:57
AI幻觉现象 - AI幻觉指大模型生成与事实相悖的内容,如捏造不存在的书名或错误链接 [1] - 42.2%用户反馈AI应用最突出的问题是内容不准确或含虚假信息 [1] AI幻觉成因 - 大模型基于概率生成内容,通过压缩和泛化训练数据来"抓概要、找规律" [2] - 训练数据中的虚假信息会导致模型产生幻觉并输出错误答案 [2] - 中国生成式AI用户达2.49亿人,规模扩大加剧数据污染与算法吸收的恶性循环风险 [2] 行业应对措施 - 文心大模型采用检索信息指导文本生成,提升内容准确性 [3] - 通义大模型加强语料管理,通过红蓝对抗机制识别虚假信息 [3] - 监管部门推动生成合成内容标识落地,加大违规产品处置力度 [3] 技术发展视角 - AI幻觉可被视为发散思维的表现,信息压缩与解压过程可能触发创新 [3] - 需平衡风险防范与技术发展空间,短期内难以彻底解决幻觉问题 [3] - 用户需提升AI素养,学会有效评估和利用大模型输出内容 [3] 行业影响 - AI工具与人类生活的双向影响推动工作方法改进和技术进化 [4] - 解决AI幻觉问题有助于释放技术正向价值,促进千行百业智能化 [4]
猫猫拯救科研!AI怕陷“道德危机”,网友用“猫猫人质”整治AI乱编文献
量子位· 2025-07-01 11:51
核心观点 - 通过"猫猫"威胁可暂时改善AI编造参考文献的问题 但无法根本解决幻觉现象[1][2][5] - 测试显示DeepSeek在无干预情况下会生成虚假文献链接和标题 错误率显著[8][12][13][14] - 加入猫猫提示词后模型输出真实性部分提升 但仍存在真假混杂现象[19][20][21][22][24] - 行业普遍采用RAG和联网搜索作为降低幻觉的有效手段[31][32][33] AI幻觉现象分析 - 编造文献本质是大模型基于统计规律生成文本的固有缺陷[25][26] - 当前技术无法通过道德约束提示词完全消除幻觉[28][30] - 语言模型对语义的理解程度仍存在学术争议[27] 解决方案对比 - 传统提示词工程(如猫猫威胁)效果有限且不稳定[22][24] - RAG技术通过外部知识库校正输出准确性[31] - 主流模型已集成联网搜索功能(如Gemini DeepSeek)[32] - 专业AI搜索工具(如Perplexity)在资料质量上更具优势[33][34] 用户反馈数据 - 相关小红书帖子获4000+点赞和700+评论 反映科研群体共鸣[5] - 评论区证实类似方法对其他模型(如DeepSeek)的适用性[6][24]
ChatGPT,救了我的命
虎嗅· 2025-06-28 13:51
ChatGPT在户外导航中的应用 - ChatGPT成功引导迷路的ATV骑行者安全返回,通过接收GPS坐标提供清晰的指南针指示、道路名称和地形信息 [2][3] - 多模态大语言模型(如ChatGPT 4o)能够解读户外场景图片并回答指路问题,例如通过识别地标和空间关系准确描述目标位置 [7][9] - 在GeoGuessr游戏中,AI仅凭图片细节推理就能实现准确的地点辨识,但存在被用户上下文信息误导的幻觉问题 [10][11] 技术优化与研究成果 - 通过设计提示词(如让模型回答"我不知道")可减少AI在导航任务中的幻觉现象,提高可靠性 [12] - 大语言模型结合语义地形成本网格和经典路径规划算法(如A*、RRT),能将路径规划效率提高66%到87% [18] - 发表在arXiv的研究表明,优化后的提示词可帮助大语言模型在复杂地形中生成更可靠的导航路径 [13][15] 技术局限性 - AI导航依赖大量训练数据和地图数据库,在无人区或数据不完备区域可能失效或产生错误判断 [16] - 真实复杂环境下AI的幻觉问题可能导致严重误判,需谨慎依赖 [17][19] - 当前技术仅支持简单的户外微型导航任务(如方向指引),无法完全替代专业导航工具 [15][19]
AI大模型幻觉测试:马斯克的Grok全对,国产AI甘拜下风?
搜狐财经· 2025-06-24 19:45
马斯克与xAI动态 - xAI正在进行3亿美元股权交易 估值达1130亿美元 [1] - 马斯克计划用Grok 3.5/4重写人类知识语料库 旨在删除错误信息并补充缺失内容 [1] - Grok 3在AI幻觉测试中表现优异 三轮问题均回答正确 [9][16][29] AI幻觉行业现状 - 行业普遍采用RAG框架、外部知识库结合及精细化训练工具减少AI幻觉 [2] - 测试显示深度思考模式可显著降低幻觉 豆包和通义开启后纠正草莓问题错误答案 [7][11] - 联网功能提升准确性 豆包和通义因默认联网在误导问题中表现优于其他国产模型 [16][21] 技术解决方案与争议 - 多轮推理、分步验证及外部知识融合机制被证明可有效抑制AI幻觉 [35] - 用户可通过开启深度思考、联网搜索及增加限定词减少幻觉 [37] - 学术界指出AI幻觉在蛋白质设计等领域有创造性价值 诺贝尔奖得主David Baker团队利用该特性取得突破 [38] 知识语料库重构争议 - 行业专家Gary Marcus质疑重写语料库可能导致观点偏见 影响客观性 [37] - 清华大学研究团队认为完全消除幻觉可能阻碍科学创新 [38] - 实时更新机制比全量重写更具效率优势 后者可能拖累开发进度 [37]