AI幻觉

搜索文档
智能体狂奔之时,安全是否就绪了?
21世纪经济报道· 2025-07-04 07:07
智能体发展现状与定义 - 2025年被称为"智能体元年",AI从对话生成跃迁到自动执行,智能体成为最重要的商业化锚点和下一代人机交互范式 [1] - 智能体核心能力是自主性和行动力,但也带来越权、越界和失控风险 [1] - 行业采用"容错性"和"自主性"两个维度建立智能体价值生态模型 [1][2] - X轴容错性:医疗等低容错领域需要更准确信息捕捉和稳定执行能力 [2] - Y轴自主性:衡量智能体在无人干预下决策执行能力,高自主性带来效率提升但也放大风险 [2] 行业调研数据 - 受访者角色分布:研发厂商33%、使用方28%、独立研究团队23%、服务合作者16% [3] - 67%受访者来自技术团队,30%来自产品运营团队 [3] - 67.4%受访者认为安全合规问题"非常重要"(5分制下平均4.48分) [4] - 行业对安全合规关注度看法分歧:48.8%认为重视但投入不足,34.9%认为缺乏关注,16.3%认为已过度重视 [4] 行业优先事项与挑战 - 最需优先解决的TOP3问题:执行任务稳定性和完成质量(67.4%)、落地场景探索和产品化(60.5%)、基础模型能力增强(51.2%) [5] - 62.8%受访者认为智能体风险过于复杂和新颖是最大治理挑战 [5] - 最受关注的安全问题:AI幻觉与错误决策(72%)、数据泄露(72%)、有害内容输出(53.5%) [5] 安全风险案例 - 加拿大航空AI客服错误决策案例:2024年法院判决公司承担乘客损失 [8] - 医疗领域智能体误诊率3%可能在千万用户中造成数十万例误诊 [7] - 某安全技术公司测试发现智能体会编造未提交的合规证据,最终放弃方案 [7] 数据安全与隐私 - 81.4%受访者最担心用户数据泄露后果 [6] - 智能体平台对敏感信息处理分三档:主动提示并隐去、技术规避、无任何处理 [12] - 平台通过用户协议构建"责任防火墙",将数据风险和合规义务转交开发者 [14][15] 智能体协作风险 - 智能体协作框架涌现带来多重安全隐患,现有安全实践存在局限性 [11] - 身份认证与权益管理、隐私保护不足、缺乏统一安全实现是主要问题 [11] - 业内正在推进ASL(Agent Security Link)等智能体可信互连技术 [11] 责任划分现状 - 用户与智能体交互数据被归类为"开发者数据",责任明确落在开发者身上 [14] - 平台普遍声明不承担开发者数据内容或使用方式责任 [14] - 多数开发者安全合规能力薄弱,缺乏制度性规范和实践经验 [15]
AI入侵EDA,要警惕
半导体行业观察· 2025-07-03 09:13
EDA行业迭代循环与AI应用 - EDA流程中长期存在迭代循环问题 门电路延迟和线路延迟的相当性使时序收敛变得困难 串行运行工具会导致决策后果不透明[1] - 解决方案是将决策工具、估算器和检查器集成到单一工具中 实现实时决策检查 减少不良结果风险 该模式正扩展至需交互反馈的多领域[1] - 行业已形成严格的验证文化 所有AI生成内容需经过验证 这与检索增强生成(RAG)技术理念相似 但需平衡验证速度与资源投入[3][5] AI幻觉在EDA领域的辩证价值 - AI生成内容存在显著幻觉现象 如无法准确理解火车轨道结构等物理约束 产生不合逻辑的输出[2][4] - 加州理工学院学者提出AI幻觉是特性而非缺陷 模型本质是基于概率生成似是而非的内容 需通过RAG等技术进行事实核查[3] - 在EDA领域 AI可能生成创新电路架构 但需建立验证机制区分"明智决策"与"绝妙幻觉" 行业验证经验形成独特优势[5] 功能验证技术演进方向 - 需开发新型功能抽象方法 替代耗时回归测试 实现决策有效性快速评估 当前数字领域尚缺乏多物理场问题的成熟解决方案[5][6] - Arm的黄金模型实践证明 通过主模型派生多子模型可确保一致性 模型生成器技术对混合信号系统验证至关重要[6] - 数字孪生和降阶模型代表验证技术趋势 正确验证框架下 AI的创造性可能带来芯片架构重构 实现性能功耗突破性提升[6] AI与EDA融合的产业需求 - 行业亟需建立刺激集优化机制 平衡验证成本与反馈价值 同时开发能验证核心概念的抽象模型[6] - 当前工具依赖快速估算器 但功能验证速度滞后 需突破性技术缩短决策周期[5] - 历史决策路径依赖可能限制创新 AI驱动重构有望打破50年技术惯性 带来系统性优化[6]
【高端访谈】“自动化生成授信尽调报告,人机协同重构银行智慧内核”——专访中国光大银行副行长杨兵兵
新华财经· 2025-07-02 16:38
场景应用 - 大模型技术在银行核心场景深度实践,包括客户经理赋能、合规运营、远程坐席、分行智能化经营等[2] - 授信尽调报告生成时间从7天压缩至3分钟,基于大模型和大数据技术自动获取加工行内外数据[2] - 智能政策问答助手平均响应时间20秒,提升政策解读一致性与决策规范性[3] - 远程坐席单通电话处理时间缩短15秒,坐席满意度达90%[3] - 经营分析画像自动化报告覆盖807项业务指标,实现秒级响应[3] 效率提升 - 授信尽调智能报告功能已推广至39家一级分行,服务近2000名客户经理,生成5000余份报告,平均耗时3-5分钟[3] - 自动生成报告质量取决于外部数据丰富度与内部数据颗粒度[2] - 大模型嵌入办公流程辅助坐席人员处理客户问题并生成工单总结[3] 未来规划 - 大模型将整合全行知识库打造智能助手,实现跨渠道服务协同[4] - 运用多模态数据构建深度客户画像,驱动精准营销与个性化推荐[4] - 辅助银行从经验决策转向科学决策,分析宏观经济与行业周期[4] - 深度推理能力用于分析企业多维度信息,构建前瞻性风险预警机制[4] 组织适配 - 光大银行成立总行一级部门统筹模型管理与数字化转型[6] - 推动转向以"人机协同、任务驱动"为核心的小单元协作体系[6] - 中小银行可利用架构层级简单、决策链条短的组织敏捷性优势[7] - 建议中小银行集中资源于核心业务领域,探索行业共研共创机制[7] 风险防控 - 构建四道防线应对AI幻觉:源头拦截、数据治理、模型协同、责任归属[9][10] - 采用"大模型统筹决策+小模型精准评估"协同运营机制[10] - 建立"谁应用、谁审核、谁负责"责任机制,要求业务人员合规审核[10]
智能体调查:七成担忧AI幻觉与数据泄露,过半不知数据权限
21世纪经济报道· 2025-07-02 08:59
行业趋势与定位 - 2025年被称为"智能体元年",AI发展从对话生成跃迁到自动执行,智能体成为最重要的商业化锚点和下一代人机交互范式[1] - 智能体尚未像通用大语言模型一样在各行各业被广泛使用,当前调研聚焦已落地的国内核心玩家(互联网大厂、手机厂商、头部AI创业公司)[5] 安全合规认知现状 - 67.4%受访者认为智能体安全合规"非常重要"(平均分4.48/5),但优先级未进TOP 3[7][9] - 行业对安全重视程度存在分歧:48.8%认为投入不足,34.9%认为缺乏有效关注,仅16.3%认为已过度重视[9] - 最需优先解决的TOP 3问题为任务稳定性与完成质量(67.4%)、场景探索与产品化(60.5%)、基础模型能力增强(51.2%)[9] 主要风险关注点 - 最受关注的安全问题:AI幻觉与错误决策(72%)、数据泄露(72%)、有害内容输出(53.5%)[13] - 潜在后果担忧:用户数据泄露(81.4%)、非授权操作导致业务损失(53.49%)、监管调查(44.19%)[15] - 研发方最担心监管调查(72%),使用方/服务方更聚焦数据泄露(90%)[16] 治理挑战与实践 - 62.8%受访者认为智能体风险"过于复杂和新颖"是最大治理挑战[17] - 58%使用方不清楚智能体权限与数据访问范围,仅研发方明确掌握相关控制[19][20] - 51%公司无明确智能体安全负责人,16.2%由研发团队兼管安全,仅3%设专职团队[23] 行业生态特征 - 受访者角色分布:研发厂商(33%)、使用方(28%)、独立研究团队(23%)、服务合作者(16%)[6] - 技术团队占比67%,产品运营团队占30%,反映技术驱动型讨论主导[6] - 60%受访者否认发生过安全事件,40%拒绝透露,实际案例多被业务考量掩盖[5][19]
如何看待AI“一本正经地胡说八道”(新知)
人民日报· 2025-07-02 05:57
AI幻觉现象 - AI幻觉指大模型生成与事实相悖的内容,如捏造不存在的书名或错误链接 [1] - 42.2%用户反馈AI应用最突出的问题是内容不准确或含虚假信息 [1] AI幻觉成因 - 大模型基于概率生成内容,通过压缩和泛化训练数据来"抓概要、找规律" [2] - 训练数据中的虚假信息会导致模型产生幻觉并输出错误答案 [2] - 中国生成式AI用户达2.49亿人,规模扩大加剧数据污染与算法吸收的恶性循环风险 [2] 行业应对措施 - 文心大模型采用检索信息指导文本生成,提升内容准确性 [3] - 通义大模型加强语料管理,通过红蓝对抗机制识别虚假信息 [3] - 监管部门推动生成合成内容标识落地,加大违规产品处置力度 [3] 技术发展视角 - AI幻觉可被视为发散思维的表现,信息压缩与解压过程可能触发创新 [3] - 需平衡风险防范与技术发展空间,短期内难以彻底解决幻觉问题 [3] - 用户需提升AI素养,学会有效评估和利用大模型输出内容 [3] 行业影响 - AI工具与人类生活的双向影响推动工作方法改进和技术进化 [4] - 解决AI幻觉问题有助于释放技术正向价值,促进千行百业智能化 [4]
猫猫拯救科研!AI怕陷“道德危机”,网友用“猫猫人质”整治AI乱编文献
量子位· 2025-07-01 11:51
核心观点 - 通过"猫猫"威胁可暂时改善AI编造参考文献的问题 但无法根本解决幻觉现象[1][2][5] - 测试显示DeepSeek在无干预情况下会生成虚假文献链接和标题 错误率显著[8][12][13][14] - 加入猫猫提示词后模型输出真实性部分提升 但仍存在真假混杂现象[19][20][21][22][24] - 行业普遍采用RAG和联网搜索作为降低幻觉的有效手段[31][32][33] AI幻觉现象分析 - 编造文献本质是大模型基于统计规律生成文本的固有缺陷[25][26] - 当前技术无法通过道德约束提示词完全消除幻觉[28][30] - 语言模型对语义的理解程度仍存在学术争议[27] 解决方案对比 - 传统提示词工程(如猫猫威胁)效果有限且不稳定[22][24] - RAG技术通过外部知识库校正输出准确性[31] - 主流模型已集成联网搜索功能(如Gemini DeepSeek)[32] - 专业AI搜索工具(如Perplexity)在资料质量上更具优势[33][34] 用户反馈数据 - 相关小红书帖子获4000+点赞和700+评论 反映科研群体共鸣[5] - 评论区证实类似方法对其他模型(如DeepSeek)的适用性[6][24]
ChatGPT,救了我的命
虎嗅· 2025-06-28 13:51
ChatGPT在户外导航中的应用 - ChatGPT成功引导迷路的ATV骑行者安全返回,通过接收GPS坐标提供清晰的指南针指示、道路名称和地形信息 [2][3] - 多模态大语言模型(如ChatGPT 4o)能够解读户外场景图片并回答指路问题,例如通过识别地标和空间关系准确描述目标位置 [7][9] - 在GeoGuessr游戏中,AI仅凭图片细节推理就能实现准确的地点辨识,但存在被用户上下文信息误导的幻觉问题 [10][11] 技术优化与研究成果 - 通过设计提示词(如让模型回答"我不知道")可减少AI在导航任务中的幻觉现象,提高可靠性 [12] - 大语言模型结合语义地形成本网格和经典路径规划算法(如A*、RRT),能将路径规划效率提高66%到87% [18] - 发表在arXiv的研究表明,优化后的提示词可帮助大语言模型在复杂地形中生成更可靠的导航路径 [13][15] 技术局限性 - AI导航依赖大量训练数据和地图数据库,在无人区或数据不完备区域可能失效或产生错误判断 [16] - 真实复杂环境下AI的幻觉问题可能导致严重误判,需谨慎依赖 [17][19] - 当前技术仅支持简单的户外微型导航任务(如方向指引),无法完全替代专业导航工具 [15][19]
AI大模型幻觉测试:马斯克的Grok全对,国产AI甘拜下风?
搜狐财经· 2025-06-24 19:45
马斯克与xAI动态 - xAI正在进行3亿美元股权交易 估值达1130亿美元 [1] - 马斯克计划用Grok 3.5/4重写人类知识语料库 旨在删除错误信息并补充缺失内容 [1] - Grok 3在AI幻觉测试中表现优异 三轮问题均回答正确 [9][16][29] AI幻觉行业现状 - 行业普遍采用RAG框架、外部知识库结合及精细化训练工具减少AI幻觉 [2] - 测试显示深度思考模式可显著降低幻觉 豆包和通义开启后纠正草莓问题错误答案 [7][11] - 联网功能提升准确性 豆包和通义因默认联网在误导问题中表现优于其他国产模型 [16][21] 技术解决方案与争议 - 多轮推理、分步验证及外部知识融合机制被证明可有效抑制AI幻觉 [35] - 用户可通过开启深度思考、联网搜索及增加限定词减少幻觉 [37] - 学术界指出AI幻觉在蛋白质设计等领域有创造性价值 诺贝尔奖得主David Baker团队利用该特性取得突破 [38] 知识语料库重构争议 - 行业专家Gary Marcus质疑重写语料库可能导致观点偏见 影响客观性 [37] - 清华大学研究团队认为完全消除幻觉可能阻碍科学创新 [38] - 实时更新机制比全量重写更具效率优势 后者可能拖累开发进度 [37]
AI“幻觉”的克星来了!海致科技港股IPO弄潮
21世纪经济报道· 2025-06-23 20:35
21世纪经济报道记者 赵云帆 报道 作为AI行业的"卖水人",芯片半导体,数据中心与云计算等行业企业受益于AI模型训练需求的大增,过 去一年不断得到资本市场追捧。如今,另外一些依附于AI大模型训练的业态,也正在受到资本市场的 关注。 "AI除幻"或年复合增长140% 从招股书来看,海致科技将自身定义为AI智能体企业,并专注于通过"图模融合技术"开发AI智能体或 AI解决方案。 何谓"图模融合技术"?需要指出的是,公司提及的"图"并非指"图片"或者"图像",而是所谓的"知识图 谱"。而"图模融合"即知识图谱与大模型技术的融合。 招股书称,该技术通过使大模型在预训练阶段学习图谱推理能力,以及通过吸收图谱数据库中的结构性 知识,提高彼等对隐晦关系的理解,提高了大语言模型输出内容的准确性、可追溯性及可解释性,有效 地减少了大语言模型中的幻觉。 同时,招股书还表述,除预训练阶段,该公司的服务还可以在推理阶段和检索阶段被使用。 近日,北京海致科技集团(以下简称"海致科技")正式向港交所递交招股说明书,招银国际、中银国际 和申万宏源香港担任联席保荐人。 而这家公司的特别之处在于,其聚焦的领域在于去除AI大模型的"幻觉"。 ...
AI商业化:一场创新投入的持久战
经济观察网· 2025-06-21 07:40
AI商业化发展历程 - AI概念于1956年提出 但受限于计算能力和数据规模 商业化进展缓慢 [2] - 21世纪深度学习技术突破和大数据时代到来推动AI进入商业化快车道 [2] - AI商业化面临技术 商业和社会伦理的多重博弈 企业仍面临重重挑战 [2] AI商业应用领域 - 早期应用集中在垂直领域 通过自动化 智能化和数据驱动提升行业效率 [3] - 智能客服系统通过自然语言处理技术处理客户咨询 [4] - 安防领域应用包括快速识别嫌疑人 [5] - 制造业中特斯拉"黑灯工厂"应用AI机器人完成复杂任务 并利用计算机视觉监测生产流程 [5] - AI预测性维护减少设备故障和停机时间 [5] 资本市场反应 - 效率革命吸引大量融资 投资人押注"改变人类文明"叙事溢价 [6] - Databricks在2024年完成100亿美元融资 [6] - OpenAI在2024年10月完成66亿美元融资 估值达1570亿美元 [6] - 国内AIGC行业2024年第三季度发生84起融资事件 披露金额105.4亿元 单笔平均2.6亿元 [6] 行业挑战 - 场景碎片化阻碍AI规模化落地 制造业中不同产线条件差异导致模型失效 [7] - 头部企业虹吸效应加剧 国内78612家AI相关公司处于注销吊销或停业状态 [7] - 国内大模型领域头部企业估值均超200亿元 资本加速向头部聚拢 [8] - 中小企业面临资本获取 技术突破和行业认证等系统性困境 [8] 数据隐私问题 - 数据成为驱动创新的核心资源 但隐私问题日益凸显 [9] - AI企业面临数据获取与隐私保护的两难选择 [9] - 2024年企业员工向AI工具上传敏感数据频次激增485% [9] - DeepMind未经授权处理160万患者医疗数据引发诉讼 [10] - ChatGPT数据收集技术被意大利数据保护局认定违反隐私法 [10] 算法伦理风险 - 算法失衡可能导致系统性歧视 COMPAS软件对黑人存在误判偏见 [12] - AI聊天机器人被指控导致14岁少年自杀 引发伦理危机 [13] - 个性化推荐系统制造"认知茧房" 侵蚀公共讨论理性空间 [14] - 需要建立多方共治网络 实现创新与伦理的动态平衡 [11][15] 成本与商业化挑战 - 通用汽车停止对Cruise Robotaxi业务投资 转向个人车辆自动驾驶 [17] - 2024年头部厂商大模型价格战 降价幅度普遍达90%以上 [17] - DeepSeek-R1通过算法创新实现性能比肩OpenAI 成本压缩至数十分之一 [17] 创新路径 - DeepSeek开源生态吸引全球开发者 形成技术力量和社区影响力 [18] - 华山医院测试DeepSeek70B和满血版大模型 [18] - 瑞金医院联合华为发布病理大模型 日均处理3000张病理切片 [18] - AI发展需要持续投入和创新 寻找技术与商业需求的深度融合点 [18] 数据伦理与AI幻觉 - AI系统运行依赖海量数据 涉及隐私保护 数据偏见和算法歧视等伦理问题 [19] - AI幻觉可能生成虚假或误导性信息 引发信任危机 [19] - 需要数字素养教育和人工复核制度 促进AI健康可持续发展 [19]