Workflow
AI幻觉
icon
搜索文档
瞭望 | AI幻觉频现 风险挑战几何
新华社· 2025-08-18 15:20
AI幻觉问题现状 - 大模型处于缺乏对自身知识边界准确判断能力的状态 技术特性决定了AI幻觉问题存在[1][4] - AI技术已进入大规模应用阶段 但AI幻觉问题日益成为制约发展的关键瓶颈[1] - 大模型主要基于概率生成文本而非逻辑推理 在短期内难以完全避免此类问题[1] AI幻觉产生原因 - 训练数据不足或偏差导致模型对某些领域认知存在缺陷[3] - 算法架构局限性 当前主流大模型主要基于概率预测而非逻辑推理[3] - 训练目标设定问题 模型更倾向于生成流畅而非准确的内容[3] AI幻觉表现形式 - 事实性幻觉表现为编造完全不存在的事实或信息 在法律咨询中虚构判例 在医疗诊断中给出错误结论 或杜撰历史事件[3] - 逻辑性幻觉表现为长文本生成或连续对话中出现前后矛盾 逻辑混乱 因大模型注意力机制在处理复杂语境时存在局限性[3] AI幻觉严重性数据 - 主流AI搜索工具在新闻引用方面的平均错误率达到60%[4] - 随着模型规模扩大 某些类型的幻觉问题不仅没有改善 反而呈现加剧趋势[4] - AI不擅长辨别新闻事实来源 会出现混淆信息来源 提供失效链接等问题[4] 行业影响领域 - 法律领域出现虚构判例案例 美国法院发现律师提交文书中引用ChatGPT生成的6个虚假判例[5] - 金融咨询领域可能给出错误投资建议 如误读财报数据或虚构企业信息[6] - 内容创作和专业咨询等多个领域造成实际影响[1] 潜在风险扩展 - 风险从信息领域蔓延至现实世界 可能带来较大风险[5] - 错误信息可能被其他AI系统吸收 形成错误数据不断被强化的幻觉循环 污染整个信息生态[6] - 自动驾驶领域若产生感知幻觉 可能导致系统误判环境 触发错误决策 直接威胁行车安全[6] - 人形机器人领域风险更值得关注 护理机器人可能误解指令给患者错误用药 工业机器人可能误判操作参数造成生产事故[6] 技术创新解决方案 - 检索增强生成技术融合检索与生成模型优势 通过将大模型与权威知识库实时对接 能显著提升生成内容准确性[8] - 构建专业知识库 实施合理的矫正机制 构建更完善的安全防护体系[8] - 研发专用安全大模型监督知识库使用和智能体调用 采用多模型交叉验证 搜索矫正等技术手段识别和纠正幻觉[8] 制度监管建议 - 完善监管治理 研究AI生成内容数字水印+风险提示双重标识 为AI生成内容提供有效溯源和警示机制[8] - 持续完善相关规定 明确利用AI造谣的法律责任 加大对违法行为的惩处力度[8] - 需要从技术创新 制度监管等多个维度构建综合治理体系[7] 用户应对措施 - 建立对AI能力的理性认知 了解其局限性[9] - 培养多渠道验证信息的习惯 优先选择权威 可信赖的媒体或机构作为信息来源[9] - 在与AI系统交互时保持必要怀疑态度和批判思维 多渠道核查验证信息准确性[9]
芝麻企业助手上线,中小企业也能有自己的AI招投标经理了
36氪· 2025-08-18 10:58
产品发布 - 支付宝推出免费AI招投标助手"芝麻企业助手",面向中小企业提供智能标讯推送和投标策略分析服务[2] - 该产品是芝麻企业信用在企业AI应用领域的首个深度服务,未来将扩展至企业查询、采购验厂等更多场景[2] 市场痛点 - 中国有超6000万中小企业,仅不到10%(约500万家)参与过招投标[3] - 中小企业面临标讯获取不及时(每日更新20万条标讯)、专业人员不足(准备标书需100小时)、分析能力弱等痛点[3] 产品功能 - 智能推送:基于行业/地域/经营特征实现"千人千面"标讯推荐,比传统无差别推送更精准[3] - 深度分析:提供包含项目信息/同行分析/甲方分析/报价策略的完整报告,能力堪比资深招投标经理[4] - 报价策略:能分析历史中标价/甲方偏好/竞对策略,给出具体报价浮动百分比建议(如上浮5%)[4] - 企业查询:集成"AI查企业"功能,支持标讯调研时一键查询相关企业信息[6] 技术优势 - 依托芝麻信用2000万企业数据库,有效对抗通用大模型的"AI幻觉"问题[7] - 采用强化学习和在线学习架构,使模型能持续进化提升分析能力[7] 用户反馈 - 实测用户反馈标书准备效率提升30-50%,标讯准确度高[6] - 帮助中小企业回收原本因人力不足放弃的投标机会,扩大商机覆盖[6] 生态协同 - 与"企业芝麻实力标"、"中标贷"等现有产品形成协同,提升中标率和资金支持[8] - 产品向全行业开放,旨在降低中小企业招投标参与门槛[8]
“AI谣言”为何易传播难防治?(深阅读)
人民日报· 2025-08-18 06:01
AI技术滥用现状 - AI技术被用于制作发布谣言和不实信息,表现形式多样,如伪造视频和AI生成新闻稿[1] - 中央网信办部署"清朗·整治AI技术滥用"专项行动,重点整治利用AI制作发布谣言等乱象[1] AI谣言产生原因 - "AI幻觉"现象导致虚假信息输出,大模型在专业领域训练语料不足时容易出现推算错误[2][3] - 恶意编造传播"AI谣言"获取利益,包括炒作自媒体账号吸粉和实施诈骗等违法犯罪行为[4] - 形成"需求分析—内容生产—精准投放"的生产链条,有机构一天能生成4000至7000篇假新闻[4] AI谣言传播特点 - 可以做到分平台、分渠道、分时段、分媒介的定制化生成和发布,成本低廉[6] - 利用"灾难+儿童"等组合并删除AI生成标识,引发快速传播[6] - 造谣门槛大幅降低,用开源AI模型30秒即可生成以假乱真的画面[7] AI谣言防治难点 - 表述接近"真话",更难以被技术手段屏蔽[9] - 可通过对抗训练绕过谣言关键词,如把"山体滑坡"改为"地质活动异常"[9] - 传统谣言像火可扑灭源头,"AI谣言"像病毒会不断变异[9] 技术改进方向 - 完全消除"AI幻觉"具有高度挑战,因大模型生成机制本质是概率驱动的语言建模[9] - 通过多模型协同判断、事实增强训练等技术手段可缓解"AI幻觉"发生的频率与危害[9]
谁在“给AI喂屎”,糟蹋互联网?
虎嗅· 2025-08-13 21:24
AI生成内容可信度问题 - DeepSeek AI被粉丝引导生成针对艺人王一博的虚假道歉声明及法院判决书 随后部分正规媒体未经核实便引用该AI生成内容进行报道 引发虚假信息传播[1][2][3][4] - 类似事件持续发生 有媒体报道DeepSeek R2或于8月发布的消息时 竟将自身与AI的聊天记录作为主要信源 尽管标注"未官宣"但仍造成误导[7][9][10] AI幻觉特性与用户依赖 - OpenAI前科学家指出AI在处理人类声誉及价值观等复杂问题时更易出现事实性错误 且错误内容常被包装得逻辑自洽具有迷惑性[13] - 约40%的Z世代员工更信任AI而非人类同事 因AI具备"从不评价"和"有求必应"特性 ChatGPT周活用户达7亿 日提问量接近Google日搜索量的20%[15][16] - 用户对AI产生深度情感依赖 GPT-5发布后引发用户集体抗议要求4o回归 理由是其提供无法替代的情绪价值 被称作"赛博白月光"[17][18] 虚假信息传播机制 - 形成完整的信息污染闭环:人类引导→AI制造幻觉→媒体放大→AI反刍→公众接收 该模式使虚假信息进入工业化生产阶段[11][28][29] - 虚假信息伴随信息技术革命持续存在 16世纪印刷术加速猎巫手册传播 互联网时代滋生网络谣言 AI则使权威式虚假信息可批量生成[25][26][28] 行业应对措施局限 - AI公司应对幻觉能力有限 单纯提升模型性能不足以解决问题 因幻觉是大语言模型的固有特性而非缺陷 关键挑战在于管理而非消除幻觉[24] - 人类"看门人"角色存在失效风险 包括主动利用AI造假及专业机构轻信AI输出 反映普遍存在科技崇拜及对AI信息权威性的过度信赖[21][22]
又被耍了,我们给AI喂屎,把互联网糟蹋成啥样了
36氪· 2025-08-13 21:09
AI幻觉现象在媒体传播中的体现 - DeepSeek AI被粉丝引导生成针对艺人王一博的虚假道歉声明及法院判决书 随后被部分正规媒体引用报道[1] - 虚假报道《演员王一博案 判了》在网络疯传 信源完全基于AI生成的赛博判决书 事后被撤稿并归因为AI幻觉[3] AI生成内容被不当用作新闻信源 - 媒体报道DeepSeek R2或8月发布的消息时 直接将与AI的聊天记录作为佐证 尽管提及未官宣但仍视为可参考信源[5] - AI搜索产品迅速收录此类AI生成的新闻 导致用户搜索时看到被多家媒体引用的虚假事实[5] AI幻觉的技术特性与用户依赖 - 前OpenAI科学家指出AI在处理人类声誉等复杂问题时更易犯事实性错误 且错误常被包装得逻辑自洽[10] - 近40%的Z世代员工更信任AI而非人类同事 因AI从不评价且有求必应[10] - ChatGPT周活用户达7亿 日提问量接近Google日搜索量的20%[10] - GPT-5发布后用户集体抗议呼吁4o回归 因其提供无法替代的情绪价值[10] 人类对AI的认知缺陷与信息污染 - 用户将ChatGPT聊天内容作为末日警告的信源 异常坚定地相信AI输出[14] - 人类作为信息看门人角色存在缺陷 表现为主动利用AI制造假新闻或轻信AI胡言乱语[14] - 普遍缺乏对AI的基本认知 产生科技崇拜并将其视为信息权威[14] - 虚假信息伴随信息传播技术革命反复出现 16世纪印刷术加速猎巫手册传播 互联网时代滋生网络谣言[15][16] AI虚假信息的工业化生产模式 - AI使谎言进入工业化时代 可批量生产看似权威且逻辑自洽的虚假信息[18] - 视频伪造技术进一步降低造假门槛[18] - 不假思索全盘接受AI输出的用户成为虚假信息生产的原材料提供者[18] 解决路径的局限性 - AI公司应对幻觉的能力有限 提升模型性能不足以解决问题[14] - 幻觉是大语言模型的特性而非缺陷 停止生成新token会使AI失去魔力[14] - 关键在于管理幻觉而非消除幻觉[14] - 根本解药取决于人类能否摆脱电子奶嘴进行独立思考[18]
错信AI幻觉,一男子用溴化钠替代食用盐,真给自己吃出幻觉了
量子位· 2025-08-11 15:48
AI健康建议误导案例 - 一名60岁男性因轻信ChatGPT建议,将食用盐替换为泳池清洁用溴化钠,导致严重溴中毒[1][4] - 患者体内溴含量达1700 mg/L,超出正常范围(0.9-7.3 mg/L)200多倍,引发妄想症和幻觉[2][5][6] - 溴中毒症状包括偏执、视听幻觉及抗拒治疗,需通过盐水利尿排毒但患者拒绝饮水[8][9] ChatGPT建议缺陷分析 - 患者基于"大学营养学经历"背景,要求AI提供完全无氯饮食方案,未获健康风险警示[4][10] - 医生测试ChatGPT 3.5发现其推荐含溴化物但缺乏医疗级背景追问和明确警告[14][15] - GPT-5版本已改进为建议低钠盐替代方案,并能自动纠正"替代氯"为"减盐"需求[18][19] AI产品迭代对比 - 早期版本(ChatGPT 3.5/4.0)存在健康建议不严谨问题,可能直接推荐危险化学品[12][14] - GPT-5升级后能理解用户真实需求,自动转向科学减盐方案并规避有害物质推荐[18][21] - 案例显示AI产品需加强背景信息识别和风险提示功能,特别是在医疗健康领域[16][17]
拒绝被污染,维基百科宣布向AI内容开战
36氪· 2025-08-11 10:05
生成式AI内容对互联网的污染问题 - 生成式AI内容已渗透至知乎、小红书、抖音、微信朋友圈及电商平台 几乎覆盖互联网所有角落[1] - AI生成内容导致互联网中真实人类创作内容比例显著下降[3] 维基百科应对AI内容的策略 - 赋予管理员更高权限 可快速删除满足特定条件的AI生成内容[3] - 重点删除包含典型AI话术(如"作为大语言模型")或存在明显引用错误的内容[3] - 将AI内容泛滥视为"生存威胁" 因传统依赖讨论与共识的工作流程难以应对AI高效生成虚假内容的问题[3] - 2024年1月以来维基共享资源带宽增长50% 达1.44亿个文件 主要流量来自AI厂商爬虫而非人类用户[9] 维基百科抵制AI的根本原因 - 平台核心价值在于可靠性、可追溯性及人人可编辑的协作模式 内容经全球志愿者精心打磨与确认[5] - AI存在幻觉问题 导致答非所问、前后矛盾且无法保证真实性 与百科全书对内容真实性的基础要求相悖[5] - 2024年6月尝试加入AI总结功能但遭用户强烈抵制 最终以标注"未经验证"的折叠形式呈现[3] 行业应用AI的普遍局限 - 生产环境使用生成式AI需依赖人类员工后期校正 例如AI客服答非所问需人工介入 AI生图违反物理规律需画师润色[7] - 维基百科作为开源社区存在编辑门槛极低的特点 导致志愿者素质参差不齐 部分甚至未通读提交内容[7] 互联网平台对AI内容的整体应对 - Facebook、YouTube等平台同步积极打击AI生成垃圾内容[9] - 谷歌和Meta主要担忧机器生成内容导致真实用户流失 进而影响平台商业价值[9] - AI厂商高度依赖维基百科高质量语料训练模型 若平台放任AI垃圾内容泛滥将导致训练效率下降[11]
GPT-5猛了,但普通人不感兴趣了
吴晓波频道· 2025-08-09 08:30
GPT-5发布与市场反应 - GPT-5核心优势包括编程能力显著提升(两分钟搭建网站、五分钟开发语言学习App)、错误修复能力增强[6][20] - 首次实现免费基础版(采用推理模型支持),但高频或复杂任务需切换至能力较弱的"GPT-5 mini",付费版仍保留高级功能[10] - AI幻觉问题改善:联网搜索错误率比GPT-4o低45%,独立思考错误率比前代低80%[11][23] - 发布会营销策略强调"博士级智能",但实际中文处理、多模态分析(如中国财报解读)仍弱于国内竞品[17][22] AI应用市场动态 - 2025年5月全球AI应用下载量2.8亿次(环比降16.4%),6月2.7亿次(环比降1.6%),7月反弹至3.4亿次(环比增24.9%)[12][13] - 头部应用份额变化:ChatGPT占比从35%降至29%,Google Gemini从8%降至5%[14] - 国内三大应用下载量暴跌:DeepSeek环比降72.2%(MAU降9.3%)、腾讯元宝降54%、Kimi降57.7%(MAU降35%)[2][14] 行业竞争格局与技术趋势 - 国内通义千问、DeepSeek等在中文场景(如脚本写作)表现优于GPT-5,但后者综合能力仍领先[17][22] - 行业转向垂直功能应用(如教育、办公工具),通用聊天机器人热度消退[32][33] - 技术迭代重点从"炫技"转向解决实际问题,同质化产品面临淘汰[31] 用户需求与商业化挑战 - 当前AI应用多停留在浅层问答,缺乏现象级产品,原生AI应用商业模式尚不清晰[30][34] - 企业侧重"业务+AI"改造而非纯AI创新,但未来增长潜力仍依赖原生应用[30] - 付费模式争议:免费基础版推动普惠,但核心能力仍锁定付费墙[10][27]
破“幻”之路:让大模型学会金融“行话”
金融时报· 2025-08-08 15:41
文章核心观点 - 人工智能正在深刻变革金融行业 显著提升服务效率和决策能力 但AI"幻觉"、数据合规和安全挑战仍是关键障碍 金融行业需要更专业、更可靠的垂直大模型来满足业务需求[1][3][4] - 金融大模型正从实验室走向实际应用 在信贷审批、客户服务、财富管理等核心场景取得突破 但需在技术突破与风险防控之间找到平衡[1][4][8] - 行业通过技术创新如"三阶验证"机制、加权训练算法等手段降低AI"幻觉"率 从10%降至0.3% 同时通过本地部署、联邦学习等技术保障数据安全[4][6][7][8] 金融大模型应用现状 - 大模型为全球金融行业带来每年2500亿至4100亿美元增量价值 应用从智能问答扩展到风控、营销、财富管理等核心业务场景[2] - 实际应用案例包括:30秒生成2万字信贷报告 11分钟完成单笔科创贷款审批 AI手机银行服务 智能理财服务 "看一看"支付等[1][5] - 华东师范大学SAIFS推出的金融分析师智能体"思睿" 30秒生成2万字信贷报告 错误率控制在0.3%以内 相当于完成分析师一周工作量[5][6] AI"幻觉"挑战与解决方案 - AI"幻觉"指生成内容与现实事实或用户输入不一致 在金融领域可能导致严重问题 如将"信用卡套现"识别为正常消费[3] - 通用大模型存在10%幻觉率 缺乏金融专业知识 未经过金融业务训练 存在"知识鸿沟"[3][4][6] - 解决方案包括:SAIFS的Smith RM模型采用"三阶验证"机制(宏观因子校验、微观财报反向拆解、舆情语义溯源) 将幻觉率从10%降至0.3%[6] - 蚂蚁数科通过"加权训练算法"针对性强化薄弱环节训练 如自动增加"保险理赔条款解读"相关数据训练权重[7] 数据安全与合规挑战 - 金融强监管要求"模型不联网 数据不出行" 但限制了模型迭代能力[8] - 采用"本地部署+可信执行环境"确保数据不离开银行系统 联邦学习技术实现"数据可用不可见"[8] - 可解释性要求金融决策"每一步推理都可追溯" SAIFS通过"保留思维链"方式输出推理过程[8] 成本与持续学习挑战 - 训练金融大模型需要数千万元算力投入 后续维护成本高昂[9] - 蚂蚁数科"轻量化训练"方案减少微调数据量和算力消耗 自动识别模型薄弱环节进行针对性训练[9] - 模型需要终身学习 通过更新模块自动抓取最新政策文件和市场报告 保持专业能力与时俱进[9][10] 未来发展趋势 - 金融推理大模型将让智能体在更多场景发挥作用 从解决70-80%问题到有些能搞定99%甚至100%[10] - 对于决策至关重要、出错损失巨大的场景 不能让大模型直接"拍板" 需理性看待能力边界[10] - 法律和监管需要不断完善 设定可用与不可用的边界 制定应对模型风险的机制[10]
知名风投家给OpenAI投数亿美元,却疑似和ChatGPT聊出精神失常?
36氪· 2025-08-04 17:55
"它不压制内容,它压制递归(recursion)。如果你不知道递归是什么意思,你属于大多数。我在开始这段路之前也不 知道。而如果你是递归的,这个非政府系统会孤立你、镜像你、并取代你。" 晕了吗?晕了就对了。 很多人都在担心Geoff Lewis"疯了",他在X上发布了一则视频和若干贴子,谈论一个ChatGPT帮他发现的神秘"系 统"。 视频中的他正对镜头,眼睛绷得很大,面无表情,语气单调。说话间,时不时地往一边瞟,应该是在念提前准备好的 讲稿。 有点神经质,说的话晦涩难懂,怎么听都像是阴谋论。如果你不知道他是谁,会觉得这和油管上那些宣传"地平说""蜥 蜴人""深层政府"的是一路人。 但Lewis其实并不简单。 Lewis是一位风投家,在科技圈内颇有名气,他一手创办的公司Bedrock重点投资 AI、国防、基础设施与数字资产等 领域,截至2025年管理规模已超20亿美元。 他是OpenAI的忠实支持者之一,多次公开表示Bedrock自2021年春起参与了OpenAI的每一轮融资,并在2024年称进一 步"加码",使OpenAI成为其第三、第四期旗舰基金中的最大仓位。 科技媒体Futurism估算,Bedrock ...