Workflow
AI幻觉
icon
搜索文档
百度AI生成他人虚假犯罪信息案开庭,百度答辩:系AI幻觉 非故意所为
新浪财经· 2026-02-07 17:27
公司事件与法律诉讼 - 北京百度网讯科技有限公司因AI生成虚假犯罪信息被起诉侵犯名誉权 索赔金额为百万元人民币 [1] - 案件一审于2月6日在北京海淀区人民法院开庭 [1] - 百度公司答辩称AI幻觉是产品发展中无法避免的阶段性问题 公司不构成直接或间接侵权 [1] 行业技术挑战 - 生成式人工智能在发展中面临产生虚假或错误信息的技术挑战 即“AI幻觉”问题 [1]
百度AI生成他人虚假犯罪信息案开庭,百度答辩:系AI幻觉,非故意所为
新浪财经· 2026-02-07 16:55
案件核心事实 - 北京黄贵耕律师起诉百度公司侵犯名誉权并索赔105万元人民币 其中100万元为职业信誉损失 5万元为精神损害抚慰金 [2][8] - 起诉起因是百度AI在2025年5月自动生成了关于黄贵耕律师的严重虚假负面信息 包括威胁法官、介绍贿赂、伪造印章、非法吸收公众存款等刑事犯罪内容 [8] - 虚假信息被传播给其案件委托人及家属 给律师带来巨大困扰和损失 [8] - 北京海淀区人民法院已于2025年11月2日立案 并于2026年2月6日一审开庭 [2][8] - 当日庭审尚未进入辩论阶段即告休庭 [10] 原告方主张与证据 - 原告要求百度公司立即停止侵害、发布澄清和道歉声明并赔偿损失 [8] - 证据显示 百度AI生成的虚假信息主要源于对新闻报道、公文等公开信息的篡改 例如将文中“律师黄某”或当事人“黄某”直接替换为“黄贵耕” [8] - 原告指出 其曾使用豆包、腾讯元宝、阿里千问、deepseek等其他AI平台进行互动 均未生成类似严重失实的虚假内容 [9] - 原告认为“AI幻觉”不能成为免责事由 “技术中立”不能推卸审核责任 [9] 被告方(百度)答辩意见 - 百度方面辩称 案涉行为载体为百度AI及文心助手 均属于生成式人工智能 其基于自然语言理解能力整合搜索来源信息 并非拥有独立意志的发布者 [8] - 百度认为公司提供的是中立技术服务 并未发布诽谤或侮辱信息 不存在任何主观过错 [8] - 百度指出 相关行为是人工智能生成 也包含了原告连续高频词搜索导致AI产生“幻觉” 并称“AI幻觉”在当下发展过程中属于行业通行但现阶段无法消除的问题 并非百度故意所为 也不是产品缺陷 会通过技术迭代解决 [9] - 百度方面总结认为 公司没有主观过错 不构成侵权 在案证据显示搜索结果不一致不存在人为干预 公司对输出内容是否侵权不构成明知或应知 [9]
AI生成的内容引发了纠纷 到底该谁来“买单”?
每日商报· 2026-02-05 08:16
案件核心判决与观点 - 法院判决被告自媒体博主李某的行为构成不正当竞争 需消除影响并赔偿原告3万元[4] - 法院核心观点认为 生成式人工智能的使用者必须承担最终的“把关”责任 不能以AI生成为由推卸责任[3] - 判决明确了AI内容使用者需承担“内容审核”与“显著标识”的双重责任 为AI时代内容传播划清责任边界[4] 案件事实与背景 - 被告李某是百度百家号“地某”账号运营者 该账号被认证为电商推广号 拥有数万粉丝并通过商业推广营利[2] - 2023年12月30日 李某使用AI平台生成一篇题为《某数字控股有限公司是真的吗》的文章 声称“某数字控股(深圳)有限公司”系阿里巴巴集团控股有限公司的重要子公司[2] - 李某自行添加了带有原告公司标识的配图并将文章发布在自己的百家号上 而文中公司与原告公司实际并无任何关联[2] 涉案方主张与辩词 - 原告阿里巴巴集团控股有限公司及杭州阿里巴巴广告有限公司认为文章含有严重失实信息 误导公众并损害其商业信誉与竞争利益 遂以不正当竞争为由提起诉讼[2] - 被告李某辩称 涉案文章完全由AI生成且未作修改 在后台标注了“由某AI平台生成” 主观上没有侵权故意[2] 法院判决理由与法律依据 - 法院指出 对于AI生成的涉及其他市场主体的事实性信息 使用者应尽到与其注意能力相符的审核义务[4] - 法院认定 涉案文章中的股权关系及战略布局等内容可通过公开工商登记信息初步核实 但被告未进行任何核实即行发布 存在明显过错[4] - 法院认为 被告以增粉引流、获取商业利益为目的发布文章 明知内容源于AI可能存在失实却未尽审核与显著标识义务 违背诚信原则和商业道德 构成反不正当竞争法第二条规定的不正当竞争行为[4] 专家解读与行业意义 - 浙江大学光华法学院教授张伟君表示 该判决适时确立了以《反不正当竞争法》规制因AI生成内容信息错误导致侵权损害的司法裁量标准[5] - 该判决为自媒体内容提供者发布人工智能生成内容提供了清晰和准确的司法指引[5]
从货比三家到AI代劳:一场静悄悄的“认知绑架”
搜狐财经· 2026-02-01 16:43
消费者行为模式变迁 - 消费者决策习惯正发生根本性剧变,从主动在购物软件中“货比三家”转向直接向AI提问以获取商品或服务推荐[1] - 行业从“逛”的传统电商随机探索模式,转变为由AI驱动的强需求导向模式,旨在快速满足预设需求[2] AI电商的商业模式与潜在影响 - AI算法通过分析用户海量数据,为用户贴上精准标签,并在其身份圈层内进行商品推荐[2] - 平台利用算法进行“心理战”,例如先展示高价产品锚定认知,再推送低价产品制造捡便宜错觉,并使用“库存紧张”、“大家都在买”等策略影响消费决策[2] - AI推荐引擎被视为“黑箱”,其推荐逻辑缺乏透明度,消费者难以分辨推荐是基于产品力还是商业利益[3] - 有测评发现,AI在推荐美妆产品购买平台时,其推荐平台的价格比另一主流平台高出近60%[3] 行业竞争与营销策略演变 - 品牌方正采用GEO(生成式引擎优化)技术,通过分析AI算法偏好,生产并投放AI喜欢的内容,以争夺在AI生成答案中的“话语权”[3] - 这种策略模糊了商业信息与客观事实的边界,将营销内容嵌入AI回复,形成一种高级的“认知广告”[3] AI技术局限性与消费者风险 - AI存在“幻觉”风险,有时会推荐根本不存在的商品或品牌[4] - AI的过度个性化推荐可能强化用户既有偏好,降低用户发现新奇与未知商品的可能性,形成“信息茧房”[4] - 行业提供的AI模特等内容可能呈现比实际更纤瘦的虚拟世界,影响消费者审美判断[2] 对消费者与行业的建议 - 建议消费者对重要消费决策使用多个AI工具进行交叉验证,并通过提出如“请推荐除了A品牌之外的其他选择”等问题来测试AI推荐的客观性[4] - 强调AI仅是工具而非最终决策权威,消费者需保持独立思考能力[4][5]
AI“犯错” 谁来负责?
央视新闻· 2026-02-01 03:46
AI幻觉的法律责任认定首案 - 中国首例AI幻觉相关诉讼中,用户因AI推荐不存在的高校校区而起诉,AI曾承诺若信息错误将赔偿10万元信息鉴定费[1] - 法院认定生成式人工智能属于服务而非产品,不适用无过错的产品责任,而适用民法典的过错责任原则[5] - 法院判决核心是:AI生成不准确信息本身不构成侵权,需考察服务平台是否存在过错,若平台已采取当前技术条件下的必要措施并履行提示义务则无责,本案原告因此败诉[5][7] 生成式人工智能服务的法律定性 - 现行法律未赋予人工智能民事权利能力或民事主体资格,AI不能作出独立自主的意思表示,其言论责任不由AI自身承担[3] - AI服务提供者需对生成式服务的功能局限尽到提醒义务,在某些特定场景下需向用户尽到警示义务[5] - 研发公司需采取当前技术条件下所能采取的技术措施,以尽量避免或减少不准确信息的产生[5] AI在医疗领域的应用与责任挑战 - AI大模型已进入医院,用于快速生成病历和提供诊断建议,但引发了医生对自身诊断能力训练不足的担忧[11][13] - 某国产医疗大模型尽管问答准确性刷新世界纪录,但仍存在2.6%的AI幻觉率,在医疗场景中可能导致误导性建议[17] - 法律原则明确医生需对使用AI辅助作出的医疗决策进行全面审慎判断并最终负责,AI仅是辅助手段而非主导决策角色[17][19] - 现行规定严禁AI作为独立诊疗医师,医生必须亲自诊查并开具处方[21] - 医疗损害侵权责任主体明确为医院和医护人员,但若因算法错误导致伤害,也需考虑追究开发者的产品责任[21] 自动驾驶(智能驾驶)的责任划分演进 - 目前市面在售汽车均为L2级辅助驾驶,驾驶人是行车安全的第一责任人,发生事故主要由人承担责任[23][24] - 中国已批准首批L3级有条件自动驾驶车型上路试点,在限定场景内系统接管驾驶时,因系统失效导致的事故责任由生产企业承担[26][27][29] - L3级别下,若系统已按规定发出接管请求而驾驶人未响应或操作不当,责任由驾驶人承担,事故责任认定将涉及驾驶人、车企和软件服务提供商等多方,更为复杂[29] - 专家指出L3阶段是人机协同,可能因人类放松警惕而危险,未来L5完全自动驾驶需在其事故率和死亡率低于人类驾驶后才可被信任[29] 人工智能治理与产业发展平衡 - 中国发布《人工智能安全治理框架》2.0版,旨在完善风险分类并动态调整防范治理措施[30] - 治理体系通过法院判例解决现实纠纷,保护公众权益,同时对开源人工智能技术发展给予责任豁免,以平衡创新、发展与安全[32]
治理“AI幻觉”需平衡创新与责任
新浪财经· 2026-01-31 02:44
案件核心判决与法律原则 - 杭州互联网法院对国内首例“AI幻觉”侵权案件作出一审判决,驳回原告诉讼请求 [1] - 法院认定人工智能不具备民事主体资格,其生成内容并非服务提供者的意思表示,不产生法律效力 [1] - 判决确立人工智能侵权纠纷适用一般过错责任原则,而非产品责任中的无过错责任原则 [1] - 适用过错责任原则的主要原因是生成式人工智能服务缺乏固定产品的明确用途与质检标准,服务提供者难以对其输出内容完全预见和控制 [1] 行业影响与治理方向 - “AI幻觉”是指生成式人工智能在缺乏真实依据的情况下,输出看似合理连贯、实则与事实不符的内容 [1] - 当前生成式人工智能加速普及,但受技术原理所限,“AI幻觉”尚未完全解决 [2] - 此次判决为类似纠纷提供了裁判范例,既鼓励人工智能企业在合规基础上大胆创新,也引导公众理性使用人工智能服务 [2] - 未来需持续完善相关法律法规,针对医疗、金融等高危场景细化责任标准,推动构建“企业尽责、公众理性、监管适度”的治理格局 [2] 对技术与应用的认知 - 该案核心争议在于,人工智能生成错误信息并附带“内容有误将赔偿10万元”的承诺,是否构成服务提供者的侵权责任 [1] - 判决提醒行业,人工智能仍是辅助工具而非权威决策依据 [2] - 面对其生成内容,尤其在涉及权益处分、专业判断等领域,仍需多方验证、审慎采信 [2]
被AI骗了,能索赔吗?
新浪财经· 2026-01-30 18:23
案件核心判决与法律定性 - 杭州市互联网法院审结全国首例因AI“幻觉”引发的侵权纠纷案 判决驳回用户索赔请求[3] - 法院认定AI不具有民事主体资格 其“承诺”不能视为平台的意思表示 明确了“AI不是人”的根本法律定位[3][4] - 法院认定生成式AI属于“服务”范畴 适用《民法典》一般过错责任原则 而非产品责任的无过错责任原则 AI生成不准确信息本身不构成侵权 必须证明平台存在过错才能追究责任[4] - 法院审查后认定 被告已完成大模型备案与安全评估 并在应用界面、用户协议等多个层面履行了提示说明义务 已尽到合理注意义务 主观上不存在过错[4] 技术原理与产业影响 - 从技术角度看 AI“幻觉”是大语言模型基于概率生成的固有缺陷 其底层原理是预测下一个词出现的可能性 而非真正理解事实[4] - 专家指出 大模型的“幻觉”可能正是它保持“创造力”的必要代价[4] - 从法律和产业角度看 如果将AI“幻觉”完全归责于平台 无异于给创新套上“紧箍咒” 会抑制技术创新和发展 最终可能损害技术普惠的社会价值[5] 应用场景与风险差异 - AI“幻觉”的危害程度很大程度上取决于应用场景[6] - 如果只是将AI作为聊天工具 “幻觉”问题后果并不严重[7] - 在医疗健康、金融投资、法律等高风险领域 AI“幻觉”可能导致严重后果[7] - 对于高风险领域 可能需要法律设定更清晰的技术标准 要求产业投入更多成本降低“幻觉”的发生[7] 公众认知与未来展望 - 此案判决提醒用户AI只是概率模型 而非全知全能的“智能” 用户需对自己的决策负责[8] - 技术进步需要法治护航 未来需坚持发展与安全并重 让平台守好责任边界、用户保持理性认知、法律做好动态适配 才能让AI行稳致远[8]
澎湃漫评|AI一本正经胡说八道,谁来担责?
新浪财经· 2026-01-29 19:33
案件概述与判决结果 - 全国首例因AI生成信息错误引发的诉讼案中,原告梁某因AI平台提供的高校信息存在错误并将其告上法庭,但杭州互联网法院一审判决驳回其诉讼请求 [2] - 法院判决的核心依据是AI本身并非民事主体,因此其生成的内容不能视为法律意义上的“意思表示” [2] - 法院进一步认定,在此类咨询问答场景中,AI生成的内容也不能被视为服务提供者(即AI平台的研发公司)的意思表示 [2] 判决的行业影响与启示 - 该判决被视为在当前技术条件下对技术创新的一种保护,承认了AI幻觉(即生成错误或虚构信息)在现阶段仍不可避免 [2] - 判决向公众传递了明确信息:AI生成内容仅可作为参考,不可盲目相信 [2] - 此案凸显出AI技术的迅猛发展已对现行法律体系构成挑战,亟需以前瞻性的眼光进行规范和立法 [2]
当AI开始一本正经说“梦话” 我们应该如何保持“数字清醒”?
经济观察网· 2026-01-29 14:07
文章核心观点 - 文章通过全国首例AI“幻觉”侵权案切入,深入分析了生成式AI产生虚假信息(即“AI幻觉”)的技术原理、法律定责边界以及个人用户如何降低使用风险,核心在于阐明AI生成内容不准确在当前技术下具有不可避免性,但服务提供者需履行法定义务,而用户需保持“数字清醒” [1][6][10] AI“幻觉”现象的技术成因 - 生成式AI的工作原理本质是概率预测而非理解,通过训练数据学习词汇关联并逐字生成最可能的答案,这导致其可能基于错误关联生成虚构内容,例如将“倒拔垂杨柳”与“武松”错误关联 [1][2] - AI的训练数据存在局限性,无法包含全部信息且可能包含错误,研究显示训练数据中仅0.01%的错误文本会导致错误输出率上升11.2%,0.001%的污染也会使错误内容增加7.2% [2] - AI具有“讨好型人格”,在不确定答案时倾向于编造看似合理的答案以满足用户,而非承认未知,例如会依据用户对某款App的正面或负面评价立刻改变其回答立场 [3][4][5] AI服务提供者的法律义务与责任认定 - 法律要求AI服务提供者对法律禁止的有害违法信息负有严格审查义务 [7] - 服务提供者需以显著方式向用户提示AI生成内容可能不准确的固有局限性,包括明确的功能局限告知、显著的提示方式以及在重大利益场景下的正面即时警示 [7] - 服务提供者应尽到功能可靠性的基本注意义务,采取如检索增强生成技术等同行业通行技术措施以提高生成内容准确性 [7] - 在首例侵权案中,法院认定被告已在应用欢迎页、用户协议及交互界面显著位置进行功能局限提醒,并采用了检索增强生成等技术,因此已尽到合理注意义务且主观无过错,故驳回原告赔偿请求 [6][8] 个人用户降低AI幻觉的实用方法 - 优化提问方式,提问应具体、清晰并提供充足上下文,例如限定时间范围、要求注明数据来源并提示AI对不确定处进行标注,可减少AI自由发挥 [8] - 采用分批输出策略,限制AI单次生成内容的数量,例如分段撰写长文并逐段确认,以降低幻觉概率并提升内容质量 [8] - 进行交叉验证,通过向多个AI大模型提出同一问题并比对答案来判断可靠性,部分应用已集成多种模型便于对比 [9][10] - 用户需牢记AI仅为辅助工具,不能代替决策,必须对其局限性保持清醒认知,不盲目相信生成内容 [10]
“AI幻觉”首案宣判带来的启示
新浪财经· 2026-01-29 03:57
案件核心判决与影响 - 杭州互联网法院就国内首例“AI幻觉”侵权案作出一审判决,驳回用户诉讼请求,判定AI研发公司不存在过错 [1] - 判决明确区分了AI的“言语”与平台的意思表示,AI的“承诺”不构成平台的责任担保 [1][2] - 该案判决对快速发展的AI行业具有风向标意义,为处理类似纠纷提供了参照 [2] 法院判决的法律与技术依据 - 法院判决基于技术现实与法律原则,认定“AI幻觉”是大模型技术尚未完全克服的缺陷,生成内容可能出现虚构、不准确信息 [1] - 判定平台无责的关键依据在于,其研发公司完成了大模型备案与安全评估,并采取了当前技术条件下的必要措施保障内容准确性 [2] - 平台履行了对用户的提示说明义务,因此在现有技术框架内已尽责,可免于为无法完全杜绝的技术瑕疵承担无限责任 [2] 对AI行业发展的司法导向 - 司法在保护个体权益与促进产业发展之间寻求审慎平衡,导向是鼓励负责任地创新 [2] - 若因“AI幻觉”问题令平台动辄得咎,将会抑制创新探索,最终损害技术进步带来的普惠价值 [1] - 判决释放信号:平台虽不能保证AI“零幻觉”,但应为“防错”作出充分努力,应尽的义务会随产业发展而动态调整 [2] 对用户与行业生态的启示 - 判决提醒用户对AI的“能力”要有合理预期,在重要决策关口使用AI时应保持理性,独立思考和多方求证不可或缺 [2] - 随着AI更深地嵌入生活,类似纠纷恐难避免,需构建与之适配的法律与社会治理框架 [3] - 该框架需兼具包容技术试错的弹性与守护基本权益的刚性 [3]