AI幻觉的法律责任认定首案 - 中国首例AI幻觉相关诉讼中,用户因AI推荐不存在的高校校区而起诉,AI曾承诺若信息错误将赔偿10万元信息鉴定费[1] - 法院认定生成式人工智能属于服务而非产品,不适用无过错的产品责任,而适用民法典的过错责任原则[5] - 法院判决核心是:AI生成不准确信息本身不构成侵权,需考察服务平台是否存在过错,若平台已采取当前技术条件下的必要措施并履行提示义务则无责,本案原告因此败诉[5][7] 生成式人工智能服务的法律定性 - 现行法律未赋予人工智能民事权利能力或民事主体资格,AI不能作出独立自主的意思表示,其言论责任不由AI自身承担[3] - AI服务提供者需对生成式服务的功能局限尽到提醒义务,在某些特定场景下需向用户尽到警示义务[5] - 研发公司需采取当前技术条件下所能采取的技术措施,以尽量避免或减少不准确信息的产生[5] AI在医疗领域的应用与责任挑战 - AI大模型已进入医院,用于快速生成病历和提供诊断建议,但引发了医生对自身诊断能力训练不足的担忧[11][13] - 某国产医疗大模型尽管问答准确性刷新世界纪录,但仍存在2.6%的AI幻觉率,在医疗场景中可能导致误导性建议[17] - 法律原则明确医生需对使用AI辅助作出的医疗决策进行全面审慎判断并最终负责,AI仅是辅助手段而非主导决策角色[17][19] - 现行规定严禁AI作为独立诊疗医师,医生必须亲自诊查并开具处方[21] - 医疗损害侵权责任主体明确为医院和医护人员,但若因算法错误导致伤害,也需考虑追究开发者的产品责任[21] 自动驾驶(智能驾驶)的责任划分演进 - 目前市面在售汽车均为L2级辅助驾驶,驾驶人是行车安全的第一责任人,发生事故主要由人承担责任[23][24] - 中国已批准首批L3级有条件自动驾驶车型上路试点,在限定场景内系统接管驾驶时,因系统失效导致的事故责任由生产企业承担[26][27][29] - L3级别下,若系统已按规定发出接管请求而驾驶人未响应或操作不当,责任由驾驶人承担,事故责任认定将涉及驾驶人、车企和软件服务提供商等多方,更为复杂[29] - 专家指出L3阶段是人机协同,可能因人类放松警惕而危险,未来L5完全自动驾驶需在其事故率和死亡率低于人类驾驶后才可被信任[29] 人工智能治理与产业发展平衡 - 中国发布《人工智能安全治理框架》2.0版,旨在完善风险分类并动态调整防范治理措施[30] - 治理体系通过法院判例解决现实纠纷,保护公众权益,同时对开源人工智能技术发展给予责任豁免,以平衡创新、发展与安全[32]
AI“犯错” 谁来负责?
央视新闻·2026-02-01 03:46