Workflow
AI大模型软件
icon
搜索文档
律师用AI生成虚假案例被法院发现 将承担何种责任
环球网资讯· 2026-01-15 14:56
来源:央视新闻客户端 大家有没有这样的经历,当你向人工智能模型提问的时候,有时会生成一些看似合理连贯,但实际上是 错误捏造的内容。这一现象也被称为AI幻觉,说白了就是虚构事实,无中生有。但是这种AI幻觉生成 的内容,如果用到法庭上,它的后果可难以想象。北京市通州区人民法院的法官,在审理一起民事纠纷 的案件时,就遇到了这样的陷阱。 "AI幻觉"干扰司法秩序 这是一起由代持股引发的民事纠纷案件,由于原告的诉讼请求在司法审判中并不常见,因此法官郑吉喆 提出,原告律师可以在庭审后,提交补充代理意见。 北京市通州区人民法院法官 郑吉喆:我们也是出于慎重,因为毕竟这个诉求不是一个很常见的诉求, 我们当时也提到说你对这部分的诉讼请求,你们回去可以向法院提交书面的补充的意见以及相应的这种 案例,这样的话供法院裁判时参考。 那么原告代理律师提交的这份书面代理意见,以及参考案例,在案件的审判中,会产生什么样的影响 呢? 北京市通州区人民法院法官 郑吉喆:对于不太常见的这种诉求,我们也希望律师能够提供相应的判 例,如果确实说有道理,那么我们该依法支持,就应该依法支持。这也是在一个辖区之内,那么统一裁 判尺度的必要的一个手段。 两个 ...
AI编造“完美”案例,为司法带来虚假信息风险
新京报· 2025-11-12 21:05
文章核心观点 - 人工智能生成虚假法律案例并进入司法程序 对司法公正构成潜在风险 [1] - 法律从业者对人工智能生成内容核查失职 是问题产生的关键人为因素 [2][4] - 司法系统需提升对人工智能技术的认知与应用能力 以应对新技术带来的挑战 [4] 事件背景与性质 - 北京市通州区人民法院审结一起案件 原告代理人提交由人工智能编造的虚假最高人民法院案例及(2022)沪01民终12345号案件 [1] - 虚假案例的事实细节、法律争议与裁判逻辑均与审理中案件高度契合 完美佐证原告观点 [1] - 法官及时发现案例虚假性 若被采纳可能使案件结果“跑偏” [2] 人工智能工具的应用与风险 - 参考案例由原告代理人提炼案件事实后 反复向某人工智能大模型软件提问引导生成 [2] - 人工智能生成案例时还“煞有介事”编写了案号 [2] - 目前人工智能并不总是可靠 可能生成不实信息 未来可靠性亦不确定 [2] 法律从业者的责任与失职 - 原告代理人承认未对人工智能生成案例进行核实 直接复制粘贴后提交法院 [4] - 通过中国裁判文书网输入案号即可核实 真实案号(2022)沪01民终12345号对应一起民间借贷纠纷 与本案商事纠纷无关 [4] - 向法院提交参考案例时 确保内容真实准确是当事人和代理人不可放弃的责任 不得放任人工智能生成虚假信息扰乱司法秩序 [4] 司法系统的应对与挑战 - 判例对实现法律统一适用、避免“同案不同判”的价值日益显现 法官有责任知晓并遵循上级法院判例 [1] - 人工智能的不完全可信及法律从业者失察 赋予法官更重的核实责任 [4] - 法官需快速学习掌握人工智能技术 本案法官能及时发现问题得益于其所在法院对人工智能的重视和学习 [4]