21社论丨AI在现实应用中的安全护栏也需加强
21世纪经济报道·2026-04-03 08:29

事件概述与核心问题 - 武汉多辆“萝卜快跑”无人驾驶出租车在道路上停驶,引发部分路段交通拥堵,揭示了自动驾驶技术规模化落地过程中的风险问题 [1] - 事件核心问题在于依赖“云端大脑”进行集中控制的无人驾驶系统,一旦云端发生故障,所有受控车辆可能对道路安全构成隐患 [1] 技术架构与风险特征 - 无人驾驶出租车主要依赖“云端大脑”进行集中控制以实现规模化运营,这与当前市售的智能驾驶辅助系统不同 [1] - AI系统已演变为在物理世界自主行动的“代理”,其出错会在真实物理与社会空间中产生实质性后果,而非传统软件仅导致信息流中断 [1] - 对AI代理的安全冗余要求必须远高于传统系统 [1] 当前发展阶段的挑战与成本 - 为确保AI不出错,在当前阶段仍需投入一定规模的人力进行监控、标注、干预与客服 [1] - 一旦出现系统错误,也需要大量人员参与现场的物理处置 [1] - 发展无人驾驶出租车的目的在于替代人力、提升经济效率,但现阶段仍需承担较高的人力监督与干预成本 [1] 安全建设与系统冗余建议 - 应建立类似金融系统的多模型、多云备份与自动熔断机制,确保主模型故障时备用模型或规则引擎能无缝接管 [2] - 每辆无人驾驶汽车应具备独立的、本地化“安全模式”,使其在异常情况下能自动驶入安全区域停靠 [2] - 必须同等重视系统的鲁棒性(在异常、干扰或不确定条件下仍能正常运行的能力)与确定性 [3] 监管与测试要求 - 监管部门应对涉及公共安全的AI系统(如自动驾驶、医疗诊断、金融风控等)实施强制性的红队测试与极限场景认证 [2] - 测试需模拟云端失联、传感器遮挡、极端天气等条件下的系统处置能力,只有通过测试方可投入运营 [2] 法律与责任框架 - 对于事故责任归属及乘客权益保障等法律问题应尽快明确,立法的必要性已刻不容缓 [2] - “十五五”规划纲要提出完善人工智能领域法律法规、政策制度、应用规范、伦理准则 [2] - 需健全算法备案、透明度管理、安全评估等制度,并探索建立人工智能生成物权利归属和开发者经营者使用者权责认定规则 [2] - 中央提出推动建立人工智能全生命周期风险管理制度,健全覆盖安全监测、风险预警、应急响应的风险防控体系 [2] 行业发展阶段与未来方向 - 此次偶发故障是AI产业从实验室走向真实社会场景过程中的一次阵痛,也是技术进步的必经试错 [3] - AI的真正成熟不在于理想条件下的表现,而在于其犯错时能最大限度减少代价,并让人类能及时、安全地接过控制权 [3] - 技术可以快跑,但安全的护栏必须同步跟进 [3] - 人工智能赋能千行百业的时代正在到来,应以更大力度统筹兼顾促进发展和规范管理,加强人工智能治理,营造有益、安全的发展环境 [3]

21社论丨AI在现实应用中的安全护栏也需加强 - Reportify