调查概况 - 美国国家公路交通安全管理局(NHTSA)于2025年10月7日启动针对特斯拉全自动驾驶(FSD)系统的新调查,调查编号为PE25012 [2] - 调查范围涵盖所有配备FSD(Supervised)或FSD(Beta)功能的特斯拉车辆,估计涉及车辆总数为2,882,566辆,这几乎是特斯拉在北美市场的全部历史累计销量 [2][10] - 调查由用户车辆问卷、常规指令报告及媒体报道共同促成 [2] 具体安全问题 - 调查集中在两类交通违法行为:FSD系统无视交通信号灯违规通行,以及FSD系统走错车道 [2][3] - 关于闯红灯问题,NHTSA确认收到18起投诉,其中4起事故导致人员受伤 [2] - 多起闯红灯事故集中发生于马里兰州乔帕市的同一路口,公司已针对该路口采取整改措施,这表明在V14版本之前,FSD系统无法完全依赖数据驱动,仍需对特定场景进行手动优化 [3] - 关于走错车道问题,确认收到18份投诉,涉及场景包括转弯过程中驶入对向车道、直行时越过双黄线、或无视逆行路标试图驶入禁行道路 [3] - 官方文件显示,总计收到58份使用FSD时违反交通安全规定的事故报告,共造成23人受伤 [3][8] 系统性能表现与监管挑战 - 第三方机构AMCI Testing在总计1000英里(1600公里)的测试中发现,FSD系统在启动初期(如前5分钟)表现优秀,但问题往往在系统运行一段时间后出现,呈现性能下降趋势 [3][6] - NHTSA的审查将评估系统是否对操作行为发出充分警告、给予驾驶员的响应时间是否充足、以及系统识别交通信号灯、车道标线和逆行标志并作出恰当响应的能力 [10] - 调查还将重新评估每次OTA更新是否影响FSD系统遵守交通法规的表现 [10] - 传统监管调查周期通常长达18个月或更久,这与AI技术的快速迭代规律存在矛盾,公司可能利用监管的迟滞性作为技术发展的窗口期 [13][15] 技术背景与行业影响 - 此次暴露的问题很可能与端到端模型的“幻觉”问题相关,行业当前主流解决方案是通过大语言模型加强模型认知 [11] - FSD V14版本已展现出类似的环境理解认知能力,但端到端模型的“黑盒”特性使得精准归因和调参十分困难,公司可能通过技术体系重构(如过渡到一段式端到端)来在整体层面提升系统能力 [11] - 除本次调查外,公司目前仍面临另外4起由NHTSA进行的调查,涉及远程挪车事故、恶劣天气条件下的事故以及Robotaxi落地部署合规性等,且每次调查范围均涵盖公司历史累计交付的所有车辆 [13]
FSD用多了会变傻:逆行闯红灯幻觉严重,50多起事故后,特斯拉被调查了