“特斯拉自动驾驶”事故分析

(整期优先)网络出版时间:2022-12-30
/ 2

“特斯拉自动驾驶”事故分析

张丹琼

 420104198702282424

1.案例回顾

1.1事故发生

2018年3月一名苹果公司的员工驾驶特斯拉的汽车撞到水泥路障后死亡,发生事故时此人正在玩电子游戏。调查表明事故发生时,该车一直在使用特斯拉的Autopilot软件进行半自动驾驶。特斯拉的Autopilot软件将车辆引导至高速公路交叉口处的三角形“分流区”,并加速冲进混凝土屏障。特斯拉的前部与后部分开,导致道路上行驶另外两车相撞。38岁的特斯拉驾驶员Walter•Huang被送往医院后抢救无效,最终死亡,其他两辆车的司机幸存下来。

1.2案件分析

美国国家运输安全委员会(NTSB,National Transport Safety Board)在2018年3月撞车事故后公布了为期两年的调查结果。NTSB指出在事故发生前特斯拉驾驶员没有控制汽车,因为他被智能手机视频游戏分散了注意力。特斯拉的防撞系统“并非旨在检测碰撞(障碍物)”,特斯拉的自动驾驶系统没有“提供有效的控制。

特斯拉的Autopilot系统的使用已牵连数次撞车事故。该系统可使汽车半自动运行,改变车道并调节车速。但是该驱动程序在软件上“过分依赖”。特斯拉

虽然在2016年以后加入了驾驶员参与都检测功能,驾驶员在使用自动驾驶仪时需要将手放在方向盘上,如果不这样做,则会发出警告声,但NTSB表示:“监控驾驶员施加的方向盘扭矩用以衡量驾驶员的参与程度是一种无效的替代措施”。当局指出“如果特斯拉不采用将自动驾驶仪系统限制在其设计条件下使用的系统保护措施,则可以预见该系统将继续在其运营设计范围之外使用,并且未来的崩溃风险仍然存在。”

1.3案件结果

NTSB在其报告的结尾提出了几项建议,其中包括:改进防撞系统,以包括常见的障碍,例如交通障碍;重新评估特斯拉的自动驾驶仪,以确定“在预期的运行设计之外”对其进行操作的能力是否会对安全性构成不合理的风险,从而使具有半自动驾驶功能的新的乘用车均配备符合新标准的驾驶员监控系统;还建议智能手机制造商应开发“分散驾驶员注意力锁定机制”,以“在车辆行驶时禁用任何分散驾驶员注意力的功能处于运动中,但可以在紧急情况下使用该设备”;NTSB还发现,特斯拉汽车撞到的冲击吸收碰撞屏障“在碰撞时处于损坏且无法运行的状态”。加利福尼亚高速公路巡逻队在上次撞车事故后没有报告损坏情况,如果更换障碍物,特斯拉司机“很可能”在撞车事故中幸存了下来。

2自动驾驶技术

2.1自动驾驶的概念

自动驾驶,又称无人驾驶、电脑驾驶或轮式移动机器人,是依靠计算机与人工智能技术在没有人操纵的情况下,完成完整、安全、有效的驾驶的一项前沿科技。这项技术在21世纪已有数十年的历史,通过技术的沉淀累积,在本世纪初已经逐渐趋于完善,呈现出了实用的趋势。

目前自动驾驶技术的分级标准尚未统一。目前汽车业界采用较多的是美国汽车工程师协会(SAE Society of Automotive Engineers)提出的标准。按照SAE的标准,自动驾驶汽车分为无自动化(L0)、驾驶支援(L1)、部分自动化(L2)、

有条件自动化(L3)、高度自动化(L4)和完全自动化(L5)6个等级,这六个等级自动化等级逐渐升高,技术要求也越高2。

2.2自动驾驶的应用前景

从伦理角度来看,自动驾驶汽车的引入将在某种程度上取得巨大进步。世界卫生组织估计交通事故每年导致全球约120万人死亡。ENO交通运输中心的一项研究表明,美国550万次碰撞事件中约有93%是人为错误导致事故的主要原因。在这93%的人类死亡事件中,超过三分之一是中毒(主要是酒精,但也包括非法药物),超速(30%),分心驾驶员(20%)以及其他人为错误引起缺乏适当的驾驶技巧所导致的3。自动驾驶的引入将使驾驶更安全,也包括行人保护安全(比如AEB自动紧急制动是L2阶段的必备技术);道路流通率更高效(可参考幽灵堵车效应,这是一种人为的交通堵塞,也是堵车的主要原因之一);更节能(例如控制每一个红灯路口之间的速度,以获得最佳能源管理);更加舒适(能够解放驾驶者)。

2.3事故原因分析

事故发生后,根据NTSB的调查报告可以得知事故发生时,外部条件良好:天气晴朗,特斯拉的速度也并不快,说明在正常的情况下,如果特斯拉并不是处于自动驾驶状态,而是处于手动驾驶状态,那么事故发生的概率可以说是几乎为零。那么我们可以首先大体排除由于外部环境干扰导致交通事故的可能性。

事故发生时,特斯拉没有任何刹车迹象和采取任何躲避措施,反而加速冲向了隔离带,这明显不符合道路安全原则和司机的正常驾驶行为。调查表明,事故发生时,特斯拉汽车已经处于“定速”“定道”的状态,说明是自动驾驶系统没有按照预先设定的驾驶决策准则,采取有效的偏离修正和制动措施,才导致了这起事故的发生。因此,事故中的责任特斯拉汽车难辞其咎。

事故的原因可以被分为以下两个部分,如果以下任何一个条件不满足,事故可能就不会发生:

毫无疑问,事故的发生与特斯拉自动驾驶系统不完善有很大关系。早在2016年特斯拉首席执行官伊隆·马斯克就大言不惭,号称新款特斯拉汽车能够通过硬件升级从而实现全自动无人驾驶。而事实是,特斯拉自动驾驶系统(Autopilot)的工程师都无法宣称他们的产品能够脱离手动操控安全行驶。事故的发生表明,全自动无人驾驶的特斯拉汽车很明显是无稽之谈。在事故发生的时候,特斯拉汽车没有采取任何的避让措施,这说明特斯拉可能存在以下两个不足:(1)特斯拉的感知技术还不够完善,没能有效探测到道路标线和障碍物的存在,从而导致纠正和制动机制没有有效激活,最终在没有接收到危险信息的情况下加速撞上路侧混凝土结构物。(2)尽管在2016年高雅宁撞车事故后特斯拉就加入驾驶员参与检测系统,但是仍然出现了驾驶员在车内玩电子游戏,双手离开方向盘的情况,可见其参与检测系统极不可靠,或者报警机制无效的安全漏洞。

3.伦理分析

不论是本文中提到的案例,还是在此前发生的一些事故,受害者都无一例外地使用了特斯拉的Autopilot软件进行半自动驾驶,这主要是因为消费者对自动驾驶及相关概念的认知较为混乱,认为自动驾驶是指汽车能够在某些具有关键安全性的控制功能方面(如转向、油门或制动)无需驾驶员直接操作即可自动完成控制动作,而造成这样的局面,主要是由于这些“自动驾驶”品牌过分的夸大功能,使一些驾驶员认为汽车正在完全自动驾驶。

特斯拉首席执行官伊隆·马斯克不止一次在媒体面前吹捧自家“自动驾驶”

技术。事实上,这只是自动驾驶系统被夸大的宣传的一个缩影。随着自动驾驶热度的提高,越来越多企业和媒体都加入进来推波助澜。这表面上看是一次被夸大的宣传,背后却隐藏着对于企业技术安全责任的思考。

4.总结

自动驾驶技术随着5G技术的普及,在未来会有很广阔的发展前景,我们在顺应时代的发展潮流的时候,也应当注意到暗藏其下有关伦理道德的漩涡。只有为工程技术的发展提供有力的伦理支持,坚持以人为本,安全舒适的原则科学技术才能够真正造福于人,推动人类社会的发展。