最近发生的两起特斯拉自动驾驶事故,又把关于自动驾驶安全性的问题推到了风口浪尖。其实,在真正实现自动驾驶之前,我们现在所处的是一个很危险的阶段。为什么危险?我们不如先来回顾一下这两起事故。
1 月 23 日,在加州的卡尔弗城发生了一起事故。一辆特斯拉 Model S 以 65mph(约 105km/h)的速度,撞到了当地 42 号消防车的「屁股」上。当时,这辆消防车正在高速上处理事故。消防车很结实,没有太大问题,但是 Model S 的情况却非常惨烈,发动机挡板被撞翻到前挡风玻璃上。不过,幸运的是,居然没有人员伤亡。车主表示,当时正在使用特斯拉「Autopilot」模式。
过了一周左右,又是一个特斯拉 Model S 的车主,在旧金山的海湾大桥上被捕。被捕时,他被测出酒精含量比规定超标两倍。他声称:「没关系,我正在使用 Autopilot。」
在这两起事故中,车主有没有使用「Autopilot」模式还没有被确认,但是特斯拉表示:
1.Autopilot 是给全神贯注的驾驶员使用的,还不能实现完全自动驾驶,仍然需要驾驶员注意道路状况,如果有特殊情况,驾驶员需要立刻接手控制车辆。
2. 如果有醉酒的人驾驶,系统会检测驾驶员的手有没有时常放在方向盘上,如果没有,就会发出嘟嘟的提示声,系统会将车辆逐渐减速,然后停车,因为系统认为停车也比没人监控的车辆自己行驶安全。以上这些内容,「Autopilot」的使用说明书中也有提到。」
自动驾驶事故究竟应该谁负责?
从这两起事故中看,问题的关键在于:汽车制造商过度宣传了自己的自动驾驶产品,没有警告车主产品的危险性;车主没有正确的区分开自动驾驶和半自动驾驶。
现在,越来越多的汽车制造商开始提供自动驾驶功能。像特斯拉的「Autopilot」、凯迪拉克的「Super Cruise」、奥迪的「Traffic Jam Pilot」、日产的「ProPilot Assist」等等。这些自动驾驶产品的名字通常表现了这家品牌的野心,但对消费者往往会造成误导。
比如,人们看到特斯拉的「Autopilot」会认为这辆车可以做到自动驾驶,事实上,这些车辆现在还做不到。这种情况下,很多汽车制造商都没有做到「警告」消费者,让客户对自动驾驶功能的期望值过高,造成了车辆在自动驾驶模式下「绝对安全」的假象。
值得一提的是,现阶段似乎只有通用「正大光明」的说自己的 Super Cruise 是可以「解放双手」的「自动驾驶系统」,但是这也有前提,是在高速公路应用场景下。至于其他品牌的高级驾驶辅助系统,很难说是可以真正「解放双手」的。
受到了误导,人们更不容易区分开半自动驾驶和自动驾驶。很多人存在这种心理,既然汽车制造商提供了这项功能,这项功能就可以放心使用。 自动驾驶功能前期表现的越好,车主就会越信任它,认为可以完全依赖这项功能,这是一种「危险」的安全感。
可怕的是,这个问题会随着自动驾驶技术的发展越来越严重。
怎样减少自动驾驶事故的发生?
开头提到的特斯拉自动驾驶事故,在美国国家运输安全委员会看来,特斯拉要负一部分责任。他们认为,特斯拉为了销售汽车,在自动驾驶功能危险性方面的宣传力度太小,没有做好警告工作,造成车主对这项功能的滥用。
为了减少自动驾驶事故的发生,汽车制造商应该时刻提醒车主「车辆做不到完全自动驾驶」,对他们做好「警告」工作;车主应该正确的区分开半自动驾驶和自动驾驶,不能滥用自动驾驶功能。
其实,针对自动驾驶/高级驾驶辅助的安全性,汽车制造商已经提出了不少解决方案。
大部分品牌的高级驾驶辅助系统都会加入方向盘脱手检测功能,脱手时间过长,车辆会采取警示、减速甚至停车等操作,所以从设计上来说不是真正的「解放双手」;前面提到的凯迪拉克 Super Cruise,使用摄像头来监测驾驶员面部和眼镜,以确保它们专注在前方道路上。
然而,有人为了骗过这些预警机制而「无所不用其极」。比如,一位特斯拉车主在方向盘上放了一个橙子,来模拟手带给方向盘的压力:
再比如,前几年有一位奔驰 S 级车主,把一罐橙汁绑在方向盘上,模拟手扶方向盘,来绕过脱手检测:
一方面,现有的驾驶员注意力预警机制并不完善,太好骗过,甚至一个橙子、一罐橙汁就可以搞定,另一方面,一些司机也确实不太把行车安全当回事,并且太过信任机器。
总之,我们对新技术抱着欢迎的态度,但是并不应该随便滥用新技术。现在还没有完全的自动驾驶,我们还有很长的路要走。
原创声明: 本文为 GeekCar 原创作品,欢迎转载。转载时请在文章开头注明作者和「来源自 GeekCar」,并附上原文链接,不得修改原文内容,谢谢合作!
欢迎关注 GeekCar 微信公众号: GeekCar 极客汽车(微信号:GeekCar)&极市(微信号:geeket)。