特斯拉「自动驾驶致死事件」的专业解读
2016 年 7 月的第一天,特斯拉终于搞了个大新闻。 特斯拉在官网的 Blog 中,公开了第一起因为使用 Autopilot 功能致死的交通事故,并把这起事故称为「A Tragic Loss」。随后,Elon Musk 在推特上转发了这条新闻,引起众多媒体纷纷报道。(注:「Autopilot」 是特斯拉自动驾驶系统的名称)在发生这起事故前,特斯拉的 Autopilot 已经累积了超过 2 亿公里的安全行驶里程。平均而言,美国范围内平均每 1.5 亿公里发生一起致死交通事故。从数字上来看,虽然 Autopilot 比人类驾驶员更安全,但机器致死还是值得我们深思的。 还原一场惨烈的事故 这起事故发生在今年 5 月 7 日中午,目前美国 NHTSA 正在调查之中,正式的调查结果还未公布。但根据特斯拉已公布的信息,我们还是能够还原部分事故发生时的情景的。 发生事故的车主叫做 Joshua Brown,当时开着一辆 Model S 行驶在佛罗里达州的 Williston。特斯拉曾明确提出,事故发生的时候车主开启了 Autopilot 功能。下面这张图是事故发生地的 Google 街景图。 当时路口处有一辆卡车(官方的措辞是「tractor trailer」,即货柜+车头的结构),这辆卡车正在横穿马路。此时 Model S 正行驶在车道线内,处于自动驾驶状态,并和卡车呈接近垂直的方向。 由于特斯拉的 Autopilot 系统判断错误,车在毫无减速的情况下钻进了货柜下方。根据卡车司机的描述,事故发生后,Model S 车里还在播放着「 哈利波特」。(下图仅为 tractor trailer 车型示意图,并非事故车)虽然没有现场事故照片,但我们也能脑补一下:一辆轿车钻进了货柜下方,脆弱的 A 柱瞬间断裂,车顶被削,车主当场死亡。在这场事故中,几个关键因素造成了这起事故,是偶然也是必然。 首先,这次卡车是横置的,摄像头很难从侧面识别一辆正在缓慢移动的卡车。另外,当天的佛罗里达州的阳光很强,卡车本身也有反光,可能导致 Model S 不能识别出卡车和天空。其次,卡车底盘很高,并且和 Model S 处于互相垂直的位置。Elon Musk 说在这种情况下,车会以为是在通过安装在头顶的路牌,不会自动刹停。 无独有偶,在今年 3 月份的时候,一位车主在使用「 召唤」 功能时,车自己追尾了一辆大货车,撞坏了前挡风玻璃但没有人受伤。到底是谁的责任,还得扯皮一段时间。这么看来,特斯拉的 Autopilot 确实对各种各样的卡车不太感冒,所以提醒广大车主务必注意安全… 圈里人都怎么看? 关于特斯拉的这起事故,我和自动驾驶行业内的很多专家聊了聊,专业人士的观点很值得你一看。(部分人不方便透露公司和姓名,请谅解)车和家 CEO、汽车之家创始人李想(这段话取自他的微博,他本人也是资深特斯拉车主)如果有激光雷达就可以避免了,摄像头为主的 ADAS 方案做自动驾驶还是有一定的缺陷,就是光线所造成的影响,包括更精准的距离判断,哪怕万分之一次的误判都是关乎生死的风险。 目前还只能解放手和脚,不能解放眼,车主们要正确使用,在 Tesla 上睡觉这种事情就别宣传了。 MINIEYE CEO 刘国清 这起事故可能是由以下的一个,或者几个「BUG」 一起导致了这起悲剧: 1. 为了更好的控制(「 正常」 工况下的)误检率和模型复杂度,Tesla 使用的前向视觉感知系统(Mobileye 提供)只能识别前车尾部,而不支持侧面车识别(注意,当时前方的挂车正处于转向状态,所以是侧面车身对着 Tesla),于是导致视觉感知失效; 2. 一般情况下,即便 camera 没有捕捉到,但 radar 也能够探测到前方障碍物的存在,但事故中挂车的底盘相对太高,同时 Tesla 上 radar 的安装位置又相对低,这种错位有可能导致 radar 对挂车的感知失败; 3. 当然,还有一种可能性,事发时的特殊场景触发了 sensor fusion 机制中某种隐藏 bug。 关于特斯拉的 Autopilot,现在的过度宣传和广告都在告诉消费者这项技术有多智能,给大家造成这汽车已经可以自主驾驶的印象——但现在汽车行业大部分还处于 1 到 2 级,也就是需要人为干预,技术只能作为辅助。即便如 Tesla 这样的公司,离完全实现无人驾驶也还有一段距离。 在未来,驾驶无人化是必然的,只是比我们想象的要更慢。坦白说,我认为要实现完全的自动化驾驶一定会花超过 10 年的时间,甚至更久。因为这是一个异常庞大且复杂的系统,由很多个协同工作的子模块构成,而遗憾的是,其中相当一部分模块离成熟都还有不小的距离。在通往无人驾驶的道路,需要更多像 Mobileye 一样的公司,持久、专注的在自己的技术领域坚持。 奇点汽车 CEO 沈海寅 此次特斯拉事故背后,对于自动驾驶汽车, 舆论争议最多的一点,可能就是一旦这类车辆出现了交通安全事故,应该如何界定和划分责任,而在遇到道德层面暧昧不清时,我们也主张遵守法律为主。但在复杂的城市道路环境中,自动驾驶汽车因交通事故所带来的责任问题尚没有明确立法,自动驾驶汽车行驶规范与法律法规还基本上是空白,这是影响自动驾驶商业化最重要因素之一。 其实,自动驾驶汽车完全可以在不违规的情况下,机智地做出很多安全的决策,而做到这点,就离不开与人工智能技术的深入结合。这里我们可以举一下 AlphaGo … 继续阅读