无人车到底如何保证安全性?Mobileye 提出的「谨慎控制」原则或许有些启发
(本文由黄晚编译,原文:Do Self-Driving Cars Dream Of Safe Streets? )今年早些时候,在美国得克萨斯州奥斯汀举行的 SXSW 大会上,福特董事长比尔·福特说出了许多汽车界从业人士都在思考,或者更确切的说,其实是在担忧的一件事——即将到来的无人驾驶。 随着各大汽车厂商和硅谷玩家们对全自动驾驶(即 L5 自动驾驶,没有方向盘和踏板)持续不断的大手笔投入,这一领域正吸引越来越多人关注的目光,并成为人们争相报道的对象。 比尔·福特说,无人车的具体设计制造相对来说较为简单,因为技术正在飞速进步,困难的是如何让无人车去做生死抉择。「 如果一辆无人车在事故快要发生时必须选择去撞谁,那么它是应该保住乘客的性命还是避免撞到行人?人类司机没有时间考虑这样的问题,我们仅仅本能的做出反应。但是,无人车有能力对结果做出选择。如果它最终决定牺牲你来挽救其他人的生命,那么你还会坐这辆车吗? 比尔·福特公开谈论这一问题对正发展得如火如荼的无人驾驶来说只是小小地提了个醒,但它却在美国购车者中引发了一连串的思考。今年早些时候,美国汽车协会(AAA)曾做过一项调查,调查结果显示,四分之三的司机害怕乘坐无人车,54%的受访者表示路上有无人车会让他们缺乏安全感。而且,在比尔·福特开启这个话题之后,有人就得出结论:「 如果我们需要告诉一辆无人车它是应该杀死一位修女还是一个童子军,那么就不会有无人车了。」 这正是英特尔高级副总裁及 Mobileye 联合创始人 Amnon Shashua 的观点(今年 3 月份,英特尔以 153 亿美元的价格收购了 Mobileye)。 Shashua 相信,要想解决这个问题,必须从实际出发来考虑,而不是把它当作一个复杂无解的哲学或伦理学难题。简单来说,他认为,无人车能否被消费者广泛认可并接受的关键在于:大众对无人车的交通事故率抱有一个什么样的期待。 就目前而言,这个问题的答案可能为 0。也就是说,大家希望无人车不要出事儿。无论是去年佛罗里达州那起致命的特斯拉事故,还是最近拉斯维加斯无人驾驶小巴被撞事件,舆论的反应都极为强烈,不仅给予其头版头条的「 殊荣」,还大有揪住不放之势。相反,对传统交通工具几乎每日如例行公事般重复的连环相撞以及间或的重大伤亡,甚至连地方报纸都有些不屑一顾。 与此同时,世界各地的监管者们正迫不及待地想让无人车尽快上路,以最小化由交通事故引起的无情灾难,但这也进一步强化了人们对无人车安全问题过度的关注和警觉。去年,美国国家公路交通安全管理局(NHTSA)表示,他们对将无人车作为「 显著减少由人为因素导致的交通事故」 的手段持肯定态度。 在这样的背景下,Shashua 和 Mobileye 的程序员们想出了一个能够消除人们对无人车的恐惧的创造性的解决办法。他们在一定程度上以 NHTSA600 万交通事故的数据为基础,制定出了一套覆盖所有交通事故排列可能的近 40 个方案,然后再把人类司机针对交通规则和路况所能作出的完美判断编成算法公式。Shashua 称,以这些规则为基础,为无人车在每一可能情况下的决定编程,汽车厂商们就可以向消费者保证,即使发生事故,无人车也不会是需要负责的那一方。 Mobileye 安全系统的核心奉行这样一个概念——谨慎控制,这个原则将为无人车提供可使它保持在安全领域内的可用选择。例如,下面这幅图中就展示了一幕常见的场景。 蓝车正试图驶出停车位,但却被旁边的建筑物挡住了视线,不知道道路上是否有车正向它这一边驶来。如果是一位小心谨慎的司机,他会慢慢挪动,逐渐扩大视野范围,直到他觉得可以开出去了。但是,实际情况却是,他不可能获得完全的视野,最后一刻作出决定也是仅凭直觉。即使他已经做得很好了,他还是有可能因为自己的行为为即将到来的交通事故负责。如果他是一位马虎的司机,还在心不在焉的弄导航或打电话,发生事故的可能就更大了。 相反,处于「谨慎控制」中的无人车将以限速为基础计算红车最高的合理车速,以此决定在给红车刹车机会并逐渐获得完全视野的前提下它可以开出多远。如果红车超速了,那么发生车祸就是它的责任了。而如果红车也是一辆无人车,它会开得更加小心翼翼,并在估计到可能会有在它视野之外的汽车从停车位出来后向马路中央靠拢。 谨慎控制似乎让比尔·福特担心的那个「无人车必须做出选择」的棘手难题变得毫无意义,主要原因在于,「在即将发生的车祸中谁生谁死」这一伦理上的两难处境被一个严格、冷静的规则所取代:如果非无人车因自身失误有与无人车发生碰撞的可能,无人车将尽量避免碰撞发生,但不会以主动引发另一事故为代价减轻当前伤害。 也就是说,如果没有其他安全方案可供选择,无人车将接受碰撞的事实,即使车内乘客会有生命危险。「 换个角度来看问题,我们就会陷入滑坡理论。」Shashua 说。「 或许一辆车看起来后座好像没有人——所以它可以用后部迎接无人车的碰撞——实际上却坐着婴儿。也就是说,存在着不可见因素。且事后看来,无人车的所作所为其实造成了更严重的后果。」 Mobileye 相信,如果所有汽车厂商都采用其以成千上万的事故模拟为基础的开源算法公式,美国每年的交通事故死亡率将下降三个数量级,即从每一百万小时的驾驶时间发生一起交通死亡事故下降到每 10 亿小时的驾驶时间发生一起交通死亡事故。当然,这得假设所有汽车都是无人车,而事故原因将是设备故障或恶劣的驾驶环境。 有些专家对 Mobileye 的安全宣言表示反对。如杜克大学人类和自主实验室的主任 Missy Cummings 就告诉 EETimes,Mobileye 可能低估了会影响无人车的潜在软件错误的数量。她以 2016 年的 Stout Risius Ross 汽车保修和召回报告为证指出,自 2012 年以来,在汽车召回案例中软件问题所占的比重越来越大。这份调查还发现,2005 年至 2012 年间,共有 32 次召回是因软件问题而起,涉及车辆 360 万辆。从 2012 年底到 2015 年 6 月期间,这一数字几乎翻了一番。但是,EETimes 采访的所有学者和工程师都对 Mobileye 为无人车安全所做的努力表示赞赏。 目前为止,Mobileye 的安全算法在汽车界只能算是曲高和寡,因为大家都在奋力争夺无人驾驶领域的话语权。无论是 Google、Uber、Lyft 还是众多的初创公司以及各大汽车厂商,大家都认为完全自动驾驶将在下一个十年内到来。没有人想冒着失去市场领导权的风险去过早地接触规则,并最终成为竞争中的失败者。「Mobileye 认为应该制定安全标准,这点毫无疑问并没错,但是在当前局势下,汽车厂商们想的只有一件事——疯狂发展技术。」C3 Group 董事长兼联合创始人 Doug Newcomb 说。 对于汽车厂商们的做法,Shashua 将之归类为行业自杀行为。没有统一的安全标准,汽车厂商们只会各行其是:以成千上万次的多余模拟对无人车进行过度设计,超出需要地堆积传感器和计算能力。对外,他们一致宣称汽车有充分的安全保障,但却没人能绝对保证这些汽车不会引发交通事故。其结果就是,发生车祸后这些汽车厂商可能会面临极高的法律风险,而且这些因为装备了各种昂贵部件而造假不菲的无人车,将超出普通消费者的能力范围。与此同时,有些汽车厂商可能会以安全考虑为代价换取低廉的售价,但这会给消费者选择安全的无人车带来混乱,并进一步加深他们的这一信念:无人车很危险。 迫于无人车开发者们要求更多发挥空间的压力,美国政府似乎已决意采取放任自由的态度。目前,有一项法案已被众议院通过并提交给了参议院,这一法案将以综合立法的权力替代之前东拼西凑的州立法规,这些州立法规只允许无人车在特定道路上进行有限制的测试(有些州至今为止都不允许无人车上路)。一旦最终通过,NHTSA 将有权规定无人车的设计、结构、性能,而各州则只负责车辆登记和许可。最重要的可能是,这一法案通过后,NHTSA 就可以批准无人车厂商每年在美国道路上投放 10 万辆暂不符合联邦机动车安全标准的无人车(三年内逐步实施)。 面对这一有待通过的「 随心所欲」 的法案,Mobileye 想要说服汽车厂商们齐心协力处理安全和事故责任问题将是难上加难。而我们也将比预期更早发现,在为无人车编程的过程中,扮演上帝角色的开发者们,是否真如他们自己所想的那样能让无人车万无一失? 原创声明: 本文为 GeekCar 原创作品,欢迎转载。转载时请在文章开头注明作者和「来源自 GeekCar」,并附上原文链接,不得修改原文内容,谢谢合作! 欢迎关注 GeekCar 微信公众号: GeekCar 极客汽车(微信号:GeekCar)& 极市(微信号:geeket)。
自动驾驶汽车应该优先保护乘客还是行人?奔驰给出了一个答案
自动驾驶汽车的诞生让人们意识到了技术的优越性,只不过很多人在自动驾驶汽车的伦理道德方面依然争论不休。比如在发生事故时,应该优先考虑乘客安全还是行人的安全?假如有一群孩子们在路上奔跑而车辆又无法及时减速,同时道路的另一边就是悬崖。面对如此两难的情形,自动驾驶汽车又将会如何处理? 其实在这个问题上,律师、政策制定者、交通监管机构全部感到很为难,甚至还有人专门为此建立了科学研究中心。目前,大多数的汽车制造商也只是让谷歌带头去进行讨论、调查和研究。不过,对于这个问题,奔驰给出了自己的答案:这家百年车企将伦理道德重心偏向了车内成员。 谁来承担法律责任? 在前一阵结束的巴黎车展上,奔驰驾驶辅助系统和主动安全部的负责人 Christoph Von Hugo 说,未来奔驰旗下所有的 4 级和 5 级自动驾驶汽车都将选择优先保护车内乘客,当然,如果在交通事故当中可以避免伤亡那就再好不过了。 尽管世界上尚未有一家交通监管机构对自动驾驶汽车的伦理道德做出过规范,但可以想象的是,一旦发生交通事故,伤者或者受害者的律师会将自动驾驶汽车交通事故当做是一起蓄意谋杀案件。就像人类司机发生交通肇事一样,自动驾驶汽车的制造商也将被起诉。 面对很有可能会发生的自动驾驶汽车事故责任归属问题,一些汽车制造商则做出了表态,奥迪相关负责人说,从明年的自动驾驶版本奥迪 A8 开始,奥迪将会承担 3 级自动驾驶汽车发生交通事故后的所有法律责任。沃尔沃也发表声明,当他们在 2020 年开始销售自动驾驶汽车后,公司也将承担交通事故的全部法律责任。 自动驾驶汽车真的更安全了吗? 汽车制造商们之所以敢于承担事故责任,很大程度上还是源于他们对自动驾驶技术的信心。美国交通运输部的研究数字显示,94%的交通事故都是由人为操作失误造成的。只不过,一旦进入自动驾驶汽车时代,人们的出行交通安全又将面临新的挑战。与人类驾驶员的逻辑思维不同的是,自动驾驶汽车上的激光雷达、摄像头以及传感器种类繁多且性能参差不齐。通常情况下,售价越高的自动驾驶汽车在安全性方面将会更有保障。这也意味着穷人只能使用性能并不完善的自动驾驶系统,人们的安全指数将与收入成正比关系。 面对这个问题,Christoph von Hugo 说,自动驾驶汽车的技术十分复杂,交通路况当中也有很多不能预知的风险。奔驰将会开发更加先进的 4 级或者 5 级自动驾驶汽车来避免交通事故的发生。在德国瑞士边境的 Immendingen 地区,戴姆勒奔驰集团已经花费了 2 亿 5 千万美元来升级自动驾驶汽车测试设备。随着自动驾驶汽车安全性的逐步提升,未来,自动驾驶汽车的伦理道德问题可能将不会像今天看起来那么重要。 原创声明: 本文为 GeekCar 原创作品,欢迎转载。转载时请在文章开头注明作者和「来源自 GeekCar」,并附上原文链接,不得修改原文内容,谢谢合作! 欢迎关注 GeekCar 微信公众号: GeekCar 极客汽车(微信号:GeekCar)& 极市(微信号:geeket)。
自动驾驶汽车「安全使用指南」
在很多人看来,有了自动驾驶汽车,我们就可以放心的把自己交给它,哪怕在车上睡一觉都行。但是,事实并非如此。即使是在自动驾驶模式下,司机也绝对不能放松警惕。这篇文章想聊的话题是,当自动驾驶时代来临时,身为司机的我们,应该如何更安全的使用一辆自动驾驶车。 看视频有利于保持清醒 最近,有研究人员邀请了斯坦福大学的学生参加一个模拟自动驾驶车的测试。 这个试验的目的之一,就是评估当处于自动驾驶模式的时候,人类能不能在遇到问题时及时操控汽车。在这个试验中他们发现,让驾驶员进行阅读或者看视频,可以帮助他们保持清醒。 在试验中,有 48 名学生被要求坐在驾驶席上,而另外 13 名学生则充当观察者的角色来监督有没有人打瞌睡。只有三个人在看视频或者用平板电脑阅读的时候睡着了。 斯坦福的研究表明,多媒体可能更有利于使驾驶员保持清醒并做出反应。 他们还设计了意外状况,让模拟的车辆或行人突然出现在路上,这时候,模拟自动驾驶车的驾驶员就应该想办法避开突发状况。测试结果证明,即使人没有分神,也至少需要五秒钟的时间来接管处于自动驾驶状态的车辆。 汽车厂商的矛盾 走出实验室,其实现在的一些量产车已经带有了某些自动驾驶功能。比如,特斯拉的 Autopilot 功能推出之后,我们就越发意识到,自动驾驶还有很多值得深思的问题。 特斯拉说,他们的 Autopilot 功能并不意味着司机可以完全不关注路况。 而凯迪拉克酝酿已久的 Super Cruise 功能也快要搭载在量产车上了,这是和 Autopilot 类似的半自动驾驶系统。他们很谨慎的表明,这个巡航系统不是暗示司机可以长时间分神,虽然可以放松或者稍微将视线调开一下,但他们应该知道,这个技术不是万无一失的。 这就有了一个矛盾点,汽车制造商究竟怎么做,才能让顾客在信任这些技术的同时,又不「 完全依赖」 这样的技术。这种依赖会导致虚假的安全感,从而降低驾驶员的敏感性,一旦发生事故,就真的悲剧了。 针对「 人工接管」 的人机交互 另一个问题就是:如果需要人接管车辆的时候,如何提醒驾驶员? 最直接的思路就是要从人的感官入手。视觉警告不一定能充分发挥作用,那么就将视觉、听觉和触觉相结合,比如一个会振动的座椅,将会让驾驶员能更快反应。还有的人认为,这种提醒一定要明显。弗吉尼亚理工大学交通研究所的科学家 Gred Fitch 说,「 如果提醒方式太过温柔含蓄,那么可能就会被已经分心的人错过」。 但这又出现了一个矛盾点,就是如果提醒方式太过霸道,司机会不会被吓到? 还有一些其他的问题,比如 Fitch 所说的「 模式混乱」,即在某一个情况下,车子是否真的需要人类介入接管,并且能直观的表现出到底是哪里出了问题? 而谷歌的做法就显得更简单直接。他们干脆减少人类对自动驾驶的干预,既然接管时间要这么长,有的时候还容易出错,不如就直接让车变得更聪明,自己搞定一切。所以….. 他们的无人驾驶车上,没有方向盘和脚踏板,人对车的控制将十分有限。这大概是为什么他们自称是「 无人驾驶」,而不是「 自动驾驶」 的原因吧。这个逻辑… 竟然不知道该如何反驳。 Anyway, 从目前的主流来看,还是人车互动型的(半)自动驾驶为主流。随着科技发展,汽车的传感器越来越灵敏,能更快的对外部世界做出响应。而在遇到一些不确定情况时,人类的作用就是做出妥善的决策。 通过斯坦福大学的这次研究,我们至少应该懂得:未来人类和自动驾驶车之间应该更像是一对伙伴,是合作关系,而不是从属关系。 原创声明: 本文为 GeekCar 原创作品,欢迎转载。转载时请在文章开头注明作者和「来源自 GeekCar」,并附上原文链接,不得修改原文内容,谢谢合作! 同时欢迎关注 GeekCar 微信公众号: GeekCar 极客汽车 (微信号:GeekCar)& 极市 (微信号:geeket)。
无人驾驶车需要变得更「圆滑」吗?
交通事故总是会发生,即使无人驾驶也不例外。 最近 Google 的无人驾驶汽车在路上被警察 Pullover 了,原因主要是因为在路上行驶得太慢,影响了后方车辆的行驶,所幸警察叔叔并没有开出罚单。 由此看来,无人驾驶汽车为了适应目前车辆都是有人驾驶的现状,它可能需要学习的更多,要做出更多符合人类习惯的改变。这也让我们知道,无人驾驶汽车并不是我们想的那样简单,只要做到「 无人驾驶」 就行了,它同时需要考虑到法律、政策以及其他人类驾驶员等因素。 一旦无人驾驶的车发生交通事故时,它涉及的范围将更广。谁应该为这起事故来买单?汽车制造商?车主?保险公司?还是所有这些人?就算无人驾驶汽车一丝不苟践行法规,人类驾驶员也不一定能完全奉公守法。无人驾驶汽车所要考虑的问题,真的是相当复杂。制造商在测试车辆的时候,也越发谨慎起来。 但还有很多问题依然存在,其中之一就是「 随机应变」 的人类驾驶员,很可能会让无人汽车无所适从。 本田通过一个跟踪汽车前进的堵车辅助系统,很「 惊讶」 地发现,人类司机在车距非常小的情况下,仍然「 勇敢」 前行。而无人驾驶由于汽车设定,可以想见会十分「 文明」 地保持车距,然后不停地被人类驾驶的车辆夹塞,可能几乎停滞不前。 有些公司,如宝马、奥迪和奔驰,认为「 人性化」 的驾驶在现在比完全的无人化驾驶更适合社会。车辆可以通过学习、存储驾驶员驾驶习惯等方面使无人驾驶更加「 人性化」。同时,也可以加强对其他车辆、行人之间的交互。 例如奔驰就一直在探索是否能让车辆探测到行人或者自行车,甚至通过手势或其他方法了解驾驶员自身的意图。他们还打算在车的前后镶嵌 LED 灯,会有一些「 滚动字幕」,比如说当前面有行人的时候,LED 灯会显示「 停下」,来告诉后面的车请耐心等待。F 015 Luxury 则更进一步,当有行人路过的时候,还会投射出虚拟的斑马线,来告诉行人他们是安全的,可以大胆地往前走。 但人性化就真的能解决问题了吗?「 人性化」,就意味着很有可能会违反交通规则,比如闯红灯或者超速,存在很大的安全隐患,那时候他们就有官司要吃了。但话又说回来,如果让无人驾驶汽车好好遵守规则,那么可能会变得低效,毕竟其他的人类驾驶员可能并不会遵守规则。 这真的是个两难境地。 现在许多研发无人驾驶汽车的团队对这一问题都没有确切的答案,他们只能尽自己最大的努力走中庸之道。或许,当有一天,无人驾驶完全取代了人类驾驶,这个问题才可能得以解决。 原创声明: 本文为 GeekCar 原创作品,欢迎转载。转载时请在文章开头注明作者和「来源自 GeekCar」,并附上原文链接,不得修改原文内容,谢谢合作! 同时欢迎关注 GeekCar 微信公众号: GeekCar 极客汽车 (微信号:GeekCar)& 极市 (微信号:geeket)。