谷歌自动驾驶汽车发生了迄今为止最严重的一起事故,可过错方依然是人类
谷歌发表声明宣称,上个星期,公司的一辆自动驾驶汽车在加州山景城地区发生了一起事故。这起事故由外媒 9to5 Google 首次报道出来,9to5 Google 认为,迄今为止,这起事故是谷歌自动驾驶汽车发生过的最严重的一起事故。 在声明当中,谷歌坚持认为自己的自动驾驶汽车没有过错。目前,汽车管理局(DMV)还没有给出这次事故的具体鉴定报告。因此,有关于事故当中的所有细节还有待于证实。按照谷歌的说法,当时他们的自动驾驶汽车正在山景城菲利斯大道上向北行驶,一辆在国王大道上向西行驶的车突然闯了红灯,最终两车相撞。谷歌的一位发言人说,在谷歌自动驾驶汽车通过路口前,绿灯信号至少已经亮了 6 秒钟。 根据 9to5 Google 的报道,闯红灯的那辆事故车归「Interstate Batteries」 公司所有,这家公司宣称自己是北美地区排名第一的可更换电池制造商。(这个广告做的,我给满分)整起交通事故当中没有人员伤亡,「Interstate Batteries」 公司的事故车辆所有安全气囊全部弹出。 这已经不是谷歌自动驾驶汽车发生的第一起交通事故了,今年年初,谷歌的一辆自动驾驶雷克萨斯 SUV 就撞上了公共汽车,这也是谷歌第一次承担交通事故主要责任。这次交通事故直接导致了谷歌在自动驾驶汽车研发方面进一步放低了姿态,几个月过后,除少数几位工程师之外,负责这个项目的机器人专家全部离职。彭博社也认为,相比于其他竞争对手,谷歌在自动驾驶汽车项目上仍然进展缓慢,他们还处于自动驾驶汽车研发的初级阶段。 原创声明: 本文为 GeekCar 原创作品,欢迎转载。转载时请在文章开头注明作者和「来源自 GeekCar」,并附上原文链接,不得修改原文内容,谢谢合作! 欢迎关注 GeekCar 微信公众号: GeekCar 极客汽车(微信号:GeekCar)& 极市(微信号:geeket)。
GeekCar 粉丝亲身经历的特斯拉 Autopilot 事故:比「首撞」更早更严重
最近,关于「 特斯拉 Autopilot 国内首撞」 的新闻一直被广泛关注。使用 Autopilot 导致撞车是不假,不过,这并不是 Autopilot 在国内的第一次事故。 最近,我们的一个朋友 Nic 就向 GeekCar 讲述了他的亲身遭遇:在今年一月份,他开着刚提不久的 Model S P85D,在杭州发生了一次和 Autopilot 有关的车祸,而且严重程度远高于在北京的这次事故。 他有多重身份:是一名投资人,同时也是电动车爱好者,特斯拉的早期车主。发生事故时他的 P85D 还没正式挂牌。 可能是全球都排得上号的 Autopilot 车祸 这起事故发生在今年 1 月份,事故发生时是晚上,并没有特殊天气状况,一切正常。 我们还原一下当时的情况: Nic 开启了 Autopilot 功能,在一个有两车道的上塘高架桥上行驶。据他说,当时的巡航速度大约是 70-80km/h 之间。开启 Autopilot 后,他在用手机看邮件,没注意道路前方的状况。 当时,有一辆清扫车正在以 5-10km/h 的速度贴着高架桥最右侧进行清扫作业,清扫车有一多半的车体在右侧车道线内。P85D 迅速接近清扫车,但是 Autopilot 系统并没有采取制动措施。当一直在操作手机的他看到前方的清扫车时,已经来不及避让,虽然向左打了一把方向,但是仍然发生了碰撞。清扫车并没有安装后保险杠,P85D 的右前侧撞上了清扫车的左后侧,顶弯了它的左后轴。 清扫车货箱的左下角十分锋利,像一把手术刀一样,从特斯拉的铝制引擎盖上划过,把右侧前挡风玻璃撞碎,一直划到了车顶天窗附近。P85D 右前半侧受损严重。 碰撞发生瞬间,气囊、侧气帘爆出。万幸的是,他并未受伤,副驾驶也没有乘客。事后,他对特斯拉的「 被动安全」 比较肯定。特斯拉官方通过读取车内 log,说在碰撞之前车已经进行了制动,速度约为 40-50km/h,不过他个人表示疑问。 4 个月后,美国加州的 Joshua Brown 驾驶着他的特斯拉,开启 Autopilot 功能在公路上飞驰,撞上了大挂车,成为第一个因为使用 Autopilot 死亡的车主。随后,这件事发酵,引起了更多人对特斯拉 Autopilot 安全性的忧虑。 其实,据 Nic 说,在 1 月份他发生车祸之前,据他所知全球已经有了几起由 Autopilot 引起的事故,在国内的特斯拉车主群里也有事故曝出,只是大家没有过多公开,而刚好他的事故比较严重。至于到底谁是「 国内首撞」,其实争这个并没太大意义。 碰撞原因分析 首先,无论开什么车,开车的时候玩手机肯定是不对的,在主观上,他自己一定是要负很大责任的。但另一方面,他也认为 Autopilot 没有检测出那辆清扫车。 从技术上来说,当时天气没有异常状况,虽然是晚上,但是根据我们使用 Autopilot 功能时的经验,这种环境下系统是完全可以正常工作的。 我们假设系统确实没有检测到那辆清扫车,那么问题可能是两方面的: 首先,清扫车位于 P85D 的侧前方,并不是完全行驶在 P85D 当时所处车道内的。所以系统或许是发生了误判,或者「 忽略」 了这个障碍的存在。 其次,那辆清扫车底盘较高,车尾部没有装护栏。会不会有这种可能:特斯拉安装位置较低的雷达,发出的信号又从车底下穿过去了?这就有点类似之前 Joshua Brown 所遇到的情况了。同样,美国一位车主在使用特斯拉的「 召唤」 功能时,车子自己钻进了一辆大卡车下方,那也是一辆底盘很高的车。 第三,不排除的一个理由是,相对其他常见的车型来说,清扫车算是「 异形车」,车祸发生时是晚上,清扫车的尾部有两个不断闪烁的箭头状的灯带,还有一圈反光带,远方又有一排路灯,这些巧合,可能就「 欺骗」 了 Autopilot 系统。 所以,可能是视觉+雷达系统的同时懵逼,导致了这次车祸。 用户需要被正确引导 Nic 说,除去技术因素,其实最大的问题是,用户没有被正确引导,大家对 Autopilot 的本质有误区。 在他看来,这么做的后果就是很多人把一个「 高级 ACC」 功能当成了自动驾驶。就连他自己在刚提车之后,也拍了诸如双手离开方向盘这种炫耀自动驾驶功能的小视频。在车友圈里,很多新车主都在做这件事,这么做非常容易误导别人。 他说起「 教育用户」 这件事时特别认真:不管是车主还是媒体,当然也包括特斯拉官方在内,在宣传 Autopilot 的时候,真的要慎之又慎,不能夸大处理。 在此,我们第 N 次提醒广大特斯拉车主,在使用 Autopilot 功能的时候,方向盘千万别离手,看到那些「 高底盘的」、「 长得奇怪的」、「 屁股没正对着你的」 车时,更要小心。 这不是自动驾驶!!! 这不是自动驾驶!!! 这不是自动驾驶!!! 但愿,未来特斯拉 Autopilot 系统的 bug,不是从一次又一次的车祸中找出来的。 一些题外话 在事故中受损的这辆 P85D,获得了保险公司的全额赔偿,最终修车费用 35 万,历时 4 个月的时间,更换了很多零件。不过全额赔偿的前提是,定损索赔过程中 Nic 并没有提及所谓的自动驾驶,交警的事故单里也没有写明。如果保险公司在定损理赔的时候知道这是由 Autopilot 引发的事故,是否能赔偿、赔偿多少,都是个未知数。 还有个有意思的地方:由于特斯拉是全铝车身,部分连接点不能直接焊接,所以这次修车使用了很多粘合剂,一支粘合剂就要几千块。 他还提到了特斯拉产品迭代的一些不为人知的地方。 首先是车型成本的降低。比如,他在事故中更换 LED 大灯,负责维修的和谐汽车报价 1 万左右。但改款之后的 Model S,LED 大灯备件 的价格只要 … 继续阅读
谷歌自动驾驶车事故:是机器太胆小,还是人类犯了「经验主义」错误?
美国洛杉矶车辆管理中心(California Department of Motor Vehicles )发布了去年的交通事故报告,报告中有几起自动驾驶汽车发生的交通事故,非常具有代表性。 之前有不愿意透露姓名的知情人士表示:谷歌自动驾驶汽车发生事故的概率比人类驾驶员要小得多,但是他当时并没有具体描述自动驾驶汽车事故的细节。 现在 CDMV 的报告详细描述了每一起事故的细节,通过分析这些事故,我们发现确实在大部分事故中,人类驾驶员的失误才是导致事故发生的关键因素。 这次总共发布了 9 份事故报告,其中 2015 年中的 8 次事故涉及到了谷歌的自动驾驶汽车。相对于 20 辆自动驾驶汽车平均每辆每周行驶 16000 公里的里程来算,发生了 8 起事故并不算多。 事故报告显示,在谷歌汽车涉及到的这几起事故中,大部分都是由于在路口没有及时停下来或者是通过路口时车速太快导致的,除了被其他车辆追尾的那次。 安全的度该如何把控? 在所有的事故中,有一起事故非常特别,这是由于谷歌的自动驾驶测试车过于谨慎导致的。在今年 2 月 25 日,一辆基于雷克萨斯 RX450h 改造的测试车,在向北行驶通过一个十字路口时,检测到了一辆由东向西通过路口的奥迪车有可能和自己发生碰撞,于是这辆车自动刹停了下来,奥迪车躲闪不急,撞到了雷克萨斯的右后门和后轮的位置。 虽然最后判定奥迪车主对这起事故负责,但如果事故的其中一方不是自动驾驶车辆的话,这起事故可能就不会发生了。 因为在事故发生之前,测试车根据奥迪的速度和轨迹计算出有可能发生碰撞,提前开始制动。而奥迪车的驾驶员,并没有意识到这是一辆自动驾驶汽车,或者说,以他以往的经验判断,前面的的那辆车应该会加速通过路口而不是减速。于是,事故发生了。虽然在事故发生的前一刻,测试车里的驾驶员已经切换到手动模式,并且尝试做出规避动作,但并没有来得及。 这起事故暴露出了自动驾驶汽车的一个问题:有些事故并不是人类驾驶员的失误导致的,而是因为自动驾驶汽车的行驶轨迹,有时并不符合人们的日常的行驶习惯。因为自动驾驶汽车过于注重安全了。 不过我认为这并不是自动驾驶汽车的错。毕竟人们在最初刚刚萌生了智能机器人幻想的时候,就为它们定下了机器人三定律:1. 机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手旁观。2. 机器人必须服从人给予它的命令,但不得违反第一定律。3. 机器人应保护自身的安全,但不得违反第一、第二定律。 这条 1942 年就提出的定律,从始至终只在强调一件事情,安全。对于自动驾驶汽车来说,最难的并不是知道要沿着哪条道路行驶,而是如何像人类一样在道路上行驶。做到真正的「 智能」 是非常困难的,直到去年已经有程序「 通过」 了图灵测试,但「 他」 的身份是一位 13 岁的小男孩,显然还不够合法开车上路的年纪。 原创声明: 本文为 GeekCar 原创作品,欢迎转载。转载时请在文章开头注明作者和「来源自 GeekCar」,并附上原文链接,不得修改原文内容,谢谢合作! 同时欢迎关注 GeekCar 微信公众号: GeekCar 极客汽车 (微信号:GeekCar)& 极市 (微信号:geeket)。
谷歌无人驾驶汽车首次发生人员受伤事故
谷歌周四表示,无人驾驶汽车原型车近期首次发生了人员受伤事故。 在这起事故中,一辆经过谷歌无人驾驶技术改装的雷克萨斯 SUV 在谷歌总部所在地加州山景城被其他车辆追尾。在山景城,谷歌 20 多辆无人驾驶汽车原型车正在上路测试。 谷歌表示,这起事故发生于 7 月 1 日。3 名乘坐这辆无人驾驶汽车的谷歌员工表示,他们的颈部轻微受伤。在前往医院检查并确诊无恙后,他们已返回工作。而事故中另一方车辆的司机也表示,事故导致了颈部和背部疼痛。 在加州,无人驾驶汽车在上路测试时必须配备驾驶员,从而在紧急情况下接管车辆。谷歌通常也会安排另一名员工坐在前排副驾驶位置,记录汽车行驶的细节。在这起事故中,谷歌无人驾驶汽车的后排还搭乘了一名员工。 谷歌对无人驾驶汽车进行了大笔投资。谷歌认为,无人驾驶汽车将改善道路交通安全,而相对于人工司机也要更高效。 谷歌表示,在无人驾驶汽车持续 6 年、行程 190 万英里(约合 306 万公里)的测试中,这是第 14 起事故。谷歌此前表示,该公司的汽车从未导致过任何碰撞。2011 年时,谷歌一名员工曾驾驶无人驾驶汽车追尾了另一辆汽车,但当时这辆汽车并未处于无人驾驶模式。 谷歌表示,在 14 起事故中,有 11 起都是其他车辆追尾了无人驾驶汽车。 在周四发布的博文中,谷歌无人驾驶汽车项目负责人克里斯·乌尔姆森(Chris Urmson)表示,无人驾驶 SUV「 经常由于其他司机的分心而被撞」,这些司机有可能正在低头看手机。乌尔姆森表示:「 明显的问题在于人工失误和注意力不集中。」 在电话采访中,乌尔姆森表示,他的团队正在研究,在发生碰撞前,无人驾驶汽车能否通过某种方式提醒对方车辆分心的司机。鸣笛可能是一种方式,但乌尔姆森表示,这样做可能会打扰山景城的居民。 关于 7 月 1 日的事故,谷歌已向加州机动车部门提交了报告: 谷歌 SUV 正在无人驾驶模式以每小时 15 英里(约合 24 公里)的速度跟随另两辆车行驶,当时 3 辆车正在接近一个绿灯的十字路口。 由于路口对面堵车,第一辆车选择了减速停下,以免堵塞路口。因此谷歌无人驾驶汽车和另一辆汽车也选择了停下。 在 1 秒钟的时间里,第 4 辆车以 17 英里(约合 27 公里)的时速追尾了谷歌的汽车。车载传感器显示,对方车辆没有刹车。 该车的司机报告了「 轻微的颈部和背部疼痛」。SUV 的后保险杠轻微损坏,而对方车辆的前保险杠脱落。 欢迎关注 GeekCar 微信公众号: GeekCar 极客汽车 (微信号:GeekCar)& 极市 (微信号:geeket)。
谷歌自动汽车抢线,差点撞上德尔福的自动驾驶车
(转载自新浪科技)本周早些时候,谷歌一辆无人驾驶汽车的原型车在硅谷差点与竞争对手的无人汽车发生事故。这是首次涉及两辆无人驾驶车辆的交通事件。 美国德尔福汽车 (Delphi Automotive PLC) 硅谷实验室主任,自动驾驶项目全球商业总监约翰·艾布斯米尔 (Jpohn Absmeier) 周四透露,本周二,公司一辆由奥迪 Q5 跨界车改装的自动驾驶原型车在 Palo Alto 一条道路上变线时,被谷歌一辆雷克萨斯 RX400h 改装而来的自动汽车抢线拦住去路,被迫取消变线。 艾布斯米尔称他作为乘客目睹了事件经过,并称德尔福的车辆「 反应妥善」,没有发生碰撞事故。 谷歌对此不予置评。 德尔福的硅谷实验室位于山景城 (Mountain View),距离谷歌总部不远,主要使用奥迪汽车作为自动汽车实验的原型车,谷歌则采用了 20 多辆雷克萨斯车型试验自动驾驶。 本周四,谷歌开始测试新款无人驾驶汽车的原型车。新原型车外观由谷歌自行设计,但使用的软件与此前的原型车相同。 两家公司此前都报告称自家的无人汽车曾发生过轻微碰撞事故,主要原因是其他司机的操作失误。
无人驾驶汽车事故:倒不如称它们为「里程碑」
终于,美国加州机动车管理局(DMW)在美国时间周四发布了关于自动驾驶汽车事故的报告。之前 DMW 一直拒绝公布关于无人驾驶汽车事故的一些记录,理由是这些包含个人信息的记录根据加州法律是保密的。在美联社和非盈利组织 Consumer Watchdog 的质疑和批评下,DMW 终于「 妥协」,但对于涉及个人信息的部分仍然保持保密,仅公开事故其他的一些细节。 这次 DMW 公只是公布了其中 7 次无人驾驶汽车的交通事故:6 次来自科技巨头谷歌,1 次来自汽车零部件供应商德尔福。报告相较于前段时间谷歌自己的一份事故报告,事故时间上精确到了某一天的某个时间,同时也佐证了谷歌保重中宣称的「 大部分事故是在自动驾驶模式下,由其他车辆引起的」, 并且事故并没有造成无人车上的司机以及其他车辆的人员的伤害。 谷歌和德尔福之前都有声明过这些事故几乎都由其他车辆造成,其中 谷歌更是决定每月发布关于自己无人驾驶汽车的详细报告 。下面我就来看看谷歌发布的报告细节。 谷歌无人驾驶汽车项目的总体数据 无人驾驶车辆:23 辆雷克萨斯 RX450h SUV(目前主要在加州山景城街道行驶),9 辆原型车(目前主要在封闭测试场里面自动驾驶)行驶里程:自动驾驶模式 1011338 英里,人工模式 796250 英里。平均每周在外部街道上进行 10000 英里自动驾驶。 一些典型的无人驾驶场景: 1. 对于紧急车辆的反应 谷歌无人驾驶汽车能够对于不同行为的卡车、小汽车、摩托车有一个「 理解」,同时做出相应的反应。比如下图例子,谷歌的无人车在红绿灯前停止,当绿灯变亮的时候它监测到了前右方有一辆救护车(图中顶上有两个小点的紫色长方体)正在横行,它就保持停止状态直至救护车通过交叉路口。 2. 对于移动物体的预判 自动驾驶汽车对于预判移动物体的行动轨迹十分擅长,即使是在夜间。下图的例子就是无人车探测到了前方正在移动的两辆自行车,并且对于其接下来的行动轨迹进行预判,做出相应反应。(小的红色长方体是自行车,其中一个带圈的蓝色线就是预判行动轨迹。)谷歌无人车事故汇总 2010 年 5 月:谷歌的一辆普锐斯自动驾驶汽车在人工模式下在山景城的 Central Expressway 的红绿灯前被一另一辆汽车追尾。事故没有造成人员受伤,但是谷歌的这辆车受到一些损伤。 2011 年 8 月:同样是普锐斯,人工模式下在山景城的 Charleston Road 上追尾了另一辆汽车。 2012 年 10 月:普锐斯在自动驾驶模式下在 Amphitheatre Parkway 上被另一辆车追尾。 2012 年 12 月:谷歌的一辆雷克萨斯自动驾驶汽车在人工模式下在 Highway 101S 上被后方车辆以 20-25 英里每小时的速度追尾。 2013 年 3 月:雷克萨斯在 highway 680S 上以 63 英里每小时速度行驶,右方车辆闯入其所在车道与车身碰撞,雷克萨斯上的工作人员立即采取了人工模式接管。 2013 年 10 月:雷克萨斯在 Rengstorff Avenue 上慢速行驶接近一个交叉路口时被追尾。 2014 年 3 月:雷克萨斯在 Highway 101N 在交通不畅的情况下被后车连环追尾。 2014 年 7 月:Phyllis Avenue 上雷克萨斯在人工模式下等待右转到 Grant Avenue 的时候被后车碰撞。 2015 年 2 月:雷克萨斯在 El Camino Real 附近在自动驾驶模式下交叉路口出与另一车在右后轮出碰撞。事故前无人车已经开始探测到情况进行采取刹车行为。 2015 年 4 月:Castro St 附近雷克萨斯在右转时候无人驾驶模式下和其他车辆轻微碰撞。 2015 年 4 月:雷克萨斯在 California Street 自动驾驶驾驶模式行驶,另一辆车从车右边超越剐蹭掉了右边的传感器和反光镜。 2015 年 5 月:雷克萨斯在 Shoreline Boulevard 自动驾驶模式下在红灯前的车辆群中停止,另一辆车从后面撞上后保险杠以及传感器。 从上面的表格可以看出事故次数慢慢在上升,且今年数量相较尤为多。我想这个数据的背后正说明了无人驾驶其实是在进步,因为测试的车的数量越来越多,测试的里程和范围越来越大,这些无人驾驶汽车肯定会遇到这样那样的事故。不过及时披露这些事故信息也很有必要,一方面可以让大众知晓目前的无人驾驶汽车发展中的一些情况,另一方面同时可以也让无人驾驶汽车的发展制度化。 目前谷歌有 … 继续阅读