前两天,一辆开启了 Autopilot 系统的特斯拉在中国也发生了车祸。虽然特斯拉经常把「双手放在方向盘上」挂在嘴边,但也禁不住大家一次又一次作死。
为了弄明白特斯拉 Autopilot 系统到底什么时候会失效,三位中国研究人员开始了对它的「攻击」。
花 20 万美元「欺骗」一辆特斯拉
最近来自浙江大学、南卡莱罗纳大学和 360 公司的三位研究人员发布了一份白皮书,他们宣布通过无线电波、声和光成功「欺骗」了特斯拉的传感器:在某些情况下,即使是前方没有障碍物,特斯拉也会探测到「车」的存在;同样,特斯拉有时也会无法探测到前方障碍物。关于这次实验的细节,他们会在这周的 Defcon 大会上透露。
这次「欺骗」特斯拉的实验,车并没有真正跑起来,他们通过改变车辆外部环境来进行试验。实验需要非常昂贵的测试设备,并且成功概率和可靠性一般。但是据介绍,如果是图谋不轨的黑客,是有可能重造今年 5 月的特斯拉致死案件的。
关于这次试验,徐文渊说:「最糟糕的状况就是当特斯拉处于自动驾驶状态时,雷达被干扰从而无法检测到前方障碍物。」
特斯拉 Autopilot 系统硬件主要包括雷达、超声波传感器和摄像头,他们发现对雷达的攻击最有可能造成高速车祸。实验使用了 Keysight Technologies 公司的两块信号发生器(一块 90000 美元)和一个 VDI 倍频器(大概几百美元),目的是精确地干扰特斯拉的雷达。
他们把一辆手推车放在了特斯拉车前方,这时特斯拉会有前方「有车」的提醒。当实验人员打开干扰源时,声波会从手推车处发射到特斯拉的雷达处。干扰声波会「阻塞」特斯拉的发出声波,于是特斯拉就会判定前方无障碍物,仪表盘上「车」的标志也会消失。
如果是在真正的道路上,完全就可以通过这种方法,让特斯拉「看不到」前方的障碍物。当然,要想真正「攻击」一辆正在高速行驶的特斯拉,你的所发射的干扰电波必须准确无误地对准特斯拉的雷达。另外,攻击方必须花近 20 万采购设备…
在这次实验中,工程师们并没有真正测试高速状态下的攻击。徐文渊说:「这完全是可能的,但得花点时间。」
只要 40 美元的攻击方案
花 20 万美元购买设备成本可能有点大,其实他们还研究出了一种更简单、廉价的攻击方式。这次突破口是特斯拉的超声波传感器(主要用于近距离障碍物探测),破坏的是 Autopilot 的「自动泊车」和「召唤」功能。
这次「欺骗」,他们用的是函数发生器和 Arduino 电脑,成本只需 40 美元。具体过程是先产生特定电压,再把电压信号转换成声波信号。把设备设置好之后,在离车几英尺的地方打开,就能干扰车的自动泊车过程。但后果并不严重,顶多让车停不进车位,或是撞上障碍物。
如果你连 40 美元都没有,好吧,还有一种更便宜的攻击方式:工程师们用隔音泡沫挡住雷达,就能在车前面「隐身」。
(下面这张图虽然不是特斯拉车型,但也说明了隔音泡沫的功用,目测是国内工程师的实验)
被「玩坏」的摄像头
除了从「声波」入手外,他们还想以特斯拉的摄像头为突破口,但是效果并不理想。(Mobileye 松了一口气…)
对摄像头的攻击,他们使用了激光和 LED 灯,想要「晃瞎」摄像头。一阵照射过后,他们发现强光已经导致摄像头传感器出现了坏点,随后特斯拉 Autopilot 系统自动关闭,并提醒驾驶员要接管车辆。这样的结果其实也说明,特斯拉车主不用过分担心太阳光直射或强烈的反光会导致摄像头失效。
对于三位中国研究人员的花样攻击,特斯拉官方也给出了回复:「我们非常欣赏 Wenyuan 团队对 Autopilot 系统传感器的攻击,我们将会和 Wenyuan 的团队共同研究这次攻击,但现在还不足以把这些技术应用到现实中来攻击特斯拉车主。」
关于这次对特斯拉的攻击,行业内的人观点也不太一样。
曾负责研究谷歌无人车激光雷达的 Jonathan Petit 教授说:「这样的做法很有趣,并且很棒。他们的实验需要更进一步,来说明特斯拉是不是会真的撞车。在此之前,我们还不能说特斯拉 Autopilot 系统失效。」
很多业内人士认为,虽然他们对雷达的攻击要求的条件很苛刻,但依然很有可能导致真正的车祸。特斯拉需要做的不仅仅是提高雷达的精度,还要考虑到黑客的攻击。徐文渊说:「特斯拉需要给他们的 Autopilot 加入检测机制,当检测到声波信号很强或是有异常时,雷达系统应该向行车电脑发出警告。」
其实对于「攻击 Autopilot 系统」这件事来说,随着时间和金钱的投入,攻击成本也会逐渐降低,特斯拉要打的补丁还有很多。同时,特斯拉所肩负的「教育用户」的责任也越来越大。
对于用户来说,要对 Autopliot 的工作原理有基本认知,并且对于系统何时、何种状态下有可能失效有所预期和掌控。机器永远不会疲倦,但它的程序是「死」的,只适合特定的一些场景。目前来看,你还是只能把 Autopilot 当做是「辅助驾驶」,不能脱离驾驶员的掌控。
所以再次提醒广大特斯拉车主,千万别再开着 Autopilot 作死了,双手务必放在方向盘上。
原创声明: 本文为 GeekCar 原创作品,欢迎转载。转载时请在文章开头注明作者和「来源自 GeekCar」,并附上原文链接,不得修改原文内容,谢谢合作!
欢迎关注 GeekCar 微信公众号: GeekCar 极客汽车 (微信号:GeekCar)&极市 (微信号:geeket)。
One response to “三位中国工程师,成功「欺骗」了特斯拉 Autopilot 系统”