我们采访了一家深圳企业,他们打算把日本的自动驾驶技术引入中国

· May 15, 2018 333

5 月 11 号,一家名叫诗航智能的初创企业在深圳召开了发布会,声称自己达成了首个中日 L4 级别自动驾驶的合作落地项目。我们在现场和他们聊了聊具体的落地方法。 据 GeekCar 了解,诗航智能(Navibook)在今年 4 月才刚刚成立。它由一家中国深圳企业和一家日本企业合资组成,分别是深圳金语科技有限公司(Skywood)和日本株式会社 ZMP(ZeroMomentPoint)。这其中中方将控股合资公司,而日方则会占比 40%。这个合资模式与外资车企在国内与自主品牌成立的合资公司类似。 来自日本的「Mobileye」先来介绍一下 ZMP 这家日本企业: 他们于 2001 年在东京成立,起初的定位是机器人研发。例如家用的扫地机器人。 2009 年,ZMP 开始进军自动驾驶领域,他们当年推出了一个只有一般乘用车十分之一大小的无人车,并将其取名 RoboCar,其目的主要是为研究自动驾驶做起步尝试。 2012 年,ZMP 在东京车展上展示了基于丰田普锐斯改装的自动驾驶测试车 RoboCar ® HV。 此后,他们在 2014 年开始于日本的公开道路做自动驾驶车的测驶,目前使用的测试车是基于丰田 Estima 混动版改装的 RoboCar MiniVan。 除了自动驾驶车之外,ZMP 在物流领域也有无人「 板车」 和无人外卖车的产品 Demo:Carrio 和 Carrio Delivery。可以说在应用场景上,ZMP 的涉足非常之广。 像很多的供应商一样,ZMP 还会提供单独的技术模块,其中最重要的是这两个: 1. RoboVision 视觉感知模块:现有产品为 RoboVision 2S,它包括一个双目摄像头和一套视觉感知算法(以及 SDK)。摄像头可提供 30fps、最大分辨率为 1280×960 的画面。其 CMOS 感光元件为索尼的 IMX224,并且为索尼大法亲自调教,有了这个 Buff 加持,其摄像头的成像效果成为了一大优势。 2. IZAC 自动驾驶电脑:这就是现在大热的自动驾驶处理器,可以帮助处理自动驾驶相关的任务例如感知和控制等。但是与现在流行的 GPU、FPGA 以及 ASIC 不一样。IZAC 使用的居然是一台搭载英特尔赛扬 X86 CPU 的消费级一体机(具体型号为 ADVANTECH PCM-9365)。可想而知硬件算力其实并不是 IZAC 的核心,ZMP 主要提供的优势还是与 IZAC 打包配套的软件算法以及开发工具。 可以看出 ZMP 提供的核心技术确实与 Mobileye 相似,都是以视觉感知为核心的软硬件一体方案。并且 ZMP 也是一个学术起家的公司,一直默默的在日本自动驾驶领域深耕了多年。直到去年,ZMP 被日本政府选为 2020 年东京奥运会 L4 无人车项目的合作方之一,这才让这家低调的公司一时在日本名声大噪。 不过 ZMP 与 Mobileye 还有一点很大的不同,而这也正是金语与他们能够合资成立诗航智能的主要原因。 为什么会和中方合资? 同是出身于学术领域的公司,Mobileye 目前已经成为了前装 ADAS 领域的标杆,不仅被 Intel 高价收购,更是拿车厂的前装订单拿到手软。但是反观 ZMP,他们在产业和商业化上却十分不顺,到目前为止竟然没有拿到过什么前装项目,公司主要是依靠投资在运作。因此他们自然希望有人能够帮他们把自己的技术更好的卖出去,这就给了中国公司合作的机会,毕竟我们拥有着全球最大的汽车市场,并且自动驾驶也在中国发展的风生水起。 深圳金语科技有限公司的 CEO 任毅告诉 GeekCar,金语是一家从事汽车电子的企业,产品有后装车机、行车记录仪等。他们自 09 年成立以来就一直专注于面向日本的汽车电子产品的研发,设计,生产和销售。因此他们才有机会与 ZMP 这家日本公司建立了联系和信任,这次与 ZMP 合资成立诗航,就是希望能够将 ZMP 多年积累的自动驾驶技术带到中国市场进行产业化落地。 金语科技 CEO 任毅 熟悉日本汽车产业的人应该知道,他们的汽车供应链相较于欧美和中国来说,更加的封闭,非常看重供应商的资历,以及其与客户之间的供应关系。所以日本的创新性公司一般很少有机会能和中国的企业达成合作。任毅透露,之前也有中国的公司找到 ZMP 合作,但由于日本公司对自动驾驶落地的观念偏保守,因此都没有谈成。金语最后能够达成合资,也是建立在他们对 ZMP 理念的充分了解,以及双方在技术理念的共识之上。 在具体落地的计划方面,诗航智能的 CTO 刘振宇告诉 GeekCar,诗航已经获得了 ZMP 的技术授权。他们的定位为 Tier … 继续阅读

景驰科技获李开复 Pre-A 轮投资

· May 10, 2018 333

文章来源:景驰科技 近日,无人驾驶公司景驰科技正在加速进行 A 轮融资,这将是景驰科技发展史上的一个新的里程碑。在今年的北京车展媒体发布会上,景驰科技也透露了 2018 年的目标与规划。除完成 A 轮融资之外,景驰无人车运营范围将覆盖广州方圆 15~20 公里。同时,加速引进世界顶尖人才,景驰全球员工扩大到 200 人以上规模,景驰中国员工将超过 100 人。 对于已结束的 Pre-A 轮融资,景驰科技 CEO 韩旭在接受采访时表示:「 在景驰的 Pre-A 轮融资中,启明创投、创新工场、英伟达 GPU Ventures、华创资本、将门创投以及昆仲资本等众多资本大咖都给了景驰全力的支持。这些重量级资本的注入,不仅大大加速了景驰 L4 无人驾驶技术的研发,更给景驰科技在中国的全面落地和部署带来了很大的帮助。」 当提及到创新工场的投资时,韩旭表示:「 李开复老师在行业中有着极高的声望和号召力,一直非常支持景驰的发展,在景驰的 Pre-A 轮融资中,创新工场不仅给了景驰在前期资本上的支持,同时提供了全面的投后服务。」 景驰科技目前不仅能够自主研发 L4 级别的无人驾驶技术,还同时具备了独立改装无人驾驶汽车的能力。在成立仅一年的时间里,景驰无人车已迅速在广州,安庆,硅谷三地完成全开放城市道路上的路测,并在广州生物岛展开中国首个无人车常态化运营。截止目前,景驰无人车已达二十多辆,拥有国内无人驾驶创业公司中规模最大的无人车车队;行驶总里程已超过 30000 公里,全程安全行驶 0 故障;累计接待乘客 500 多人,并达到国内最多的无人车室外运营次数;在几乎无 GPS 信号的情况下,成功实现珠江江底的隧道穿越,「 景驰速度「 持续领跑国内无人驾驶行业。2018 年,景驰科技会继续中国和美国等地寻找合作伙伴,快速发展及壮大公司队伍。

百度 Apollo 的数据会如何开放?

· May 08, 2018 333

转眼间,百度的 Apollo 平台已经公布了一年多了。这项声势浩大的自动驾驶开源计划到现在为止已经更新到了 Apollo2.5 版本。 Apollo 平台陆续开放了高精度地图、参考硬件、云计算、视觉感知等众多模块。在最新的 2.5 版本中,Apollo 的方案已经开放了高速公路上的自动驾驶能力,并开始开放车辆控制相关的模块。 对于汽车行业来说,这个迭代速度可以说是非常之快了。 百度 Apollo 的数据开放计划 其实除了迭代速度之外,百度 Apollo 计划还有一个需要重视的举措——开放数据。 自动驾驶的核心在于需要深度的 AI 算法,这又依靠海量大数据和高性能计算。数据分成原始数据、标注数据、逻辑数据和仿真数据四个层次。原始数据由 Lidar、摄象头、雷达、GNSS、IMU、CAN 总线等数据构成。光有原始数据还不够,为了做深度学习养料,要教会机器数据表达的是什么,这就需要标注。进而需要对逻辑的理解和各种模型的刻画。要呈现一个完整的自动驾驶要解决相当多的问题,还需要构建更广泛的场景,重组出无穷的场景,成为仿真数据。   熟悉自动驾驶的人都知道,数据是驱动整个技术优化的核心资源。很多汽车厂商对数据十分珍视,轻易绝不愿意拿出来。 而作为一个开放平台,百度 Apollo 数据作为重要组成部分也开放了出来。在 Apollo1.0 版本发布时,就率先将百度积累多年的数据资源对外开放,包括 2D 红绿灯检测、2D 红绿灯检测及 Road Hackers 等。此后的 Apollo1.5、2.0 及 2.5 版本中,Apollo 的数据开放类型及数据量也都持续扩大。 在今年的 3 月份,百度又公布了一个全新的模块:ApolloScape。你可以把它看作是 Apollo 平台下一个相对独立的「 子品牌」。它的本质是一个公开的数据集,包含自动驾驶数据和仿真技术两个部分。 自动驾驶数据将包括具有高分辨率图像和像素级别标注的 RGB 视频,具有场景级语义分割的密集三维点云、基于双目立体视觉的视频和全景图像。数据集中提供的图像为通过采集系统每米采集一帧的方式采集,分辨率为 3384 x 2710。 百度数据采集车是配备了高分辨率相机和 Riegl 采集系统的中型 SUV。采集场景包括不同城市的不同交通状况的道路行驶数据,平均每张图中移动障碍物的数量从几十到上百不等。(例如,单张图像中多达 162 辆交通工具或 80 名行人)除了采集数据之外,百度还会用自己的视觉感知算法给每一帧画面中的像素做相应的语义分割。当前支持的语义分割种类已经达到了 25 项,包括车辆、行人、自行车、摩托车、道路、交通标识等等。这样的分割有助于开发者可以在这个数据集中直接训练以及验证自己的自动驾驶算法。换言之这套数据集是可以让开发者直接拿来就用的,而不用再做初始的数据解析。 截止到今年 3 月 8 日,百度共发布了包含 74555 帧视频图像序列及对应的逐像素标注和姿态文件。从今年到 2019 年底,百度计划在数据集中陆续加入更改多传感器支持以及更广泛的数据覆盖面。同时,百度还计划在今年年底引入「 众包」 的数据采集模式,用于收集更多的罕见交通场景。 而在仿真技术上,百度也将逐渐开放行驶轨迹制定,驾驶决策模块,以及感知融合和导航等模块。这也是为了能够更方便的让开发者验证和训练自己的算法。 ApolloScape 的定位 可以明显的感受到,百度希望通过 ApolloScape 这个数据集吸引到更多的开发者来参与到 Apollo 计划中。但是为何要建立一个独立的子品牌?这里有什么特殊的定位吗? 在 4 月 24 日 ApolloScape 举办的一场学术峰会中,我找到了答案:来参加会议的分享者全部是来自中、美、德、澳等国内外的自动驾驶/机器视觉研究专家。ApolloScape 正在尝试打通自动驾驶产业界和学术界,搭建自动驾驶产学研结合的交流平台。 在自动驾驶领域一直有两个研究方向:落地应用和前沿学术。 落地应用: 主要指的是汽车厂商和零部件供应商,他们更加关注自动驾驶技术如何在现有产品上落地,以及自动驾驶会对汽车行业的商业模式产生怎样的影响。 前沿学术: 主要指的是一些知名高校、研究机构或者是创新科技公司。他们主要关注的是机器视觉、人工智能等技术在自动驾驶推动下的技术革新。 由于落地应用上直接关系到商业利益,因此一般情况下,汽车厂商对于数据的态度都是比较封闭的。 反倒是以高校为主的前沿学术领域,由于大家的目标都是推动技术创新,且相互之间利益关系相对简单。因此对数据开放的接受度很高。 其实在前沿学术领域,已经出现过几个自动驾驶的开放数据集了,最著名的应该就是由德国卡尔斯鲁厄理工学院和丰田美国技术研究院联合创办 KITTI。很多研究机构都会在 KITTI 数据集内验证、评估自己的视觉算法。甚至还将 KITTI 作为一个评判标准来做算法排名。 百度这次的 ApolloScape 其实与 KITTI 的定位是一致的,只不过将数据的核心采集点设定在了中国。由于中国在政策以及驾驶环境上的特殊性,一般的研究机构(尤其是海外的)要是想要靠自己在中国获得驾驶数据是非常困难的。而百度这次的数据集就是为这些研究机构提供了便利。 Kitti,CityScapes 和 ApolloScape 关于数据实例的对比 据了解,Apollo 开放平台还与加州大学伯克利分校在 CVPR 2018(IEEE 国际计算机视觉与模式识别会议)期间联合举办自动驾驶研讨会(Workshop on Autonomous Driving),基于 ApolloScape 的大规模数据集定义了多项任务挑战。WAD 已正式于国外知名机器学习竞赛平台 Kaggle 上线 Video Segmentation Challenge(视频场景解析挑战赛),比赛中所提供的数据集中将包含大量的分段原始驾驶图像,包含有 20+种场景标注信息。赛事将持续到 6 月 12 日。目前已有来自全球的三十多只队伍正式报名参加。 … 继续阅读

车规级激光雷达的唯一量产者法雷奥,也打算走 MEMS 路线了

· May 07, 2018 333

在本次北京车展,来自法国的 Tier 1 法雷奥也在自己的展台召开了新闻发布会。今年刚刚上任的法雷奥中国区总裁马法龙(François Marion)在发布会上亮相,这位年轻的法国帅哥与同样是刚从沃尔沃跳槽加盟法雷奥的中国区 CTO 顾剑民一起,聊了聊法雷奥的最新技术进展。 法雷奥将汽车领域的前沿技术总结为三个方向:电气化、互联化以及自动化。而他们作为一家 Tier 1,在这三个方向上都有着创新技术。 电气化与互联化 法雷奥在展台上展示了一辆采用低压 48V 设计的纯电动汽车(基于知豆电动车改造)。与奥迪 A8 的 48V 弱混不同,这辆两座小车是完全依靠 48V 低压电驱动的,它是第一辆完全由法雷奥系统(除电池外)驱动的车辆。其最高续航里程为 150 km,最高时速可达 100km/h。它可在任何电动车充电桩充电。 由于低压的限制,这辆小车的性能确实不出众,但是 48V 纯点的核心意义在于便宜:其成本相比于高压电可降低 20%。这主要是因为它不需要配备高压系统出于安全因素而必须安装的部件和系统。配备这项技术的小型汽车售价约为 7,500 欧元。 在我看来这种相对低成本的解决方案非常适合城市中的共享出行场景。 此外针对中国用户十分重视的空气污染问题,法雷奥还发布了一项可根据室外室外的污染程度自动净化车内空气技术,并展示了一辆搭载此技术的奔驰 E 级旅行车——OXY』Zen。其中包括: 高效过滤器,可过滤掉 98%的超细粒子和有毒气体。 高性能离子发生器可用于车舱清洁和除臭; 空气净化器与传感器相连,探测车内外空气质量并通过人机界面实时传递信息。乘客甚至可以在进入汽车前,从智能手机上远程启动空气净化器,提前净化车舱。 香氛扩散器和 AquAIRius® 喷雾器可使后座乘客迅速放松或提神。 自动化 在我看来,自动化或者说自动驾驶才是法雷奥的重头戏。因为他们在这个领域有一个王牌产品:车规级激光雷达。截止到目前,法雷奥是全球唯一一家实现车规级激光雷达量产的企业。他们的车规级激光雷达 Scala 已经在去年搭载于新奥迪 A8 上落地。 这次在北京,法雷奥又公布了几项关于激光雷达的最新进展: everView 传感器清洁系统: 它是首款应用于激光雷达传感器的全自动清洁设备,其中配备了一只可伸缩手臂和几个喷嘴,可自动喷出清洗液并清洗传感器,这相当于给传感器加了一个雨刷,从而帮助它们在各种天气下都能够获得很好的感知效果。这项技术将于 2020 年在一辆德国品牌的车型上落地。(难道又是奥迪?)SCAlA 激光雷达迭代: 今年四月外媒就有消息称法雷奥将会研发 MEMS 固态激光雷达产品。这个消息在北京车展上有了实锤——法雷奥公布了 SCALA 的迭代计划。目前已经上市的第一代 SCALA 是一款 4 线的机械激光雷达。到 2019 年,第二代 SCALA 将会 SOP,它任然会采用机械旋转的方式,但会比第一代拥有更高的视野。同时,法雷奥确认了第三代 SCALA 将会是固态激光雷达,且采用 MEMS 方案。目前第三代 SCALA 还只是前期开发阶段,具体的 SOP 时间预计要等到 2020 年之后。 作为业内唯一车规级激光雷达的量产者,法雷奥将采用 MEMS 的方案绝对是激光雷达行业内的大新闻。这对很多同样采用 MEMS 方案的厂商来说,无疑是一种肯定。不过,即便是法雷奥,也没办法给出一个 MEMS 固态激光雷达的具体量产时间。 在发布会之后的专访期间,法雷奥中国的 CTO 顾剑民告诉 GeekCar:「 对于车用激光雷达来说,做一个样品相对容易,但开发一款量产的车规级激光雷达,需要很长时间。因为我们要做很多耐久试验、高低温试验。除了这些试验之外,很多时候,比如我们举个例子,我们 SCALA 一代最后的装车是跟奥迪 A8 一起,激光雷达和整车厂合作开发的时间也是要算在里面的,所以如果把这些步骤都放在一起的话,做一款量产的车规级的激光雷达,时间会比较长。换句话说,做个样品放在那儿比较容易。但是 SOP 就比较难,搭载量产的车比较难,时间比较长。」 而关于激光雷达的成本问题,他也给出了解答:「 成本的确是我们要考虑的一个因素,这也是为什么我们以及其他一些竞争对手在研发新的激光雷达技术的原因。同时我们也看到,很多时候,成本也可以通过另外的形式来解决。我举个例子,你不一定要走 128 线,或 64 线,你可能走稍微低规格一点的激光雷达,成本降很多,但你可以布置多个激光雷达,类似像传感器融合的技术,这也是一种方案。你不一定非要盯着 128 线或 64 线的,把成本一定要降到跟 16 线 4 线的激光雷达一样,短期内这是不大可行的。所以有多种方案可以把激光雷达的成本降下来。最后当你量产以后,你的规模效应肯定会带来单车成本的降低。」 作为一个汽车零部件供应商,可以感觉得到法雷奥对于激光雷达的理解是非常务实的:一切方案的研发和迭代都要以车规级与客户量产的 SOP 为基础。 2017 年,法雷奥在华的主机厂配套销售额占集团总额的 16%,相较 2016 年增长了 17%,超出市场平均水平 15 个百分点。此外,中国市场为集团贡献了 27%的订单量。法雷奥在华销售的 31%和订单总量的 38%来自中国本土汽车制造商。马法龙在专访时透露,SCALA 一代的激光雷达也会对中国客户正式推出。这个明星产品估计会进一步带动法雷奥在中国市场的销售额。 总之,现在的激光雷达行业虽然群雄逐鹿,但是能真正在量产车上落地的还真就只有法雷奥一家。希望在更多 Tier 1 和创业公司的努力下,激光雷达这个终极传感器能够更早进入到我们的出行生活中。 原创声明: … 继续阅读

首次参加车展的禾多科技,把重点放在了共享出行

· Apr 28, 2018 333

创立于去年 6 月的自动驾驶公司禾多科技,今年首次参加了北京车展。他们联合激光雷达提供商 Velodyne LiDAR 在北京车展现场召开发布会,并将主题定在了「 共享出行」上。 自动驾驶与共享出行 在发布会上,禾多科技创始人兼 CEO 倪凯博士,EVCARD 总经理曹光宇博士,以及意柯那集团副总裁、大中华区销售与市场总监薛楠先生一起讨论了自动驾驶对共享出行的影响。他们分别从共享出行平台、自动驾驶技术提供者和汽车设计的角度分享了对自动驾驶和未来出行的观点。 在讨论中,倪凯博士详细描述了如何利用自动驾驶解决共享出行的痛点:「 比如停取车、最后一公里和夜间调度等场景,有助于降低人力成本,提升运营效率。」 停取车: 自动驾驶技术应用于停车和取车时,车辆可以自动完成寻找空余车位、自动选择路线、停车入库等行为,取车时亦是如此,将大幅减少停取车所耗费的时间。倪凯博士表示:「 代客泊车,有可能是自动驾驶在共享出行领域最先商业化的场景之一。」 最后一公里: 随着代客泊车技术的升级,用户可以在停车场附近上下车。拥有该技术的车辆,能不用进入地库就自动寻找周边车位并完成还车、取车行为,大大提升最后一公里的出行效率。 夜间调度: 共享汽车的区域投放需求伴随着用户群体行为也会有潮汐般的特性——上班高峰时用车需求集中在住宅区域,下班高峰时需求集中则在办公商业区。和共享单车不同的是,汽车的调度无法人为批量进行,需要耗费大量的人力和物力。在夜间波谷时段,车辆通过自动驾驶技术可实现停车网点之间的自动调度,完成空间上的高效迁移。 去年禾多公布了其 L3.5 自动驾驶技术路线,即依靠最先进的人工智能算法,针对不同的场景研发自动驾驶量产解决方案,既可实现无人驾驶(L4),也可保留人的接管权(L3)。而今年倪凯博士透露的方向则更加偏重于特定应用场景中的完全无人驾驶。 与 ICONA 合作的概念车 在北京车展禾多科技的展台上,停着一辆很具未来感的概念车,名叫 Icona Nucleus。它由意大利知名汽车设计公司意柯那(Icona)设计,车内部署的 L5 级别自动驾驶解决方案由禾多科技提供,之前在日内瓦车展上第一次展出,此次也是该车首次在国内亮相。它将前瞻性的设计理念,与人们在无人驾驶时代的实际需求相结合,表达出对未来出行的思考。 意柯那(Icona)副总裁薛楠先生认为:「 未来的出行生活将与现在大为不同:主角是在各个生活场景中以新的商业模式运行的共享无人驾驶汽车。在 Icona Nucleus 概念车内,驾驶席的消失不仅意味着车内不再需要方向盘和仪表盘,当人们出行时的重点从道路变为目的地,就意味着我们可以重新定义全新的移动生活空间。」 在更远的未来,自动驾驶技术与共享出行的发展将打造出更加安全、高效、便捷的交通生态系统。当自动驾驶技术达到 L4 甚至 L5 级别,人们不再需要买车,出门随时能约到无人驾驶的车辆,共享出行将彻底改变人类的生活方式。自动驾驶技术与共享出行的结合显然会带来深刻的产业变革。而这种变革,正是禾多科技积极探索和热情拥抱的。 此次禾多科技将重点放在共享出行,或许意味着他们今年在技术落地上又将有新的方向。  原创声明: 本文为 GeekCar 原创作品,欢迎转载。转载时请在文章开头注明作者和「来源自 GeekCar」,并附上原文链接,不得修改原文内容,谢谢合作! 欢迎关注 GeekCar 微信公众号: GeekCar 极客汽车(微信号:GeekCar)& 极市(微信号:geeket)。

面对芯片危机,自动驾驶处理器会是我们的未来吗?

· Apr 23, 2018 333

最近,中美贸易战以及美国对中兴的芯片制裁闹得沸沸扬扬。朋友圈中充斥着对中国半导体技术创新的焦虑与危机感。在自动驾驶领域,处理器芯片也是至关重要,那么在这里我们的处境又如何? 要讨论这个问题,得先明确自动驾驶处理器同时所具备的两个属性:汽车电子以及自动驾驶。 汽车电子: 自动驾驶处理器最终是要应用在量产车上的,因此它首先就要符合汽车电子的要求,也就是「 车规级」。 在半导体行业,具备规模化出货的芯片中,汽车级芯片的技术难度是最高的,其在可靠性,安全性及功耗等方面都有着严格的要求。有多严格?举几个例子: 工作温度:手机一般要求 0℃-70℃即可,而汽车级芯片要扩展到-40℃-125℃。 工作寿命:手机一般要求 3 年的工作寿命,而汽车级芯片需要可靠地工作 10 年以上。 应力测试:手机芯片直接没有要求,而汽车级芯片有一套非常完善的测试标准,用于满足对于振动、冲击的测试要求。 此外,要想成为合格的汽车级芯片供应商,还要符合供应链品质管理标准:ISO/TS 16949 规范,以达到零失效 (Zero Defect) 的目标。在供货周期方面要至少满足十年的供货期,甚至要达到 15 年,这对于公司的长期运营能力、管理水平的要求,是消费级芯片供应商不可同日而语的。 自动驾驶: 还是从最根本的「 安全」 说起。对于自动驾驶系统来说,任何故障或者失效都是不可接受的,为了确保在功能上的可靠性,自动驾驶系统需要在各个方面都有可靠的冗余备份系统,在主系统失灵的情况下,能够被监管系统发现,并由备份系统接手控制。 目前业界广泛遵从的安全等级规范是 ASIL(汽车安全完整性等级),它分为四级,从最低的 A 级到最高的 D 级。这是一个系统级的概念,通常,如果一个系统涉及到控制,比如刹车系统、转向助力系统等,那么它需要达到最高的 ASIL-D 等级,对应的芯片则需要达到 B 或者 C 级。 而在功能上,自动驾驶处理器有两个主要任务:视觉感知和驾驶决策。 目前的行业中,自动驾驶处理器的算力主要还是用于感知,其本质还是「 视觉感知芯片」。承担的任务主要为对多种传感器传回的数据进行融合,再加以分析标注。这已经意味着其要处理高清摄像头以及激光雷达等传感器所产生的庞大数据量。 如果未来想要实现 L4 以上级别的自动驾驶,则需要自动驾驶处理器在完成感知之后,进一步针对不同的复杂交通场景做出驾驶决策。目前的绝大部分自动驾驶车只能说是在严格遵守交规的原则下实现「 蔽障」,根本无法实现与人类相近的驾驶决策。因为人类的驾驶决策更多的是依靠与交通场景中的其它参与者进行「 博弈」 后才做出的。在城市复杂路况中「 博弈」 的对象可能有数十个之多,包括行人,车辆,自行车,外卖车等等,且这些对象不一定会按照标准的交通规则进行行动。 这样的需求意味着自动驾驶处理器需要非常可观的算力,同时还要配合高效的 AI 算法才能够实现相对可以接受的效果。NVIDIA 最新推出的 Pegasus,算力已经达到了 320 TOPS。 我们将汽车电子和自动驾驶这两个属性合在一起,就可以发现,做自动驾驶处理器的难度非常之高:它需要符合高算力、高稳定性、高安全性、低功耗等相互之间很难平衡的特性。 目前行业内的玩家 高难度就意味着高门槛。目前,业内知名的自动驾驶处理器供应商无外乎两家:Mobileye 和 NVIDIA。 Mobileye: 其硬件产品为基于 ASIC 架构的 EyeQ 芯片,并配合有自己定制化的视觉感知算法。作为最早深耕于 ADAS 行业的企业,Mobileye 一直被视为自动驾驶业内的行业标杆。 得益于长期的积累,Mobileye 的算法已经实现了很高的鲁棒性。并且其 ASIC 架构是针对该算法应用进行深度优化的,这使得其整体解决方案功耗低,更符合车规级要求。所以目前大部分前装领域的高级驾驶辅助系统中都使用了 Mobileye 的方案。 不过,Mobileye 也有槽点:其技术体系非常的封闭。厂商只能整套购买其解决方案,且数据和技术细节也不开放。虽然在被 Intel 收购后,Mobileye 也对外宣布会在未来产品迭代的过程中逐步开放其技术体系。但是从目前的情况来看,大部分厂商对于其封闭的体系和称霸前装的地位还是一种「 有苦说不出」 的状态。 NVIDIA: 其硬件产品主要基于通用 GPU 架构,目前公布的最新产品为 Xavier。作为自动驾驶处理器领域的「 后起之秀」,NVIDIA 的发展得益于其通用 GPU 架构在人工智能领域的广泛应用。 身为 AI 教主,老黄将人工智能变成了 NVIDIA 的标签和「 摇钱树」。除了芯片之外,NVIDIA 还重点布局 AI 相关的算法、云服务数据中心、模拟器等领域。其目的就是为了能够围绕自己的 GPU 硬件打造一个完整的 AI 应用开发平台,让尽可能多的 AI 开发者都使用这个平台。 因此 NVIDIA 的平台十分开放,为开发者尽可能完善的配套各种开发工具和技术支持。作为 AI 领域的重要应用,自动驾驶也不例外,NVIDIA 的 Drive 平台已经吸引了数百个合作伙伴,包括车企供应商和创业公司等等。 但是 NVIDIA 的 GPU 毕竟是一种通用的计算芯片,并不是专门为自动驾驶而设计。纵使老黄花费再多的研发资源投入到 GPU 的平台迭代中,他们还是很难攻克 GPU 架构的通病:高功耗。这就使得目前 NVIDIA 的解决方案大部分都是使用在自动驾驶测试车上,连最早将他们应用在前装的特斯拉也在去年公布要自主研发芯片。 Mobileye 精于前装,重点做量产应用的解决方案,技术体系相对封闭。NVIDIA 统治了自动驾驶测试车,重点搭建自动驾驶研发平台,技术体系相对开放。双方虽然各有各的优缺点,但其核心技术策略却是一致的:都是硬件与软件结合着来做。 正如我们之前提到的,自动驾驶处理器需要在硬件算力和软件效率上都有着出色表现,并且二者还要相互配合到位。 我们的机会在哪里? Mobileye 来自以色列,NVIDIA 来自美国硅谷,都不是中国的公司。而在传统汽车电子领域,市场也基本上被外国公司例如 NXP、瑞萨等所占据,中国公司鲜有建树。 但是由于自动驾驶应用中,硬件+软件的需求特殊性,我们其实还是有出头机会的。原因有这么几个: 政策上,自动驾驶是关系到国家安全和民生的重要技术,国家一定会希望能够有中国的本土公司掌握其中的核心技术。 行业上,目前汽车的供应链已经愈加趋近于扁平,原来高高在上的车企与 Tier 1 也在自动驾驶方面变得愈加开放。他们也希望能够看到更多来自外部企业的底层技术创新。相对而言,新兴公司也就有更多的机会能和汽车巨头去学习车规级硬件相关的知识和应用。 技术上,中国的人口红利使得我们有着庞大的数据潜力,再加上我们互联网行业产生的计算机人才储备,让中国在 AI … 继续阅读

NVIDIA 为什么要暂停自动驾驶车的测试?

· Apr 03, 2018 333

自上个月 Uber 自动驾驶车事故发生之后,行业内已经产生了一系列的连带效应。在继丰田之后,上周 NVIDIA 也在举行硅谷 GTC 峰会期间对外透露他们已经暂停了 NVIDIA DRIVE 自动驾驶系统的路面测试。 在今年 CES 上,NVIDIA 公布了与 Uber 合作无人驾驶出租车的计划。顺理成章的,大家也会将这次 NVIDIA 暂停自动驾驶系统路测的决定与这个合作联系在一起。不过在我看来,NVIDIA 这么做有着更深层次的原因。 Uber 的事故与 NVIDIA 有何联系? 先说实锤:肇事的 Uber 无人车确实使用了 NVIDIA 的 GPU。不过,看过我们之前解读文章的同学都应该知道,NVIDIA 的自动驾驶平台涵盖了从计算硬件到软件到开发者 SDK 等众多模块,Uber 到底用了哪些? 在上周 GTC 的媒体专访中,老黄透露:Uber 的自动驾驶车从 2016 年上线开始就一直都在使用 NVIDIA 的 GPU SOC 作为运算硬件,但是在软件上则是一直在使用 Uber 自己研发的算法,甚至都没有使用 NVIDIA 的 SDK。 之前我们解读 Uber 事故视频的文章中就有分析过:此次事故的产生原因很有可能是来自于算法的判断错误,而并不是来自于硬件故障。因为如果是硬件出现故障,那么当时车辆的系统应该会报警让驾驶员接管,甚至停车,而不是以 60 多公里的时速继续行驶。 所以,从目前公布的信息来看,将 Uber 自动驾驶事故的锅直接甩给 NVIDIA 肯定是不合理的。那么问题就来了,为什么 NVIDIA 要在这时暂停他们的自动驾驶路试? NVIDIA 暂停自动驾驶路试的真正原因 首先,我们从技术的角度看。作为一家供应商,NVIDIA 自己改装自动驾驶测试车进行路试的主要目的是为了向客户展示自己平台的能力。而不是像 Uber 那样是为了收集更多的数据。因此相较于其它车厂或者是出行服务商来说,路试对 NVIDIA 来说并没有那么的重要。 而从行业的运作模式上来看,NVIDIA 这个决定就有一个更深层次的意味,那就是:表明态度。 在去年的 3 月份,我曾经在柏林的博世物联网大会(Bosch Connected World)上采访过老黄,当时他对自动驾驶的落地的看法还是很激进的:认为在 2019 年就能实现 L4,并且行业也不应该过分依赖激光雷达作为核心传感器。彼时的老黄,在汽车这个垂直行业才刚刚起势。 而在与车厂、零部件供应商打了 1 年的交道后,CES 2018 上的老黄,已经有了明显的变化。他不再去强调自己对自动驾驶落地时间的理解,反而是着重去讲 NVIDIA 解决方案在安全领域尤其是车规级落地上面的最新进展。 老黄已经理解:与科技公司不同,真正能打动这些汽车厂商的,是解决方案的安全与稳定性,因为这是他们做自动驾驶的根本。想要去赚汽车厂商的钱,就得按照他们的规则办事。 老黄是芯片大牛,是 AI 教主,但他更是一个精明的商人。车企这样的大客户,NVIDIA 是一定要去拿的。 此次 Uber 的事故,其核心问题很可能就出在 Uber 的技术路线过于激进。这也恰恰证明,车企之前相对的保守的策略不无道理。 接下去的很长一段时间内,自动驾驶的「 安全」 问题又会成为整个汽车行业和舆论关心甚至是质疑的焦点。在这个时候选择暂停路测,其实是老黄给自己的众多汽车客户们吃了颗定心丸:表明了 NVIDIA 足够重视自动驾驶安全的态度。 「 安全」 已经变成 NVIDIA 的主要产品策略 今年 GTC,老黄发布的汽车相关消息并不多。其中最重要的就是 DRIVE Constellation 这个模拟平台。 你可以把它看作是 CES 上发布的 AutoSIM 的补全版,AutoSIM 是在 DRIVE Constellation 平台上运转的模拟器软件,它能够通过硬件在环和软件在环两种形式对自动驾驶的算法进行模拟测试及验证。 这其实就像是给一台自动驾驶车带上 VR 眼睛,让其在完全虚拟环境中进行驾驶。这套与数据中心结合的技术一旦落地(DRIVE Constellation 将在今年第三季度交货),也可以大大减少自动驾驶车在算法不成熟的情况下到实体道路上测试的必要性,从而进一步保证实际道路的交通安全。 从起初不断在汽车行业推广 GPU 和 AI 的能力,到现在强调安全并将业务向软件不断拓宽。老黄和 NVIDIA 的改变说明自动驾驶行业正在从起步阶段的爆发期,到现在的成熟发展期。 车企越来越务实,同时竞争对手也在越来越成熟。在这样的大环境下,安全和「 软硬结合」 的产品策略或许就是老黄的新突破点。 原创声明: … 继续阅读

Uber 无人车事故视频告诉了我们什么?

· Mar 22, 2018 333

就在今天一大早,Uber 无人车撞人致死的事故有了最新的进展。警方公布了来自肇事车辆的行车记录视频,其中包括事故发生时,车辆正前方和车内驾驶员的状态。 通过这个视频,我们可以大概复盘一下事故发生时的一些情景: 行人在横穿马路时恰恰处在路灯没有照亮的黑暗盲区。当 XC90 的车灯照到推自行车的行人时,碰撞已经近在咫尺,单靠人眼及时做出反应会有很大难度。 碰撞发生时,行人已经横穿过了马路的一大半。也就是说当行人刚刚开始做出要横穿马路的举动时,车辆距离行人应该还有一段距离。根据当时 38 MPH 的车速和行人的移动速度估算,在她刚开始横穿马路时,车辆距离她应该还有 65-85 米左右的距离。 XC90 内的驾驶员在事故发生前,视线并没有一直关注前方路面,而是一直在看其视线的右下角。当他在碰撞发生前最后一秒抬眼看到行人时,碰撞已经发生,为时已晚。 可以肯定的是,驾驶员在事故发生前是没有接管驾驶权的,也应该没有人工采取紧急制动措施。那么事情的关键就在于为何 Uber 的自动驾驶系统没能够及时识别到行人? 首先,来看一下这辆车的传感器布局。这个改装过的 XC90 插电混动测试车在车顶一共搭载了 7 个摄像头形成 360 度环视(其中包括 3 个前置摄像头)以及 1 个 Velodyne 64 线激光雷达,此外,在车身四周还有 360 度覆盖的毫米波雷达。 通过事故视频记录反映出来的情况,由于当时行人处在灯光盲区,因此单靠前置摄像头所捕捉到的画面是有可能出现没有及时识别行人的情况的。 朋友圈内有人将警方公布的视频记录上传进了 COCO 和 Kitti 视觉算法平台进行了再识别,其结果也是在碰撞发生前的最后时间才对行人进行了标注。 这里需要注意的是,警方公布的应该是车内行车记录仪所拍摄的影像,而并不是前置摄像头所拍到的原画。真实的前置摄像头应该会有更高的分辨率。 通过我们向行业内的众多技术从业者求证的结果来看,在当时的情况中,不带红外识别的摄像头以及现在市面量产的毫米波雷达都很难能够及时识别到行人。但是车顶的 64 线激光雷达在正常情况下应该是能够识别到的。因此这个激光雷达也成了大家讨论的核心。 事故车上所搭载的激光雷达应该是来自 Velodyne 的 HDL-64E。根据 Velodyne 的官网介绍,它可以提供 120m 的探测距离、360 度环视、以及 26.8 度(向上 2 度,向下 24.8 度)垂直的探测视野。 知道了这些数据,我们就能够大概分析一下自动驾驶系统没能够及时制动的原因: 激光雷达没能够探测到行人 这种原因又分两种可能性,第一种是激光雷达出现了故障,在事故发生前没能成功探测周围的环境。按照 Velodyne 产品的市场占有率和安全级别,这种情况的可能性较小,且即使发生了这种情况,系统也应该会检测到激光雷达的故障,提前预警让驾驶员接管。 另一种可能性是激光雷达工作正常,但是行人在过马路时恰巧出现在了激光雷达的探测盲区。 根据目前可以知道的数据,我们简略的画了一张当时激光雷达的探测视野图,按照激光雷达在车顶的大概安装位置估算,其完整覆盖路面的最佳探测视野距车头的水平距离为 2 米左右。 按照我们开始的复盘中提到的,行人在开始横穿马路时距离车辆应该在 65-85 米左右,基本可以肯定是在激光雷达的有效探测范围之内,应该不会出现激光雷达工作正常,但是没有探测到行人横穿马路的情况。   激光雷达探测到了行人但是算法没有做出准确的决策 相较于硬件,软件算法才是更加有可能出现问题的环节。目前无人车的决策都是建立在多种传感器融合的分析基础之上——激光雷达所探测的 3d 画面需要和摄像头拍摄的画面以及毫米波雷达的结过融合在一起,然后再据此做出决策。 在这个过程中就有可能出现激光雷达探测到了行人,而摄像头及毫米波雷达没有探测到的情况,那么此时算法在做融合时会做出怎样的判断? 由于以激光雷达为核心的决策方式所产生的驾驶风格过于保守且产生数据量庞大,因此目前业内很多公司的自动驾驶算法都倾向于以摄像头为核心传感器对前方路况进行融合和决策。这就有可能导致在事故发生时算法「 忽略」 掉了激光雷达的探测结果。甚至说 Uber 的算法有可能并没有将激光雷达用于行人识别。 当 2016 年底 Uber 的 XC90 无人车刚刚上路时,他们的技术人员告诉美国记者说:这辆车所搭载的传感器是超过人类感知能力的(Superhuman preception power)。但当记者提问如果系统或者传感器出现故障,uber 如何保证安全时,Uber 技术人员给出的答复是:车上的驾驶员会在出现问题时进行接管。 现在再看这个答复时,难免会让人感到唏嘘:一套装备超过人类感知能力的自动驾驶系统要依靠一个人类驾驶员提供最终的冗余…… 有人甚至猜测,事故车内的司机一直在向右下看的正是车内显示的传感器融合之后传回的画面,如果真的如此,那么可以肯定的是激光雷达的探测结果在融合时被「 忽视」 了。 实际上,这次事故所出现的场景恰恰是很多用户希望自动驾驶系统能够帮助他们解决的情况:人类肉眼无法及时洞察,但是机器传感器却能看到的紧急路况。因此悲剧发生后,很多人都会对自动驾驶的应用产生质疑。 人们对于自动驾驶有着很高的期待,舆论也对其前景做了很多宣传,但是当它真正开始走进我们的生活时,我们就会发现要做的还有很多很多:社会需要一个对自动驾驶车辆相关事故的定责标准,企业需要对冗余和安全投入更多的重视,公众需要对自动驾驶技术的基础原理有更多的了解…… 在自动驾驶面前,我们已不再是吃瓜群众。恰恰相反,我们在与它一起前进。真心希望,在前进的道路上,不要总是有这种悲剧发生。 原创声明: 本文为 GeekCar 原创作品,欢迎转载。转载时请在文章开头注明作者和「来源自 GeekCar」,并附上原文链接,不得修改原文内容,谢谢合作! 欢迎关注 GeekCar 微信公众号:  GeekCar 极客汽车  (微信号:GeekCar)& 极市  (微信号:geeket)。  

从发布 ProAI 到换帅,采埃孚在规划什么?

· Feb 28, 2018 333

今年的 CES 上,采埃孚正式发布了他们的量产版 ProAI 产品线。在我看来这可能是本届 CES 上最重要的一款自动驾驶产品,因为他是 Tier 1 供应商拿出的第一款真正意义上可量产的车载自动驾驶计算电脑。本文将围绕 ProAI 产品线,在解读其产品特性的同时,我们也将进一步解析采埃孚所规划的布局。 ProAI 是怎样的一种存在? 采埃孚官方将 ProAI 称之为「 控制器」,这个名称让我们联想到了奥迪新 A8 所搭载的 zFAS 「 多域控制器」。两款产品虽然都是提供自动驾驶相关功能的核心计算与控制,但是在架构上却有所不同。 zFAS 一共整合了 4 种来自不同品牌的计算单元,其中包括 Mobileye EyeQ 3(负责前置摄像头处理),英伟达 K1(负责四周环视摄像头以及车内驾驶员状态检测),英特尔 Altera Cyclone V(负责多传感器融合,如激光雷达)以及英飞凌的 Aurix TC297T(负责整个系统状态检测及冗余)。 而 ProAI 则主要以 NVIDIA 的 Drive PX 平台为定制核心,如同我们 CES 报道时所说,ProAI 这次公布了三代的产品规划:   第一代 ProAI: 这代产品已经可以量产,其基于 NVIDIA DRIVE PX 2 AUTOCRUISE 平台,可提供 L2 级别自动驾驶能力。 按照之前 NVIDIA 的介绍,AUTOCRUISE 是 Drive PX 2 平台中最小的一款产品。其使用了一个 Tegra Parker SoC。这块 SoC 基于 16nm 工艺制造,搭载 6 个 ARM CPU 核心以及一个 Pascal 架构 GPU 核心,能够提供 1.5 TOPS 左右算力,功耗为 10w。 第二代 ProAI: 此代将实现 L3 级别自动驾驶功能。其基于 NVIDIA 最新的 XAVIER SoC。这块芯片由 12nm 工艺制造,搭载了 8 个 ARM 64 CPU 核心及一个 Volta 架构 GPU 核心,提供 30 TOPS 算力,功耗为 30w。目前 XAVIER 芯片还处在样品试制阶段,距正式量产还需要时间。   第三代 ProAI: 这代可以看作是二代 ProAI 的叠加版,其可以搭载多个 XAVIER SoC。从而提供 L4 至 L5 级别的自动驾驶功能。 在采埃孚的 CES 展台上,我们看到了 ProAI 的展示样品。下面的图片中就是第三代 ProAI: 这块样品当中集成了 … 继续阅读