009 | 特斯拉撞上了侧翻的大货车,从台湾嘉义事故谈传感器融合
Description
编者按:《郭继舜带你读汽车科技》旨在从第一性原理出发,尝试拨开迷雾,解读热点背后的汽车科技真相。
本栏目由智能驾驶专家郭继舜博士与汽车之心联合出品,内容独家授权汽车之心发布。
最近这段时间,关于特斯拉的新闻很多,我们今天讲其中两个。
第一个新闻发生在今天:2020 年 6 月 1 日,在台湾嘉义,一辆 Model 3 在高速公路上撞上了一辆侧翻的大货车。
我仔细看了下这条视频特斯拉车主估计开启了 Autopilot 功能,早晨 6 点 44 分,可能车主昨晚没睡好,在车上打瞌睡分神了。
车载摄像头和毫米波雷达没有识别出前方的箱式大货车,车头撞进了货箱箱体。
初步估计,这可能是货车白色箱体有比较强烈的阳光反射,影响了这辆 Model 3 的摄像头识别;或是因为视觉算法训练数据的局限性,一般训练的都是识别车辆后部、侧面、车辆头部,工程师可能没想过有一天需要识别货车的箱体顶部。
深度学习模型不能对这个物体分类,也就是说,算法不支持识别货车白色箱体这样的障碍物,造成了此次事故。
可能有人会问,即使摄像头没有识别,车载的 77G 毫米波雷达也应该能识别障碍物。
这与传感器的融合机制有点关系。
一般来说,1R(毫米波雷达)的 AEB (自动紧急制动)系统,只用一个毫米波雷达作为传感器的紧急制动系统,是能够对静态障碍物识别且正常制动的。
但在类似特斯拉这样的 1V1R (1 个摄像头+1 个毫米波雷达)的方案中,也就是一个前项摄像头加一个前项 77G 毫米波雷达的传感器方案。
为了减少 AEB 误触发,往往会用算法滤掉毫米波雷达对静态物体的信号,用摄像头识别多个目标,跟踪目标,同时用毫米波雷达对已识别物体进行检测和跟踪。
所以,因为传感器融合逻辑的问题,在这个案例中,毫米波雷达也没有及时给系统报警。
第二个新闻,是这几天,国内的一些媒体报道了今年 2 月在 Scaled ML 大会上,特斯拉 AI 高级总监 Andrej Karpathy 对外分享的特斯拉训练 AI 的方法,同时也首次对外分享了特斯拉如何借助摄像头就能实现激光雷达的探测精度。
这也让我们看到了 Elon Musk 坚持不使用激光雷达的技术底气。
目前,特斯拉 AI 团队已经掌握了名为「虚拟激光雷达」(pseudo-LiDAR)的新技术,它弥合了传统计算机视觉和激光雷达强大的点云世界之间的界线。
在 Scaled ML 大会上,特斯拉放出了一系列有激光雷达形式的 3D 地图,这些地图看起来就像是激光雷达采集到的信息,但是是用摄像头图像生成的。
Andrej Karpathy 说:「我们走了一条『虚拟激光雷达』的路径,只需简单预测单个像素的深度,找到它们直接的距离,就能得出结论。」
人类有很多得到物体距离(即景深)的方法,除了双眼创造的立体视觉之外,人类还能借助「动态视差」跟踪物体的运动方式,从而得出其他可以参考的线索。
比如人类驾驶员,经过短时间的适应,闭上一只眼睛,也一样能够好好驾驶。
初看这个技术报道,我感觉有些震惊,以为特斯拉又发布了什么黑科技。
但是仔细研究了新闻中提到的「虚拟激光雷达」的技术原理和效果图,也查阅了相关的资料后,我基本可以确认,这就是视觉感知中的经典的「单目视觉深度估计」问题,只不过将数据的展示形式用类似激光雷达点云的方式进行展示。
我的印象中,在 MobilEye EyeQ4 芯片和地平线 J2 芯片的视觉感知方案中已经发布了类似的功能,只是精度上与激光雷达有较大的差距。
在这个新闻中,我们并没有看到特斯拉发布精度的数据,所以也无法评论其算法的先进性与实用性。
借着今天这两个新闻,我给大家讲讲自动驾驶系统对于异构传感器的融合。
由于内容比较多,也比较技术,为了防止信息量过载,我们今天讲后融合,前融合等放在明天讲。
<