Uber事故除决策系统 自动驾驶还需攻克哪些难题
据美国新闻网站The Information报道,Uber已经断定其自动驾驶软件在致命车祸中探测到了受害行人,但决策系统没有立刻作出反应。
造成这一决策的可能原因是,Uber为了减少误报,在软件面对遇到障碍物时的谨慎程度进行了调整。由于前方障碍的躲避值调低,使得车辆最终没能在监测到路上的受害者后,迅速做出决策反应。
此番推测似乎交代了事故发生的主因。但值得深究的是,不论是否因调整制动反应灵敏度造成的,显然这样实施的方案还存在诸多问题。
该事件的再次发酵,也让众人对车祸事故原因有了更多猜疑和思考。除了制动反应灵敏度以外,自动驾驶系统还有哪些硬件软件方面的不足?我们对此进行了分析。
1 、传感器配置方案部署不足
依据Uber此前公开的相关信息,该汽车应配备了一整套的传感器系统:
顶部激光雷达,能以每秒多次的速度生成汽车周围的3D成像;前端无线电波雷达,位于汽车前后,可实现360度无死角的探测;短焦和长焦光学相机,对成像进行实时分析。Uber希望能够通过这一套传感器系统做到实时、全范围探测,但还是发生了事故。
这种情况下,造成事故最大的可能就是各传感器自身性能不足以及搭配方案不合理。或者说,因为顶部、前端雷达与摄像头图像处理协作不善,才导致了这场事故的发生。
当然,介于自动驾驶的发展阶段尚早,截止目前还并没有一家公司有“完美的”传感器系统的部署方案。相同问题的也同样存在其他的各大无人车中。
以特斯拉为例,2016年,特斯拉公开了第一起因为使用Autopilot(特斯拉自动驾驶系统)功能致死的交通事故,一时间引发全球舆论热议。据特斯拉方面公布信息显示,该公司生产的一辆S型电动轿车在自动驾驶模式下发生车祸,司机身亡。
有分析认为,此次特斯拉车祸事件主要原因是毫米波雷达测距的误判,以及图像识别系统不够完善等问题造成的。
腾讯优图实验室杰出科学家贾佳亚对此表示:“特斯拉在自动驾驶中应该是以图像识别为主导的,而车的系统还存在一个缺陷。比如说车要识别一个物体的时候,如果前方是一个很大的纯白色的车,那么系统可能不知道它是房子还是车的形象。因为在很多时候由于视觉的局限性导致你不会很快判别出来前面是什么东西。”
贾佳亚说:“这个时候还是需要雷达的。这也是为什么特斯拉AutoPilot 2现在大部分还是以NVIDIA这套系统作为主导的,图像识别作为辅助来帮驾驶员来判断周围的环境。”
当然,即使是很好的雷达,垂直分辨率也有限,所以仅有雷达是不够的。因为雷达分辨率较低,许多雷达会忽略检测的静止物体。而具有更高分辨率的雷达虽然会看到行人,但分辨率通常仅能知道该目标在哪条车道上。
如果按正常性能来看,一旦有人进入 Uber 的车道,那么雷达应该会报告在车道上有一个潜在静止物体的制动信号。因此,不论是Uber还是特斯拉的自动驾驶系统,在传感器部署上面还是欠缺全面的考虑。
2、基于HDR视觉系统的采用问题
自动驾驶车中的视频摄像机与雷达一样重要,都是用来帮助汽车追踪路标、车辆、行人等障碍物的。
摄像头好比人的视觉一样,主要针对路况记录图像,发送给自动驾驶系统的计算机。计算机再通过图像识别技术分析数据,进而判断车辆周围状况。然而,在一些非常黑暗的条件下,视频摄像机就没有办法很好地进行识别工作。
在这样的情况下,基于 HDR (高动态范围图像)的视觉系统便十分重要。如果要在夜间驾驶时实现 “高动态范围”(HDR)视野,意味着需要两个或更多不同曝光等级的摄像头,或者一个摄像头可以不断切换曝光等级,以同时捕捉亮处和暗处的物体。