由奔驰定速巡航事件及Uber自动驾驶事故引发的思考

近几日,“奔驰定速巡航失控事件”和“Uber自动驾驶车辆致死行人事故”在网络上持续发酵。新闻媒体广泛的报道,引发了民众对ADAS和自动驾驶安全性问题爆发式的关注。智行君有幸与大家一起来探讨热点背后引发的安全性思考。
事件回顾
“奔驰定速巡航失控”奔驰C200L车主薛先生在高速上将车辆设置为定速巡航模式,不想,定速巡航模式失控,车辆在高速路上以120km/h的时速狂奔一小时,最后终于在车主多次打开车门并解开安全带后减速停车。

听起来简直是中国版“生死时速”,然而随着新闻的发布和事件的发展,炒作的嫌疑也越来越大。相信大家对事件都会有自己的想法和认知,这里不多作评价。不过,智行君要提醒大家,定速巡航和制动系统同时失控确实是极小概率事件,但也不能完全排除车载网络堵塞等故障,为安全起见大家千万别实车亲测,还是坐等奔驰技术团队对事故车辆的专业检测结果吧。

“Uber自动驾驶车辆致死行人”

美国东部时间3月19日晚间10时许,一辆Uber无人驾驶车辆在亚利桑那州的坦佩市撞到一位女性行人致其死亡。相比“奔驰定速巡航失控“的戏剧性情节,自动驾驶致死事故显得太过沉重。这起严重的交通事故显然给自动驾驶“未来已来“的局面蒙上了一层阴影。

传感器未能采集到行人穿行的信号?

决策系统未能判断行人的意图?

如果是非自动驾驶的车辆,在相同的情境下能否避免事故的发生?

伤痛之后,对问题的分析和解决才能够真正推动科技的发展、产业的跃迁。

业内探讨
奔驰事件后,清华大学汽车安全与节能国家重点实验室教授李亮表示,巡航系统工作时,相当于驾驶员把油门的控制权交给了车载控制系统,这就涉及到汽车行驶安全以及相关责任认定问题。所以,汽车巡航控制系统进入工作模式通常都会设置具有一定安全冗余功能的前置条件以及危险工况下的退出机制;只有满足一系列的前置判断条件之后,车才能进入巡航模式,在逻辑上保证安全。(来源:新华网)针对Uber自驾事故,清华大学汽车工程系特别研究员、长聘副教授、博导李升波评论到,“因为行人事故的原因,Uber在美暂停了无人驾驶的道路测试。L4级的功能安全性仍然是挑战重重,无论是环境感知,还是决策控制,100%的可靠几乎是不可能完成的任务。这一方面是因为现有感知决策算法均不具备自我学习能力,主要由所采集的数据赋予智能,而所需数据量是随精度超非线性增长的,越到极限能力技术越多越困难。另外一方面我们所面临的交通场景又过于复杂多变,尤其北京、上海等城市道路,难以依赖技术人员测试覆盖所有可能的场景。目前无人驾驶生态共享 、Tesla的影子测试等,是行业对这些问题的一些有益尝试,但效果如何仍然有待进一步观察。另外,从这些事故案例看,似乎现阶段主攻L2级,2025年之前L3应该是更靠谱的商业化选择。”(来源:搜狐网)在ADAS和自动驾驶安全性问题被广泛关注的时候,智行君正在法国SIVALab实验室进行自动驾驶仿真测试领域的交流。SIVALab实验室由雷诺集团、CNRS和UTC大学共同创建,致力于车辆智能驾驶、环境感知以及控制与决策研究。实验室采用智能化软件模拟复杂的交通场景,向被测车辆输入虚拟传感器信号,智能驾驶控制系统接收信号后,通过轴耦合测功机等执行机构来实时体现车辆的动态响应(智行君会在后续的文章具体介绍SIVALab核心的VaHIL台架及其技术思路)。

 

实验室负责人Yohan BOUVET教授认为,在智能驾驶车辆进行路试前,必须在实验室内对车辆进行充分的、整车级的测试和验证,尤其是对控制算法和决策系统进行充分验证和优化。

BOUVET教授与智行君分享了实验室的一个研究方向:智能驾驶控制系统的验证中,一个重要环节是验证控制系统能否对传感器失效做出正确判断和合理响应——如果传感器全部有效,智能驾驶系统应正常工作;如果传感器全部失效,智能驾驶系统停止工作;但是如果某个或某些传感器信号异常,控制系统能否识别并且又该怎样决策?

智行君作为自动驾驶领域从业者之一,也反复在思考,当自动驾驶对传感器的依赖被提到绝对的高度之后,控制算法及决策系统的安全性验证是否也得到了同样的重视;在推动智能驾驶产业前行的过程中,企业是否有急于求成以致冒进,采用的方法论和流程是否足够完善和严谨?

媒体及大众对热点的关注,其核心是对科技飞速发展所可能带来的安全问题的担忧。希望国内外几位教授的观点,以及SIVALab实验室的研究工作能为致力于自动驾驶研发的朋友提供一些有益的启发。

智能驾驶系统实验室仿真测试,让上路的车变“聪明“点儿

如果自动驾驶车辆面对这样一辆印着自行车的SUV,它将看到什么?

多传感器融合的情况下,它将一会儿看到SUV一会儿看到自行车。

自动驾驶车辆面对这样的情景会产生什么行为?

这种情况正是智能驾驶领域中所要面对的边缘情况、极端案例。在实际道路测试中,大约在路上跑一个月会遇上一个极端案例,正因如此自动驾驶车辆需要达到100亿英里测试的安全红线。在这100亿英里的测试中,有多少极端案例让自动驾驶束手无策,就有多少潜在的安全风险。
在加州进行自动驾驶测试的公司,每年需要向有关监管部门提供年度问题报告,基于报告统计,2016年加州11路段总测试里程657000英里,自动驾驶系统失效次数为2578次,平均每3小时一次。失效包含软件和硬件的失效以及驾驶员判断的车辆行为异常的情况。
Uber自动驾驶车辆撞击行人致死的事故同样也是面对未知极端情况下而产生的。近来,已有多专家分析并发表意见,认为Uber事故的原因不是因为传感器在黑暗环境下未检测到行人,而是决策系统“决定”不采取任何行动。英特尔子公司Mobileye的CEO在对Uber问题发表观点时称,根据Uber公开的视频,即便在视频质量不好的情况下,撞击发生前1秒钟是可以探测到行人的,而对于自动驾驶车辆,这1秒钟也足以成为安全相应时间。
MOBILEYE分析结果

 

面对极端案例在实际道路测试中的安全风险及难以重复性,如何让决策系统在应对极端案例时的行为更有保障?

智行君带您走进VaHIL仿真测试实验室,在这里可以通过重复性的测试,让系统算法得以修正或让系统得到深度学习。

VaHIL架构
VaHIL仿真测试

VaHIL通过仿真软件可以模拟各类极端案例,模拟传感器信号,将信号传输给自动驾驶控制器,验证决策系统行为和车辆接收决策系统信号后的执行效率。环境仿真部分由AVS(原Oktal)公司的SCANeR Studio仿真软件提供,Rotronics的轴耦合式测功机作为整车执行机构。

自动驾驶汽车开发流程

VaHIL起先应用于雷诺集团、法国CNRS和贡比涅大学联合创建的SIVALab实验室中,其自动驾驶研发过程中,每次算法更新上路测试之前都需要先通过VaHIL台架的测试验证,让上路测试的车能够变聪明点儿。

 

这样的实验室测试正好弥补了子系统测试和实际道路测试之间缺少的环节,为实际道路测试提供更多保障。

系统失灵事件甚至事故,不应该只存在于系统失灵报告中,100亿英里的路试可以得到更多的安全保障。自动驾驶技术的成熟需要我们更多的思考和更多的努力。