自动驾驶正处于一个不断「试错」和「纠错」的阶段,消费者在为此买单。
作者 | 肖莹
自动驾驶事故已经屡见不鲜,但令人费解的是,为什么被视为安全防线的AEB功能,在事故发生的关键时刻,往往没能发挥作用、力挽狂澜?
AEB是ADAS的核心功能之一,如果连AEB功能都无法保证,是不是意味着,所谓自动驾驶,还远远没有迈过L2这一关。
即便是宣称已经成熟量产的「高阶辅助驾驶」,也只是在无数限定条件下才能实现的半成品?
01为什么AEB频频罢工?
在今年3月举办的2022百人会论坛上,理想汽车创始人李想提出了一个非常有建设性的话题,他说应该把AEB主动刹车系统做成乘用车的标配,还表示,理想愿意开源自己的AEB算法。
一般来讲,能够做开源的,一定是比较牛的技术,例如谷歌、微软、亚马逊都是开源大户。这番话,体现李想对自家AEB算法的自信。
然而,打脸来的太快,号称要开源AEB的理想,几个月之后就翻了车。7月26日,理想L9宁波试驾车雨天夜间以86km/h的速度撞击金属护栏。
理想L9宁波试驾车事故行车记录仪视频
而在懂车帝AEB主动刹车测试中,拿到过第一名的理想ONE,近期也发生了事故。8月8日,一辆理想ONE在高速路段,以77km/h的速度撞上一辆停在路边的工程车辆,事故发生时,车辆处于NOA开启状态。
这种在消费者眼中看似愚蠢的事故,小鹏也发生过。
今年3月,一位湖南岳阳的小鹏P7车主,在开启辅助驾驶功能的状态下,撞上一辆前方横停的侧翻车辆,事发时车辆时速在80km/h左右。
8月10日,又是小鹏P7,在高架桥行驶过程中,追尾撞上了一辆停靠在路上的故障车,站在前车车尾的人被撞身亡。根据肇事车主的聊天记录,事发时车辆时速在80km/h左右,且开启了LCC功能。
被认为是自动驾驶标杆的特斯拉,涉及的Autopilot自动驾驶事故更是数以百计。
看见这些事故的时候,大家都想不通一个问题,那些被冠以智能电动车之名的产品,为什么连最基本的AEB都翻车?
有趣的是,如果把这个问题抛给汽车工程师,他们很可能会说,AEB本来就不是万全的功能,出事故属于正常现象。
为什么公众认知与专业人士认知有如此大的偏差?AEB在什么情况下会失效?又有哪些提升的空间?
02AEB的技术瓶颈在哪?
吐槽之后,我们就先来解决一下认知问题,什么是AEB?
AEB全称Autonomous Emergency Braking,自动紧急制动,是一种汽车主动安全技术。
AEB系统通过毫米波雷达、摄像头、激光雷达等感知系统测量出车辆与前方障碍物距离,然后利用数据分析模块将测出的距离与警报距离、安全距离进行比较,小于警报距离时就进行警报提示,小于安全距离则会启动制动功能,从而保证车辆安全。
早在2002年、2003年,奔驰、本田、丰田等车企就已经开始尝试落地AEB功能。目前来看,AEB已经成为ADAS功能体系里最基础、最核心的功能之一,被消费者认为是主动安全的一道防线。
而遗憾的是,被认为是安全底线的AEB,并不是在所有情况下都能发挥作用。
AEB的工作机制和智能驾驶的其他功能一样,都要经历感知、决策、执行三个关键步骤。
目前,业内将限制AEB能力提升的第一阻力指向了感知层面。具体来看,系统识别障碍物的丰富度、准确率,以及探测距离,都是影响AEB功能的核心要素。
自动驾驶感知方案示例
提到感知能力,就不得不展开介绍一下,智能驾驶涉及的三种主要传感器:摄像头、毫米波雷达和激光雷达。
不知道从什么时候开始,好像一有智能驾驶车辆发生事故,大家总爱把责任推到毫米波雷达上,其实这是有些片面的。
三种核心传感器各有优缺点。简单来说,摄像头的优势是能够识别出物体的类别、颜色,这应用在交通场景中,就能够比较好地识别出各类交通要素:车辆、行人、交通灯、路牌等,但它的缺点是和人眼一样,在遇到一些光线较暗的场景,或炫光、强光的时候,就容易看不清晰。
毫米波雷达的优势就是不受光线、雨雪的影响,在恶劣环境下也可以较好的工作,但它的问题在于仅能提供平面化的扫描,没有垂直的视场角,也就是说,它只能知道范围内有东西,但不知道是个什么东西。
另外,它还对金属比较敏感,在道路交通环境中,扫描到一些金属物体,就会报警,比较容易引起误报。
因此,在感知方案中,系统往往会把毫米波雷达的置信度降低,而是以摄像头的判断为主。这也比较好理解,车辆行驶时,识别不到危险物体有安全隐患,而误报刹车同样存在安全隐患。
所以,在一些事故发生时,并不一定是毫米波雷达没有检测到物体,也可能是系统没有给予采信。
激光雷达的优势在于看的远、精度高且能够三维成像。它可以得到目标的距离、方位、高度、速度、姿态、形状等参数,从而构建3D环境点云图。
同时还能获取目标表面反射特性、运动速度等丰富的特征信息,为目标探测、识别、跟踪等数据处理提供充分的信息支持、降低算法难度。而它的缺点在于雨雪、尘土等恶劣环境的抗干扰性较差。
所以,除了特斯拉以外,几乎所有车企和自动驾驶公司,走的都是融合感知的技术路线,这正是为了各传感器短板的互相弥补。
那么,感知会如何影响AEB能力?主要体现在两个方面:识别精准度及探测距离。
感知准确度、信息丰富度待提升
在一些事故场景,AEB功能没有启动的原因,要么是传感器没有识别检测出障碍物,要么是没有识别出障碍物是什么,前者的原因在于传感器精密度不够,后者则在于场景采集的丰富度不足。
AI算法的学习和人的学习相似,首先要解决认知的问题,这在算法里对应的就是标定,只有标定过的物体,算法才有可能识别出来,否则就很难进行识别判断。
在最初简单的AEB方案中,系统主要标定的障碍物就是车辆和行人,至于儿童、宠物、雪糕筒,以及一些异形检测物都无法识别。
随着传感器产品的成熟,智能驾驶方案也正在变得越来越复杂,从单V到1R1V配置,再到5R10V,甚至是引入激光雷达的、更复杂的感知方案,例如沙龙机甲龙搭载了33个感知硬件,包括4L5R12V。
传感器硬件的不断叠加,正是为了弥补感知能力的短板,随着更多高精度传感器的上车,相信感知准确度上已经有了很大提升。
因此,对于具有「高阶辅助驾驶」能力的车型来说,在感知精准度上已经问题不大。更大的短板在于,感知场景标定的丰富度和算法训练。简单理解就是,AEB也要解决CornerCase。
例如,理想L9试驾车撞在围栏上,如果在激光雷达开启的情况下,大概率不是没有检测到前方有物体,而应该是算法不知道这是什么东西,该做出什么样的决策。
感知距离限制AEB适用速度
感知能力强弱影响的另外一个方面是响应距离。传感器的感知距离,和系统响应的时间以及制动系统的刹车距离,决定了AEB可以工作的最大速度。
去年3月,国家标准化管理委员会批准发布了《乘用车自动紧急制动系统(AEBS)性能要求及试验方法》,标准号为GB/T 39901-2021。
这份推荐性国标来看,对于静止的物体,要求车辆以30km/h的速度行驶,不发生碰撞即为合格,移动目标则要求车辆在50km/h的速度行驶时,不发生碰撞即为合格。
我们知道,城市普通道路通常限速30-60km/h,高速场景的最低限速是60km/h。如果按照这个要求,AEB似乎只能在城市场景发挥作用,而在高速场景就是完全失效的状态。
事实上,企业的“自我要求”往往会高于国标要求。目前市场上销售的绝大部分车型,都宣称能够做到80km/h以下AEB避撞,与E-NCP、C-NCAP的要求保持了一致。而车企自身,以及各测试标准,均未对80km/h以上AEB做出要求。
上文提到的几起事故,发生事故时,车辆速度正是在80km/h左右的AEB极限值。
也有观点认为,一些事故的发生,表面上看似乎是AEB没有开启,实际上可能是已经开启,但决策、执行时间不足以避免事故的发生。
因此,除了感知因素以外,响应效率和制动能力,也是影响AEB功能实现的关键因素。
城市场景有鬼探头、异形车辆等挑战,高速场景则面临着AEB速度失效边界。那么如此挑剔的AEB,是不是有些鸡肋了?