辅助驾驶又双叒叕出事了。
昨天,名为「美一好」的公众号发布讣告称:
上善若水投资管理公司创始人、意统天下餐饮管理公司创始人、美一好品牌管理公司创始人林文钦(昵称“萌剑客”),驾驶蔚来 ES8 汽车启用自动驾驶功能(NOP 领航状态)后,在沈海高速涵江段发生交通事故,不幸逝世,终 31 岁。
半个月前,蔚来似乎也陷入了道路安全事故疑云。一时间,蔚来被推上风口浪尖。
有人语重心长喊话蔚来汽车:“宣传的时候照着上限吹,出事的时候按照下限来。”
有人现身说法:“只有写代码的人才知道自动驾驶水有多深。”
还有人二话不说,直接搞了个总结:“总的来说,自动驾驶就是不靠谱。”
先不讨论这次事故谁对谁错,但从技术的角度出发,有必要站出来说句公道话:
辅助驾驶(本次事件中的蔚来 NOP 功能)的锅,真的别让自动驾驶来背。
毕竟,老百姓对于某项技术的正确认知非常重要,尤其是这项技术不仅关乎生命安全,甚至还能够直接影响相关政策的制定,直接决定相关行业的未来走向。
辅助驾驶≠自动驾驶/无人驾驶
- 辅助驾驶
常见的辅助驾驶功能包括自适应巡航、前碰撞预警、自动紧急刹车、车道保持辅助、换道辅助等。
尽管这些功能看似纷繁复杂,但重点在于「辅助」二字,在一定程度上分担驾驶压力,其核心并非旨在控制汽车。
在传感器配置方面,眼下的辅助驾驶只使用了相机视觉的数据,并不能完全精确感知周围的环境,相机在遇到强光的环境上 容易出现误检,仍需要驾驶员对车辆进行控制。
也就是说,辅助驾驶的场景下,驾驶员仍然是驾驶的主体。相信在购置配有辅助驾驶功能的车辆时,工作人员也会一再叮嘱不可掉以轻心,时刻保持专注,手握方向盘。
包括蔚来的 NOP、特斯拉的 NOA、小鹏汽车的 NGP 都远远没有达到完全自动驾驶的效果。
比如,在小鹏汽车此前启动的「小鹏 NGP3000 公里远征挑战」中,雷锋网(公众号:雷锋网)受邀参与泉州至温州路段的试乘,路线全长 570km,其中 NGP 功能开启路段超 400km。
在长达一天的驾驶体验中,人工也主动接管了两次:一次是过环形匝道,因为下雨,下匝道时受前方车辆溅起大量水汽退出一次;另一次也是左侧修路,无序堆放了很多防撞桶。
对此,小鹏汽车明确表示:
NGP 高速自主导航驾驶功能依然属于辅助驾驶范畴,我们希望通过该功能的实现,能帮助驾驶员更轻松更安全的完成旅途,绝非替代驾驶员。
看到这里,就有小伙伴会问了,辅助驾驶系统为何总是折戟防撞桶,识别到了绕路行驶不就万事大吉了吗?
某业内工程师向雷锋网解释道,辅助驾驶系统通常感知精度和准确度不够。另外,规划算法能力不足,自动跨线绕行比较危险,目前“最省事”的方式就是人工接管。
- 自动驾驶
自动驾驶,原则上是不需要驾驶员介入的,但出于法律法规以及安全的需求,现阶段自动驾驶车辆的驾驶座上需要有安全员(出现意外情况,可人工接管)。
另外,在技术方面,自动驾驶比辅助驾驶的要求更严格。
在自动驾驶车辆上路前,系统里会导入相关区域的高精度地图;在车辆上路时,车身搭载的激光雷达、摄像头等传感器实时搜集周围信息,更精确的算法系统对路面上的静态/动态障碍物进行识别,并对其行动轨迹进行精确预测。
结合多方面的信息,自动驾驶车辆会进行智能决策,规划新的路线,并控制车辆的行驶轨迹——这是辅助驾驶所不具备的能力。
这时候,车辆已经成为了驾驶的主体。
- 无人驾驶
总体上来说,无人驾驶的等级最高,相当于把开车这件事完全交给了无人驾驶系统,驾驶座可以没有安全员,甚至可以没有方向盘。
不过,目前要实现完全的无人驾驶还有很漫长一段路要走。
珍爱生命,理性对待辅助驾驶
目前市面上所能买到的量产车,无论宣传页上的表述是 L2 级自动驾驶,还是 L2.5/L2+ 自动驾驶,严格意义上都算是辅助驾驶——与自动驾驶/无人驾驶压根不是一回事儿。
然而,美国汽车协会研究表明,在真实世界中行驶 4000 英里的过程中,配备辅助系统的车辆平均每 8 英里就会遇到某种类型的问题。
也就是说,这些辅助驾驶系统并不是 100% 的安全可靠。
同时,随着新车辅助驾驶系统搭载率快速提升,在辅助驾驶系统开启时发生交通事故的情况也已经屡见不鲜。包括上文提到的蔚来事故。
即便是业内公认的新造车领跑者特斯拉,也时不时陷入失控疑云,尽管特斯拉认为自己的Autopilot 能够挽救无数生命。
每个季度,特斯拉都会公布自家电动车队的安全记录数据,特别是开启 Autopilot 和关闭 Autopilot 时事故率的对比。
特斯拉在去年第三季度的报告中写道:
开了 Autopilot 的特斯拉每 459 万英里才发生一起事故,只用到我们主动安全功能的特斯拉事故率则变成了每 242 万英里一次。那些不开 Autopilot 也不开主动安全功能的特斯拉则每 179 万英里就会出一次事故。与其相比,NHTSA 的美国车辆事故频率为每 47.9 万英里每次。
看起来 Autopilot 很厉害,不过,这些数据的误导性可不小。
据 MIT 的研究显示,Autopilot 能如此强悍主要是因为它大多数用在高速路上,比例高达 94%。但在高速公路之外,事故率是高速道路的 3 倍有余。
尽管特斯拉官方语境里 Autopilot 只能用在高速上,但高速好开,事故率低,出了事可就是大事。
在辅助驾驶还不成熟的当下,盲目追求「自动驾驶」体验非常危险。
责任界定的难点
事实上,在发生类似事故的时候总有一个难题:责任怎么来界定?
2016 年,一位特斯拉车主驾驶在京港澳高速邯郸段行驶时,与前方的道路清扫车发生追尾事故身亡。经交警认定,这起事故中,驾驶特斯拉的车主负主要责任。
然而,受害者的父亲对特斯拉提起诉讼,称特斯拉夸大宣传的自动驾驶功能致使受害者在驾驶时放松警惕,才是这起车祸真正原因——特斯拉在自动驾驶系统尚不完善、不能保证安全的情况下,仍然通过宣传诱导用户去信任这套系统,应该承担相应的法律责任。
同年,一名北京特斯拉车主在开启 Autopilot 模式时,因未能避过停在左侧的汽车,导致两辆汽车损毁。
车祸发生后,该名特斯拉车主在网络平台详述了车祸发生的过程,并投诉特斯拉公司夸大自动驾驶功能误导买家。
此后,特斯拉中国官网上才将「自动驾驶」这个词替换成了「自动辅助驾驶」,并且发布《车主使用手册》,要求车辆必须由有驾驶执照的人驾驶,而且要一直把手放在方向盘上。
在去年 9 月的一次事故后,理想汽车则在官方网站上将原先的「自动辅助驾驶」更改为了「辅助驾驶」。
理想汽车还给出了官方微博声明:
“目前理想 ONE L2 级别辅助驾驶还是以驾驶员为主来控制车辆,不能完全替代驾驶员做决策”,并呼吁驾驶员安全使用该系统。
尽管技术在不断进步,但整个行业的发展还远远称不上是成熟。
一些灰暗的时刻固然不会阻挡世界继续向更高级的自动驾驶未来进发,但这些事故确实给了我们一个重要的机会,想想这起事故为何会发生,我们又能从中学到什么以防止事故重演?
藉由此,车主清晰正确地认识、并使用辅助驾驶功能,可能是一个成本最小,收益最大的答案。