埃航空难疑因自动驾驶,相同设计思路下汽车的辅助驾驶能不能信?

 

易教授

每周二08:00出现用最有趣的方式了解最专业的知识3月10日,埃塞俄比亚航空公司的ET302航班,...

易教授  每周二08:00出现
用最有趣的方式了解最专业的知识


3月10日,埃塞俄比亚航空公司的ET302航班,一架波音737-800MAX客机,从埃塞俄比亚首都飞往肯尼亚,起飞6分钟后坠毁,机上157人无一生还,其中包括8名中国乘客。
事故原因还在调查中,但却并非没有参考。去年10月,印尼狮航同样一架波音737-800MAX客机也发生了相似的坠毁,原因是自动驾驶程序的自动保护功能,当飞机机头上扬到一定角度时,便可以不通过飞行员操作自动下压得机头得已平衡。

然而这个程序并没有写进使用手册,飞行员也不知道这个设计,因此在过程中人与系统操作起了冲突,最后导致飞机俯冲坠毁。

这两次事故有明显的相似点:

1.机型相同,均为拥有最新自动化控制功能的波音737MAX。

2.两架飞机的最后飞行轨迹一样,都是高速俯冲坠地。



不到5个月,波音737MAX飞机两次坠机,矛头直接指向了如今最热门的新科技——自动驾驶(无人驾驶)。

而汽车的自动驾驶技术和飞机是同样的设计思路,这也让我们不得不质疑,自动驾驶究竟是解脱体力劳动的福音,还是酿成大祸的隐患?
先简单了解“自动驾驶”的分类在汽车的“自动驾驶”功能里分成L0-L5 (“L“为Level缩写)5个级别:

L1 :系统能控制转向、加速或制动的其中一个,但不能同时控制,如自适应巡航或主动刹车;L2 :部分自动化,系统能短暂控制转向和速度,但司机要实时监测环境,并随时准备接管;L3 :有条件自动化,系统监测环境、系统完成驾驶操作,但在一些不能自动驾驶的环境下,须要驾驶员接管。L4 :高度自动化,系统监测环境、完成驾驶操作以及紧急时刻的支援措施,可以完全脱离人工;L5 :不限定道路和条件,由无人驾驶系统全部完成驾驶操作;

目前L2级别的自动驾驶汽车比较多,其中比较知名的是特斯拉Model S,车企的目标是L3,而飞机已实现的自动化类比汽车标准的话大概至少达到了L4。
自动驾驶系统如何工作?L1 - L2 的方式很简单,就是在车身装有许多雷达传感器和激光测距仪,通过感应周围状况来计算合适的转向、加速或刹车,不需要联网。

L3及以上就需要联网,在 L2的基础上, 车身配有摄像头拍摄道路情况并实时反馈给数据中心,再通过详尽的地图来对前方道路进行导航,可以识别红绿灯、高速出入口,你可以设置一个目的地,车辆自己就可以沿着导航路线走了。

这种不需要人干预,让“电脑”来开车安全吗?

理论上讲,自动驾驶是比人为驾驶安全的。

因为程序不酒驾、不犯困,不开斗气车,是完全理智的行为。雷达传感器360 ° 没有视野盲区,对距离的把握也更精确。人对距离的衡量都是“一个车身”“半个车头”这种含糊认知,而程序计算到米、厘米,以及精确到转向多少度能顺利停进车位。

美国国家公路交通安全管理局曾统计分析过特斯拉的事故记录,总结出自动驾驶状态下的撞车几率比人为驾驶低了近40%。
那么可以依赖自动驾驶吗?从实际情况上看,相当不可以。

人类和机器的思维方式不同,程序缺少了人类的感知能力,在我们看来非常容易判断处理的事情,在计算机上通过编程语言实现却非常困难。有个词是程序无法做到的:随机应变。

如果我们车头前有个可乐瓶,那我们一定直接压过去了,但传感器分辨不出车前是人还是大白菜,遇见“障碍物”都刹车。领导的某斯拉在走主路时路过一片低洼,车头下倾,传感器把路面识别成了障碍物采取了自动刹车,后车跟着一惊。

如果在高速驾驶中,突然出现障碍物的话(如小动物),自动驾驶程序的急刹车或者急转向都会引发不可预估的严重后果。

所以程序的精准控制,仍存在安全隐患。
以上是自动驾驶交通事故的部分记录,你会发现这套系统本身有个隐患就是“无法识别”

2016年5月,一辆开着自动驾驶的车正在路上走,车主完全依赖于系统(正在玩手机),路口一辆货车转弯,因为货车车身较高,且白色的车身加上强烈的阳光反射,使传感器分辨不出是车还是天空(就没感应到前边有东西),导致小车直接钻进了大货车下,车毁人亡。

类似识别失败的事故不少,官方称是车主太过于依赖自动驾驶技术,而自动驾驶的初衷,就是为了代替人工观察和操作,却又不让人们依赖他,这不是矛盾吗?

不过可以肯定的是,目前自动识别技术不完善,仍有常见事物却无法识别的技术盲区。
另一个人为隐患是:“驾驶员错误干预或未按要求操作”

文章开始狮航空难的原因,就是因为驾驶员不知道自动控制程序的使用方法,导致极端情况下,飞行员不知道飞机要做什么,也不知道如何去阻止。在国内生的某斯拉发识别失败导致的追尾事故中,车主也表示:“我不知道它(指自动驾驶程序)识别不出来啊……”

有多少人在买车之后熟读了使用手册?驾驶员对自动驾驶程序的操作方式、适用场景以及存在的缺陷都不够了解
(特斯拉车主手册)


科技在进步是好事,但真想要达到安全的目的,只完善技术是不够的,这些方面也需要思考:

1.完善技术的同时能不能减少bug?

自动驾驶级别越高,对联网的需求越大,对数据的精度需求越强,对人力的要求也越高。而程序是人为开发不可能100%无失误,那么在如此高强度的量产研发下,能不能尽可能减少bug?如果要给一个标准,真希望是99.9999%,毕竟这不是研发手机游戏,而是承载人身安全的汽车系统。

2.如何加强车主对自动驾驶的认知?

人们对于自动驾驶的过于依赖和过于不信任,都是缘于不够了解。那么技术研发公司或者汽车厂商,能不能加强对车主相关知识的普及,或者在车载系统里安装警示提醒,当传感器探测到非正常环境时,会有“此场景下不适于使用自动驾驶”的提示。

3.我们所处的交通环境,对自动驾驶友不友好?

自动驾驶是程序化运作,那么比如这条路上有100辆车,99辆都是普通汽车,只有1辆是自动驾驶,这99辆车都在加塞儿的话,自动驾驶会不会被“孤立”?当然这也包括行人以及非机动车对交通法规的认知,如何将我们的交通环境,优化成适于自动驾驶的环境。
科技是人类研究出来的,理应是人类掌控技术,而不是技术支配我们。最后,向埃塞俄比亚航空空难中所有遇难者表示沉痛的哀悼。


    关注 选车罗盘


微信扫一扫关注公众号

0 个评论

要回复文章请先登录注册