日期:[2022年11月22日] -- 智慧生活报 -- 版次:[A4]

无人平台安全吗④

  基于调查结果,我们逐步推演评判,就可以看出事故原因主要出在哪个环节。
  第一步是激光雷达在撞击前6秒发现了行人。虽然比前面提到的11秒短,但考虑到行人刚上马路时和路边环境的区别不大,横穿马路的速度似乎也比较快,这个时间还是可以接受的。也就是说,无人车上激光雷达系统的探测能力还算过关。
  第二步,无人驾驶系统软件把行人看作了不明物体、汽车、自行车。当时受害者确实推着自行车,所以这个判断似乎在最后正确了。也有报道说,软件把受害者和自行车识别成了掠过路面的塑料袋。无论哪个说法,都说明无人驾驶汽车的软件,在识别目标上出现了严重错误。考虑到激光雷达不能识别材质的局限性,黑夜无路灯对摄像头的限制,出现这样的识别错误也情有可原。毕竟人的肉眼,在当时也很难看清这个突发状况。这也是最初72小时后的警方发言中,认为无人车责任不大的主要原因。从这一点来说,无人驾驶汽车的表现也可以算过关,至少比疲劳、分心的人类驾驶员更好。
  第三步,到碰撞前13秒,无人驾驶汽车才觉得有必要紧急刹车。这里就有重大失误了。按照我们人类驾驶员的合理逻辑,黑夜在少人的路面上行驶,只要发现前方有不明物体,就应该减速,并集中目力、精神去看清到底是什么,然后决定下一步的驾驶行为。可这辆无人驾驶汽车的软件,在4秒钟内都没有采取安全行动。
  第四步,碰撞前13秒,无人车认为有必要紧急刹车后,却又把行动寄托到人类驾驶员身上,它本身没有直接采取行动。
  看到这我们已经知道,这辆优步无人驾驶汽车的主要失误在决策上。从而错失了提前五六秒减速,提前一两秒紧急刹车的机会。究其原因,是因为它被编写成“减少车辆不稳定行为的可能性”。这句话的含义是:为了防止发现前方有异常路况后,过多地刹车、转弯变道,导致乘客感觉行车不稳,降低乘坐的舒适度,无人驾驶汽车的软件系统被写入了一些指令,有意忽略一些不太明确的危险情况。比如对路面飘过的塑料袋无须理睬。
  分析到这,事故的主要原因可以归结于无人车软件系统的漏洞,看着还是技术原因。但如果我们进一步想下去,会发现出错的不是无人车、软件,而是人。是我们人编写了一系列程序,告诉无人车怎么开车,程序员是无人车的教练。而无人车在事故中的表现,反倒证明它是一名合格的学生——探测系统正常工作了,在不利的环境下发现了异常,也留下了足够的处理时间。从这点来说,它比很多人类驾驶员表现更好,至少没有把在驾校学的东西还给教练。事故中坐在驾驶座上的测试员,责任心就显然不如无人车。但最后,却因为教练说的几句话,导致无人车做出了错误的选择。这些话就是:“你开车时,要首先保证后座老板的舒适,不要随便踩刹车!”“什么?前面有东西你就刹车?你管它什么东西,只要不是人,就别乱踩。把车开稳了,老板才舒服。”
  于是我们可以看到,这次事故的深层原因,还是我们人本身。因为我们发展无人驾驶汽车时,过于追求乘车者的舒适体验,结果忽略了车外的复杂情况。其实纯粹从技术本身来说,这样的无人车事故很容易避免,因为现有的传感器技术、车辆控制系统,足以在更危险、更突发的情况下,完成紧击刹车动作,确保路人的安全。当然也包括乘车者的安全,只不过会吓他一跳。如果我们把快速性、舒适度要求降低,无人驾驶汽车也许会在路上碰到一点点情况就减速,让乘客感觉磨叽,但就不会出现撞上路人、追尾清障车的事故了。在军用无人车的各种演示、比赛中,就很少出现撞人事故。因为它们的行驶速度不高,也不在乎急刹急停。
  摘自《无人胜有人——聚焦无人平台的发展与应用》