自动驾驶汽车事故的责任追究
自动驾驶汽车事故的责任追究
Unraveling culpability in autonomous vehicle accidents
事故会发生,但达成一致的标准对建立监管机构和消费者对robocars的信心有很大帮助。
Robocars不会是无事故的。
对于那些怀有培育自主汽车(AV)未来希望的监管机构来说,这是一个很可能困扰的政治现实。对公众来说,这是一个心理上站不住脚的前景,尤其是如果一辆robocar碰巧压扁了心爱的人。
不过,从技术的角度来看,这种必然性是想要开发更安全AVs的工程师的出发点。
英特尔高级首席工程师、MobileEye负责自主汽车标准的副总裁杰克·韦斯特(Jack Weast)说:“世界上最安全的人类驾驶员是从不开车的人。”。在一段视频教程中说了这句俏皮话,解释了公司的责任敏感安全(RSS)的含义。
“韦斯特是对的,”战略分析公司全球汽车业务副总裁伊恩·里奇(Ian Riches)对《经济时报》表示。“唯一真正安全的车辆是静止的。”
所以,如果希望看到商用的AV能真正在公共道路上运行,那会发生什么呢?
在AV生态系统能够回答这个问题之前,必须就另一个问题开启一个久违的对话:当一个机器人杀死一个人时,谁该受到责备?2020年将是这个行业最终与恶魔对抗的一年。
一方面,AV技术供应商喜欢引用世界卫生组织(WHO)报告的“每年135万道路交通死亡”这样的数字,当宣传的高度自动化技术是道路安全的最终解决方案时。急于描绘出零碰撞未来的美好图景,用这些数据来解释社会为什么需要AV。
去年,全世界道路交通事故死亡人数超过130万。
另一方面,技术界的大多数人努力避免回答当robocars失败时该怪谁的问题。被超出自己回答或控制能力范围的法律问题所吓倒,宁愿把责任推给监管者和律师。
在此背景下,英特尔公司Mobileye脱颖而出。正如Weast告诉EE时报的那样,“Intel/Mobileye并不害怕问一个棘手的问题。”在开发RSS的过程中,Intel/Mobileye的工程师花了大量时间思考安全到底有多安全——“这是每个人最不舒服的话题”,Weast在最近接受EE Times采访时这样描述。
“都想说,自动驾驶汽车将减轻交通事故,但对于非零概率的AV事故,声明有局限性。”。“事实是会发生意外。当然,目标是尽可能降低事故发生的几率。但不能从零事故的立场开始AV开发,也不能认为一次事故就太多了。”
A predetermined set of rules
预先确定的一套规则
Intel/MobileEye通过开发RSS来引领AV行业,“这是一套预先确定的规则,当AV与人类驾驶的汽车发生碰撞时,可以快速、决定性地评估和确定责任。”
当发生碰撞时,MobileEye写道,“将会进行调查,这可能需要几个月的时间。即使是人为驾驶的车辆造成的,这一点也可能无法立即明确。公众的关注度会很高,因为有一个AV参与其中。”
据MobileEye称,鉴于此类事件的不可避免性,MobileEye寻求的解决方案是“根据数学模型,提前为故障设定明确的规则”。“如果规则是预先确定的,那么调查可以很短时间,以事实为依据,责任就可以最终确定。
“当此类事件不可避免地发生时,这将增强公众对AVs的信心,并澄清消费者、汽车和保险业的责任风险。”
大多数科学家都认为,零碰撞的目标是不可能的,即使是AVs,既不喝酒也不开车,也不开车发短信。
“当然,更希望零碰撞,但在一个不可预测的现实世界中,这是不可能的,”Phil Koopman,Edge Case Research的首席技术官,卡内基梅隆大学教授告诉EE Times。“重要的是要避免可预防的灾难。设定一个“明显优于人类驾驶员”的预期是合理的。完美的目标就是要求太多。”
即便如此,把责任归咎于事故的想法让每个人都感到不舒服。
林利集团(Linley Group)高级分析师迈克·德姆勒(Mike Demler)说:“在RSS原始论文中看到的最大问题是强调指责。“包括定义AV动作和动作的数学模型,认为这是优势。但不足之处在于,指出,‘从规划的角度来看,该车型保证不会发生由自动驾驶车辆引起的事故。’”
设身处地为消费者着想。如果是一名乘AV的乘客,或者是一辆可能与之发生事故的车辆上的乘客,最不关心的就是谁或什么人有过错。这要由律师和保险公司来决定。只是不想被杀或受伤。
不过,如果设计自动驾驶汽车,就不能无视罪责。
德姆勒引用了Nvidia在回复RSS时发表的《安全部队》实地论文。本文几乎完全集中在数学模型上。“更难正式确定的问题是什么构成‘安全’驾驶。”。
例如,RSS在AV周围创建了Weast所称的“安全泡沫”。戴姆勒说:“一辆车离前面的车应该有多远,这似乎相当明显。”。“但是,对所有可能的驾驶场景进行建模并描述‘安全’的行动过程是不可能的。”
德姆勒指出,“尽管人工智能越来越强大,计算机仍然无法推理。”因此,人工智能驱动的AV“只能遵循规则。”
但是人类的司机明白规则是被打破的。戴姆勒说:“在某些情况下,避免事故可能需要一种可能被视为不安全的规避动作,比如在与其车辆‘不安全’的距离切入另一条车道的障碍物周围快速加速。”。
所示公式计算后车和前车之间的安全纵向距离。
戴姆勒想知道,是否真的有能力预测所有潜在的情况,并教robocars一个安全的行动方案,为每一个案件。这可能是个反问句。