自动驾驶汽车事故的罪责追究

自动驾驶汽车事故的罪责追究

Unraveling culpability in autonomous vehicle accidents

事故会发生,但达成一致的标准对建立监管机构和消费者对robocars的信心有很大帮助。             

Robocars不会是无事故的。             

对于那些怀有培育自主汽车(AV)未来希望的监管机构来说,这是一个很可能困扰他们的政治现实。对公众来说,这是一个心理上站不住脚的前景,尤其是如果一辆robocar碰巧压扁了心爱的人。             

不过,从技术的角度来看,这种必然性是想要开发更安全AVs的工程师们的出发点。             

英特尔高级首席工程师、MobileEye负责自主汽车标准的副总裁杰克·韦斯特(Jack Weast)说:“世界上最安全的人类驾驶员是从不开车的人。”。他在一段视频教程中说了这句俏皮话,解释了公司的责任敏感安全(RSS)的含义。             

“韦斯特是对的,”战略分析公司全球汽车业务副总裁伊恩·里奇(Ian Riches)对《经济时报》表示。“只有静止的车辆才是真正安全的。”             

所以,如果我们希望看到商用的AV能真正在公共道路上运行,那会发生什么呢?             

AV生态系统能够回答这个问题之前,它必须就另一个问题开启一个久违的对话:当一个机器人杀死一个人时,谁该受到责备?2020年将是这个行业最终与恶魔对抗的一年。             

一方面,AV技术供应商喜欢引用世界卫生组织(WHO)报告的“每年135万道路交通死亡”这样的数字,当他们宣传他们的高度自动化技术是道路安全的最终解决方案时。他们急于描绘出零碰撞未来的美好图景,他们用这些数据来解释社会为什么需要AV。

More than 1.3 million traffic deaths occurred on the world’s roadways last year. 

另一方面,技术界的大多数人努力避免回答当robocars失败时该怪谁的问题。他们被超出自己回答或控制能力范围的法律问题所吓倒,宁愿把责任推给监管者和律师。              在此背景下,英特尔公司Mobileye脱颖而出。正如Weast告诉EE时报的那样,“Intel/Mobileye并不害怕问一个棘手的问题。”在开发RSS的过程中,Intel/Mobileye的工程师们花了大量时间思考安全到底有多安全——“这是每个人最不舒服的话题”,Weast在最近接受EE Times采访时这样描述。              

他说:“我们都想说,自动驾驶汽车将减轻交通事故,但对于非零概率的AV事故,声明有局限性。”。“事实是会发生意外。当然,我们的目标是尽可能降低事故发生的几率。但你不能从零事故的立场开始AV开发,也不能认为一次事故就太多了。”

A predetermined set of rules

Intel/MobileEye通过开发RSS来引领AV行业,“这是一套预先确定的规则,当AV与人类驾驶的汽车发生碰撞时,可以快速、决定性地评估和确定责任。”             

当发生碰撞时,MobileEye写道,“将会进行调查,这可能需要几个月的时间。即使是人为驾驶的车辆造成的,这一点也可能无法立即明确。公众的关注度会很高,因为有一个AV参与其中。”             

MobileEye称,鉴于此类事件的不可避免性,MobileEye寻求的解决方案是“根据数学模型,提前为故障设定明确的规则”。“如果规则是预先确定的,那么调查可以很短时间,以事实为依据,责任就可以最终确定。             

“当此类事件不可避免地发生时,这将增强公众对AVs的信心,并澄清消费者、汽车和保险业的责任风险。”             

大多数科学家都认为,零碰撞的目标是不可能的,即使是AVs,既不喝酒也不开车,也不开车发短信。             

“当然,我们更希望零碰撞,但在一个不可预测的现实世界中,这是不可能的,”Phil Koopman,Edge Case Research的首席技术官,卡内基梅隆大学教授告诉EE Times。“重要的是我们要避免可预防的灾难。设定一个“明显优于人类驾驶员”的预期是合理的。完美的目标就是要求太多。”             

即便如此,把责任归咎于事故的想法让每个人都感到不舒服。             

林利集团(Linley Group)高级分析师迈克·德姆勒(Mike Demler)说:“我在RSS原始论文中看到的最大问题是它强调指责。“它包括定义AV动作和动作的数学模型,我认为这是它的优势。但不足之处在于,它指出,‘从规划的角度来看,该车型保证不会发生由自动驾驶车辆引起的事故。’”             

设身处地为消费者着想。如果你是一名乘AV的乘客,或者是一辆可能与之发生事故的车辆上的乘客,你最不关心的就是谁或什么人有过错。这要由律师和保险公司来决定。你只是不想被杀或受伤。             

不过,如果你设计自动驾驶汽车,你就不能无视罪责。             

德姆勒引用了Nvidia在回复RSS时发表的《安全部队》实地论文。本文几乎完全集中在数学模型上。他说:“更难正式确定的问题是什么构成‘安全’驾驶。”。             

例如,RSS在AV周围创建了Weast所称的“安全泡沫”。戴姆勒说:“一辆车离前面的车应该有多远,这似乎相当明显。”。“但是,对所有可能的驾驶场景进行建模并描述‘安全’的行动过程是不可能的。”              

德姆勒指出,“尽管人工智能越来越强大,计算机仍然无法推理。”因此,人工智能驱动的AV“只能遵循规则。”             

但是人类的司机明白规则是被打破的。戴姆勒说:“在某些情况下,避免事故可能需要一种可能被视为不安全的规避动作,比如在与其他车辆‘不安全’的距离切入另一条车道的障碍物周围快速加速。”。

The formula shown calculates the safe longitudinal distance between the rear vehicle and the front vehicle.

戴姆勒想知道,我们是否真的有能力预测所有潜在的情况,并教robocars一个安全的行动方案,为每一个案件。这可能是个反问句。

posted @ 2020-07-07 13:37  吴建明wujianming  阅读(175)  评论(0编辑  收藏  举报