应用

技术

物联网世界 >> 物联网新闻 >> 物联网热点新闻
企业注册个人注册登录

如何起诉一辆自动驾驶汽车?

2019-05-05 09:35 汽车商业评论

导读:毫无疑问,L5的自动驾驶汽车应该由自动驾驶系统来操控。这就解决了一个问题:L5自动驾驶汽车事故中,人类是否有过错?答案是否定的,因为L5自动驾驶汽车无需人类驾驶。

自动驾驶,自动驾驶,特斯拉,马斯克,无人驾驶

图片来自“123rf.com.cn”

【编者按】在L4和L5自动驾驶模式下,由于司机不再控制驾驶活动或者根本就不存在司机,所以当发生事故时,只能考虑追究汽车制造商、自动驾驶系统提供者等相关主体的责任,一般为产品责任。汽车制造商会去担责吗?司机真的毫无责任吗?

本文首发于汽车商业评论,作者石彩云;由亿欧编辑,仅供行业人士参考。


自动驾驶能带来福祉,也会招致灾祸。随着汽车驾驶任务的自动化程度越来越高,有关交通事故的诉讼和法律纠纷数量无疑也会激增。天下没有免费的午餐,自动驾驶汽车的到来也会付出一些代价。

在4月22日的自动驾驶投资者日活动中,有人向特斯拉CEO埃隆·马斯克(Elon Musk)提出了这样一个问题:如果特斯拉的完全自动驾驶汽车卷入一场车祸,谁来承担责任?

马斯克似乎被这个问题惊到了,他考虑了一会儿,然后说会是特斯拉。尽管他的回答有些迟缓,但是他的停顿也可以理解,因为这类问题还没有一个明确的“标准答案”。

让我们考虑一下为什么。

首先,让我们考虑一下驾驶的本质。动态驾驶任务(Dynamic Driving Task,DDT)是自动驾驶汽车领域的正式用语,指驾驶汽车的行为,包括所有的策略和操作步骤,如转向、加速、减速、目标监测、躲避和机动等。现在,动态驾驶任务的主要操作者仍然是人类。人们注视前方的道路,驾驶汽车,踩刹车,踩油门,或者练习一种驾驶汽车的超能力。

尽管这种超能力难以与超人、沙赞和神奇女侠等著名的虚构人物相比,但仍然称得上一项非凡的壮举。在大多数情况下,人类都能够正确地完成这项任务。驾驶行为被很多人视为一项有点琐碎的任务,实际上它涉及到一系列不可思议的操作能力,很难实现完全的自动化。

半自动驾驶意味着共担驾驶任务

半自动驾驶汽车需要人类和自动化系统共同驾驶汽车,通常叫做高级驾驶员辅助系统(ADAS),为人类驾驶员分担DDT的某些驾驶任务。但是,这些半自动驾驶汽车往往不被看作真正的自动驾驶汽车,因为它并不像L5一样能完全脱离人类的操作。

但是,半自动驾驶参与的驾驶行为是诉讼高危区。当涉及到半自动驾驶汽车的事故时,该由谁来负责呢?

目前给出的直接答案是:人类司机。在共同参与的驾驶任务中,假设人类驾驶员最终要对事故负责,有人可能会把这比作是船长对船只负有最终责任,而不管发生了什么其他可能导致船只坠毁或沉没的事件。

这种“标准”是否会不可避免地适用于半自动驾驶汽车,目前还不是很明显。现在,我们看到了L3半自动驾驶汽车的出现,它们有越来越强的操纵能力,可以自动改变车道,可以在城市街道上行驶等等。

尽管有了这些进步,人类驾驶员仍被视为是车辆的控制者,至少汽车制造商和科技公司是这么说的,但人类驾驶员能真正理解这一点吗?

具有讽刺意味的是,车辆自动化程度的提高也给人类驾驶员带来了“诱惑”,他们想当然地认为他们不需要再驾驶汽车,在驾驶中很可能成为一个漫不经心的“副驾驶员”。

大家可能都看到过人类司机在驾驶过程中用智能手机打字、看剧的行为,他们似乎忽视了路况和驾驶任务的难度,这是相当危险的。自动驾驶系统很可能突然需要帮助,包括瞬间的驾驶决策和人类司机的瞬间干预,然而这时候人类司机可能还被他们最喜欢的电视节目的最新一集深深吸引着。

灾难的处方

在美国,寻求产品责任索赔有三种核心方式,包括:

?未能充分警告正确的使用方法

?产品设计存在缺陷

?产品制造存在缺陷

L3半自动驾驶汽车的问题在于汽车制造商或科技公司们能否针对车辆的正确使用提供足够的预警,这意味着人类司机驾驶前是否充分了解驾驶任务?他们是否明确自己在自动驾驶汽车中扮演的角色是什么?

一些汽车制造商也正在增加一些监测设备,检查人类驾驶员是否在专心驾驶,比如:一个对准驾驶员眼睛的摄像头,或者一个感知驾驶员手部压力的方向盘。但是,这样就够了吗?此外,如果在驾驶手册中写明车主作为人类驾驶员的一些职责,这会被认为是充分的警告吗?(一些人认为,忽视驾驶手册或者把它搁置一旁是很常见的事情)

如果你的传统汽车被一个有人类司机驾驶的L3自动驾驶汽车撞坏,司机显然没专心驾驶。除了追究那个粗心司机的责任,你可能会错过向汽车制造商或科技公司问责,因为他们没有确保他们的产品充分提醒车主如何正确使用车辆。

你可以直接控诉汽车制造商或科技公司的产品设计有缺陷,而不是警告。

假设自动化用于警告人类驾驶员在某一情况下即将撞车,使他们及时采取弥补措施,设计人员会选择某种方式来编写代码,比如需要四秒钟来提供这样的警报。这四秒钟的规定可能会被证明是一个有缺陷的设计选择,也许研究表明应该是两秒钟,但这不是设计师做的决定。

也有可能会涉及到制造上的缺陷,比如在制造L3自动驾驶汽车时,用于检测前方物体的传感器可能安装不当。

L5驾驶行为的负责人

在自动驾驶汽车上,一些汽车制造商或科技公司可能会跳过较低的等级,直接将目标定在L5,部分原因是试图避免不确定的人机共同驾驶的困境。

毫无疑问,L5的自动驾驶汽车应该由自动驾驶系统来操控。这就解决了一个问题:L5自动驾驶汽车事故中,人类是否有过错?答案是否定的,因为L5自动驾驶汽车无需人类驾驶。

如果一个人工智能系统或自动驾驶系统正在进行L5驾驶,这是否意味着自动化是有意识的,并且在某种程度上是要负责任的,就像一个人类驾驶员一样?驾驶汽车的人工智能系统并不是一种生命形式“存在”,我们距离有知觉的人工智能的时代还很远。

尽管目前关于谁为L5自动驾驶行为负责的看法未有定论,但可能的目标负责人已经确定。

他很可能是L5自动驾驶汽车的汽车制造商和技术开发商,因为他们是L5无人驾驶人工智能系统的设计者和建造者,也可能是L5自动驾驶汽车的车主,无论是车队车主还是个人车主。也可能是两者共同承担责任。

但肯定不会是人工智能本身负责,尽管人工智能系统包含某种机器学习或深度学习。

对于谁该为事故负责的关注点最终归结为自动驾驶的实现方式,制造和设计是否有缺陷,或者是否向司机警告了正确的使用方法。

也许在遥远的未来,我们会设计一种能独立思考的人工智能驾驶系统。你可以起诉它,但放心,它不会像现在新兴的L5汽车那样,它们不会自己坐在证人席。或许,也会很快。