APP下载

全球首例自动驾驶汽车撞人致死案法律分析及启示

2018-02-16

信息安全与通信保密 2018年6期
关键词:无人驾驶司机事故

(腾讯公司 腾讯研究院,广东 深圳 518057)

1 全球发生首例自动驾驶汽车撞人致死案例

据国外媒体报告,当地时间2018年3月18日晚10点左右,一辆Uber自动驾驶汽车(Autonomous Car)在美国亚利桑那州坦佩市碰撞到一个横穿马路的行人,该行人在送往医院后不治身亡。据称,这是全球首个自动驾驶汽车在公共道路上撞击行人致死事件,引发了各界关于自动驾驶汽车监管、法律责任等方面的激烈讨论。[1]

事件发生时,这辆Uber自动驾驶汽车处于自动驾驶模式(据称是四级以上),驾驶位配有安全驾驶员(应急司机),没有搭载乘客。事件发生后,Uber旋即停止了在坦佩、匹兹堡、旧金山、多伦多等城市进行的自动驾驶汽车测试活动。

坦佩市警方发言人称,初步调查发现这辆Uber自动驾驶汽车在最高时速35英里的道路上以时速38英里行驶,似乎没有采取刹车的企图;安全驾驶员没有收到任何信号,直到碰撞发生后才意识到。死者Elaine Herzberg是一名49岁的妇女;据称,她可能是一个流浪者,从道路旁走出来,企图推着自行车从人行横道外横穿马路。

2 该起事故法律责任分析

2.1 安全司机可能基于过错承担责任

一般交通事故发生后,司机是第一位的责任人,依其注意义务和过错大小承担责任。正因如此,交强险(即机动车交通事故责任强制保险)保的是司机的责任。这起事故中的Uber自动驾驶汽车应是四级以上;按照美国汽车工程师学会(SAE)的自动驾驶级别分类,在四级和五级自动驾驶模式下,自动驾驶系统在特定条件或所有条件下,从事所有的驾驶活动和功能,不再需要司机对道路状况和驾驶条件进行监测。这意味着驾驶活动从司机让渡给了自动驾驶系统,在有安全驾驶员的情况下,司机仅在系统因脱离(Disengagement,意即需要人为干预)而请求时才接管驾驶活动。

结合以上论证,如果能够证明在这起事故中,这辆Uber自动驾驶汽车在当时的道路交通条件下,符合所搭载的四级自动驾驶系统所要求的运行设计领域(Operational Domain Design,即运行所要求的参数和限制),则安全驾驶员不控制驾驶活动,在当时的情况下对驾驶活动也就没有注意义务(due care),所以可能不承担侵权责任。这一观点符合德国2017年5月通过的交通法修订案的规定,该法案将自动驾驶系统合法化,并明确了司机和制造商之间的责任分配;其他一些国家有类似的规定。[2]

2.2 汽车制造商可能承担产品缺陷责任

在四级和五级自动驾驶模式下,当上路行驶的自动驾驶汽车符合其运行设计领域时,由于司机不再控制驾驶活动或者根本就不存在司机(比如谷歌的Waymo从2017年起开始在美国加州测试完全的无人驾驶汽车,加州最新的自动驾驶汽车测试和部署立法允许企业从今年4月起测试和部署完全的无人驾驶汽车,即不再需要测试司机,测试机构对车辆进行远程监控即可[3]),所以当发生事故时,只能考虑追究汽车制造商、自动驾驶系统提供者等相关主体的责任,一般为产品责任。

自动驾驶技术是汽车产业与人工智能、物联网、高性能计算等新一代信息技术深度融合的产物。自动驾驶汽车则至少包括汽车车身和执行自动驾驶功能所必备的软硬件设备,前者由汽车制造商提供,后者由自动驾驶系统研发企业(如Waymo、Uber等)提供。对于汽车,各国都有产品责任的规定。具体而言,因产品存在缺陷造成他人损害的,被侵权人可以向产品的生产者或销售者请求赔偿,需要证明:产品有缺陷,损害事实的存在,以及产品缺陷和损害事实之间存在因果关系。产品缺陷一般包括设计缺陷、制造缺陷和警示缺陷。

此次的事故车,由沃尔沃XC90 SUV改装,软件系统和识别感知方案全为Uber后来添加,车顶装有激光雷达和摄像头等传感器互相弥补,这也是目前自动驾驶领域比较主流的方案。如果最终证明这起事故是因沃尔沃汽车自身的缺陷(比如刹车失灵)造成的,则沃尔沃需要承担产品责任。但在这起事故中,似乎并不存在刹车失灵的情况。那就需要看Uber的自动驾驶系统是否存在设计缺陷。

2.3 自动驾驶系统提供者可能承担侵权责任

自动驾驶系统提供者一般要对汽车进行改装,安装必要的雷达、传感器、摄像头等硬件设备,同时研发自动驾驶软件系统,执行驾驶任务。一般而言,当汽车被改装成自动驾驶汽车后,汽车制造商不对改装后的缺陷承担责任。传感器、摄像头等外设设备输入数据,自动驾驶软件对输入的数据进行分析处理并作出驾驶决策。所以自动驾驶活动一般可简单分为感知、分析和决策。

美国交通部2017年9月发布的自动驾驶汽车指南《自动驾驶系统:安全愿景2.0》针对自动驾驶系统提出了12项安全标准,其中一项为物体和事故探测和反应(Object and Event Detection and Response,OEDR)。[4]如果可以证明Uber自动驾驶系统不符合这项或其他各项安全标准,则可能需要承担责任。

这起事故主要涉及准确、及时地感知、识别到障碍物(本案例中为行人)并采取刹车等措施从而避免碰撞,即前述OEDR标准。那么,如果是某个传感器或摄像头出了故障(即存在缺陷),导致没有感知到行人,则Uber可能需要承担责任。或者传感器都正常工作,但Uber的软件系统没有识别到行人,导致没有采取刹车,亦可能需要承担责任。假设感知和识别都是正常的、准确的,则存在另一个问题,即及时性问题。

就前述OEDR标准而言,假设存在一个“避免碰撞”标准:如果障碍物(包括人类)在距离汽车12英尺时被检测到,那么自动驾驶汽车必须能够在其行进路线上检测到障碍物并避免碰撞。根据坦佩市警方的初步报告,死者Elaine Herzberg可能是突然从路边进入这辆Uber自动驾驶汽车的行车道的,她与这辆Uber自动驾驶汽车之间的距离可能太小(比如小于12英尺),导致碰撞在当时的情况下是不可避免的,也就很难证明Uber自动驾驶系统存在设计缺陷。但如果这辆Uber自动驾驶汽车是在避免碰撞的安全距离之外检测到了她却未能避免碰撞,就可能存在不合理危险,故可能需要承担责任。能否在不考虑缺陷、过错和注意义务的情况下,要求Uber就其自动驾驶汽车承担严格的高度危险责任,尚需要进一步论证。

此外,从行为预测功能来看,自动驾驶汽车在行驶过程中,需要对路面车辆、行人等进行行为预测,进而做出驾驶决策。行为预测功能依赖于感知的输入、计算模型以及大量的道路场景数据,需要通过大量的路测来不断训练自动驾驶系统的场景遍历性。尚不知该自动驾驶系统的行为预测功能是否达到了所应具备的性能。更进一步,行人未走人行横道和事故车超速可能也是造成此次事故的原因。目前自动驾驶汽车具备识别路牌标识、感应人行横道并及时减速的能力,但此次行人未走人行横道,且在视线不好的情况下,可能导致自动驾驶汽车无法及时响应。

结合前述分析,在这起事故中,Uber是最可能的责任承担方。然而,即使Uber自动驾驶系统存在缺陷,但由于人工智能系统自身的黑箱性质和不可解释性,也很难证明缺陷的存在。在之前的特斯拉Autopilot自动驾驶模式致死案件中,美国国家高速公路交通安全管理局(NHTSA)最终认定,Autopilot在设计和性能上不存在任何缺陷,该系统在事故中的反应也符合其设计。[5]

最后,按照加州的自动驾驶汽车测试和部署立法,制造商需要购买500万美元的保险,以便有能力响应针对自动驾驶汽车造成的人身伤亡损害或财产损害的判决。因此,受害人能不能获得这笔保险赔偿,最终还需要有权机构来裁决。

3 自动驾驶汽车监管:通往无人驾驶之路

3.1 自动驾驶汽车监管路径

这起自动驾驶汽车致行人死亡事故将自动驾驶汽车监管,尤其是自动驾驶汽车的安全性,推上了风口浪尖。其中存在两个核心的问题,一是如何衡量自动驾驶汽车的安全性;二是自动驾驶汽车是需要人类驾驶员来共同掌控驾驶活动,还是可以完全实现无人驾驶。事件发生后,坦佩市市长Mark Mitchell称Uber的决定是负责任的,但警告人们不要对自动驾驶技术下定论,言下之意即是不要就此认为自动驾驶技术不安全。而在2017年3月,当一辆Uber自动驾驶汽车与另一辆汽车碰撞时,亚利桑那州州长Doug Ducey表示不需要额外的安全监管,因为错不在自动驾驶汽车,而在另一辆汽车。

其实坦佩市所在的亚利桑那州对自动驾驶汽车一直轻监管,州长于2015年8月发布行政命令,对自动驾驶活动实行零监管,要求各机构“采取必要措施,支持亚利桑那州公路上自动驾驶车辆的测试和运行”。[6]企业可以完全自由、开放地测试和部署自动驾驶汽车。今年3月州长发布新的行政命令,正式宣布没有人类驾驶员的完全自动驾驶汽车可以在公共道路上运行。[7]唯一的限制是自动驾驶汽车需要遵守针对汽车和司机的既有交通法规。加州则在今年2月更新了自动驾驶汽车测试和部署法规,从4月起企业可测试和部署无人驾驶汽车,意即不再需要测试司机。而且美国国会正在制定的自动驾驶汽车法案对这个新兴行业非常包容,不仅提供了力度更大的安全性豁免,而且允许无人驾驶的发展方向。

与美国推动无人驾驶不同的是,德国、中国则采取了另外一种模式,即允许在汽车上运行自动驾驶系统,但司机不能离开驾驶位。无论是德国去年5月出台的交通法修订案,还是中国北京、上海、重庆等地的自动驾驶汽车测试法规,都规定需要配置测试司机,但司机是否需要监测驾驶活动则存在不同。但这种模式存在一个难题即“脱手”(hands-off)问题。这个问题涉及如何在紧急情况下将驾驶控制权限从自动驾驶系统平稳过渡到司机,从而避免发生事故。如果司机在驾驶过程或活动中,长时间不参与驾驶,这很有可能会影响其在人机切换过程中的反应能力,导致发生事故。

3.2 自动驾驶汽车安全性认证

当然,对自动驾驶汽车安全性的衡量才是最重要的问题。全世界都在探索自动驾驶汽车的安全和性能标准,美国交通部提出了12项非强制性的标准,包括系统安全、运行设计领域(ODD)、OEDR标准、后备方案(即最小威胁状况,当发生问题或自动驾驶汽车不能安全运行时,确保可以平稳过渡到最小危险状况)、可合理消除与自动驾驶汽车相关的安全风险的验证方法、人机交互界面、网络安全、防碰撞性、自动驾驶汽车碰撞后行为、事故数据记录、交通法规遵守等。

目前的自动驾驶系统仍难以做到完全的安全可靠性。关于安全性的法律标准也需要进一步定义并量化。很多人坚持认为,无人驾驶汽车只有达到100%完美的安全可靠性才能合法,那意味着没有任何碰撞、事故或失误。然而事实是,如果需要完美的安全可靠性,无人驾驶汽车将永远不会获得合法地位,因为没有任何无人驾驶系统能够做到始终完美可靠。[8]

其实,可以对自动驾驶汽车的安全可靠性进行量化,标准就是它在无人工干预的情况下可以单独运行的时间长度。由于自动驾驶汽车的安全性是通过安全里程来衡量的,所以我们可以设定一个基于安全里程的衡量标准:平均故障间隔距离(MDBF)。

统计显示,人类司机基本上每20万英里就会发生一次事故。显然我们不能接受自动驾驶技术和人类驾驶同样安全,那样的话,只不过是多增加了一个马路杀手而已。但可以设置一个最低限度的标准,即无人驾驶汽车比人类驾驶安全两倍,即平均每40万英里发生一次事故。这样的自动驾驶汽车安全性可被称为人类驾驶安全系数2.0,那也就会有人类驾驶安全系数3.0、人类驾驶安全系数5.0等等。无人驾驶汽车的人类驾驶安全系数水平将取决于汽车的软件和计算能力以及硬件传感器的数量和类型。

加州机动车管理局发布的自动驾驶汽车脱离报告显示,在2016年12月到2017年11月之间,Waymo自动驾驶汽车行驶了35万英里,脱离63次(即需要人类驾驶员重新掌控方向盘),平均每隔5600英里发生一次脱离现象。[9]显然,即使处于业内领先水平的Waymo自动驾驶系统距离人类驾驶安全系数2.0都还非常遥远。

4 自动驾驶汽车呼吁法律政策创新

发展自动驾驶技术的一个理由是,比人类驾驶更优的安全性。现代汽车的安全性得到了极大的提高,发生故障可谓小概率事件。直接因汽车故障或缺陷而导致的交通事故少之又少,94%的交通事故是因为人为失误而导致。人类驾驶活动的负外部性值得反思。这种负外部性至少包括两个层面:交通事故和交通拥堵。就前者而言,每年120万人丧生,由此带来额外的社会和经济成本,包括医疗支出、劳动力丧失、经济收益减少等等。就后者而言,包括时间成本、对经济活动的负面影响、环境污染等等。如果把人类驾驶活动的负外部性换算成金钱,数额恐怕是非常巨大的。无论如何,人们希望自动驾驶汽车能够避免因人类驾驶活动而造成的负外部性,从而给社会和经济产生显著的积极影响。

如今,以机器学习为代表的人工智能被认为是通用技术,其将从颠覆驾驶开始,深刻影响人类社会和经济。当然,围绕自动驾驶汽车的安全争议会继续存在下去,对自动驾驶汽车测试和部署进行适当的监管可能也是必要的,但各界将来需要就自动驾驶技术的安全标准达成共识,惟其如此,才能促进自动驾驶汽车的工业化和商业化发展。

正如这次Uber自动驾驶汽车事故所表明的那样,自动驾驶汽车尤其是四级以上的自动驾驶技术将对责任、保险、隐私等法律制度和伦理规范带来深刻影响,需要制度的适应性调整。当然,最终人们希望自动驾驶汽车比人类更安全,无论是安全2倍,还是10倍或者20倍,都意味着更好的交通出行环境和更少的交通事故。但自动驾驶汽车的发展不会一蹴而就,需要城市设计、道路规划、交通系统、法律政策、社会公众接纳等各方面的适应性调整。这次Uber自动驾驶汽车致死事件对自动驾驶汽车的安全问题敲响了警钟,但绝不应当打击人类对自动驾驶甚至无人驾驶的信心和追求。

当然,这起事故也给我们带来一些启示。自动驾驶汽车是一个潜在的公共危险源,需要进行必要的监管,以便在促进创新的同时,也能够维护公共安全。因此,国家需要营造自动驾驶汽车发展的政策和法律环境,构建自动驾驶安全保障体系。针对自动驾驶汽车上路测试和部署、安全和性能标准、许可和检验认证、自动驾驶操作规范、责任和保险、网络安全等事项,探索制定相应的规则和法律要求,从而确保自动驾驶汽车的安全稳定性,加速自动驾驶汽车商业化进程。

[1]Self-Driving Uber Car Kills Pedestrian in Arizona, Where Robots Roam[EB/OL].(2018-03-19)[2018-03-30].https://www.nytimes.com/2018/03/19/technology/uber-driverlessfatality.html.

[2]司晓,曹建峰.论人工智能的民事责任——以自动驾驶汽车和智能机器人为切入点[J].法律科学,2017(05):166-173.

[3]Driverless Testing of Autonomous Vehicles[EB/OL].(2018-02-26)[2018-03-30].https://www.dmv.ca.gov/portal/dmv/detail/vr/autonomous/bkgd.

[4]U.S.DOT releases new Automated Driving Systems guidance[EB/OL].(2017-09-12)[2018-03-30].https://www.nhtsa.gov/press-releases/us-dot-releases-new-automated-drivingsystems-guidance.

[5]U.S.National Highway Traffic Safety Administration:NHTSA.ODI RESUME[EB/OL].(2017-01-19)[2018-03-30].https://static.nhtsa.gov/odi/inv/2016/INCLA-PE16007-7876.PDF.

[6]Autonomous Vehicles | Self-Driving Vehicles Enacted Legislation[EB/OL].(2018-03-26)[2018-03-30].http://www.ncsl.org/research/transportation/autonomous-vehicles-selfdriving-vehicles-enacted-legislation.aspx.

[7]Gov.Doug Ducey: Self-driving cars allowed on Arizona roads without human behind the wheel[EB/OL].(2018-03-01)[2018-03-30].https://www.azcentral.com/story/money/business/tech/2018/03/01/gov-doug-duceyissues-order-keep-arizona-capital-self-driving-cars/385812002/.

[8]胡迪·利普森,梅尔芭·库曼.无人驾驶[M].林露茵,金阳译.上海:文汇出版社,2017.

[9]Autonomous Vehicle Disengagement Reports 2017[EB/OL].(2017-12-29)[2018-03-30].https://www.dmv.ca.gov/portal/wcm/connect/42aff875-7ab1-4115-a72a-97f6f24b23cc/Waymofull.pdf?MOD=AJPERES.

猜你喜欢

无人驾驶司机事故
我们村的无人驾驶公交
学中文
画与理
无人驾驶车辆
无人驾驶公园
老司机
废弃泄漏事故
老司机
小恍惚 大事故
凭什么