APP下载

我国人工智能侵权责任承担的内在机理、现实困境及对策

2021-12-29徐海东

关键词:生产者损害赔偿责任

周 鑫,徐海东

(1.铜仁学院铜仁市文化科技产业创新研究中心与重庆大学法学院联合博士后站,贵州铜仁 554300;2.黔南民族师范学院历史与民族学院,贵州都匀 558000;3.廊坊师范学院社会发展学院,河北廊坊 065000)

在人工智能侵权案件归责判断中,智能机器人是具有独立性的主体,可以“自主决定”一定的行为。总体上看,智能机器人具有以下特点。(1)专业性。如果说法人是商业社会发展到一定阶段的必然产物,那么人工智能则是科技发展满足人类生产、生活需求的必然结果。人工智能的创意、程序设计或开发工作虽然可能由某个人或某一团队具体操作完成,但是要想形成规模和产业,必须依靠大型集团或政府机构。因为人工智能作为一项新的科技成果,只有具备充足的人才储备、雄厚的资金基础和强大的经济规模的实体才能涉足这一领域。(2)不透明性。由于智能机器人的设计程序、内在运转系统及工作机理是设计者、开发公司的专利,普通人无法知晓,更无法获知智能机器人是如何“思考”和如何做出决定的。(3)不可预测性。智能机器人在设计者创设的程序运行的基础上,对接收到的大量数据进行分析、计算和编程,生成新的程序指令,形成“自主的决定”。这一过程可能是智能系统设计者最初期待的结果,或许将超出设计者的掌控,因此智能机器人虽然是人类设计制造的产物,但是将来其行为及引发的后果很可能超越人类设想的范围。(4)难防控性。基于智能机器人的不透明性及其行为的不可预见性,智能机器人在获取了与预定规则不一致的信息后,一旦依据自己的计算和“思考”而出现异常反应,就可能“完全自主”地做出有损他人权益的决策。人类对此情形难以预防,而只能在嗣后予以补救。因而,囿于智能机器人的上述特性及其设计的高端性和结构的复杂性,由被害人来证明人工智能存在过错与否显然不公平。在这种情况下,侵权案件裁决更宜适用无过错责任的归责原则。

一、人工智能侵权责任认定与损害赔偿

(一)无过错责任原则的适用

人工智能介入司法程序的载体是智能机器。就智能机器造成的损害而言,其管理人应当适用无过错责任,这是符合无过错责任制度的本意的。无过错责任制度源于资本主义机器大生产时代[1]650,设立该制度的目的之一就是保障机器事故中的受害者能得到赔偿。机器大生产造成的事故,依据过错责任无法给予受害者赔偿,无过错责任应运而生。无过错责任最早出现在普鲁士王国1838 年的《铁路企业法》中,1839年《矿业法》将其扩大到矿害赔偿领域。德国1884 年的《劳工伤害赔偿法》规定了工业事故社会保险制度,确立了事故责任的无过错责任制度。此后,无过错责任原则被广泛应用于社会各个方面。就这一点而言,机器生产与人工智能服务在无过错责任应用方面完全契合。

当然,无过错责任原则的适用需要有明确的法律规定,不仅需要有《民法典》关于侵权的原则性规定,还需要有相关法律如《产品质量法》关于特殊侵权损害的规定。有学者提出可以对人工智能专门立法[2],在相关条文中规定无过错责任原则,即使未来人工智能成为民事主体,依据对其适用的监护制度,无过错责任也适用于监护人,这与现有法律并不冲突。

既然依据无过错责任原则免责事由是成立的,那么人工智能侵权也不例外。在任何人工智能侵权损害中,管理人是可以有免责事由的。管理人唯一的免责事由就是生产瑕疵,此时责任推向生产者与销售者。而生产者和销售者的免责事由适用产品责任,即证明现有技术尚不足以发现该产品瑕疵。这样做虽然加重了生产者的注意义务与道德责任,但好处是反向加强了生产者的技术研发精准度压力和管理人的管理注意义务。

(二)强制保险与基金

为保障人工智能的赔偿能力,不少学者提出应当强制缴纳保险与赔偿基金[3],在人工智能造成侵权时用于赔付给受害方。这就要求在研发、生产和消费的各个环节,生产者、销售者和消费者需要分别缴纳相应费用,用来购买保险或设立专项基金。人工智能可以通过“劳动”获得报酬,以此作为基金来源,在侵权时向受害方做出赔偿。保险或基金是强制性的,只要人工智能构成损害需要赔偿,均由保险公司或基金先行赔偿,不足部分由责任人进行赔偿。当然,这需要保险公司提供新险种、相关基金会提供配套服务。

二、平衡损害赔偿、责任承担与技术发展

(一)责任承担与技术发展

责任承担涉及技术干预与责任承担的分配比例问题。在从研发到使用的过程中,所有参与者承担的人工智能的侵权责任与他们对该人工智能的影响成正相关。也就是说,对人工智能的影响越大,承担的侵权责任应当越重。从研发、生产到销售再到使用,人类对人工智能的干预度逐渐减弱。研发过程直接决定了人工智能的性质功能、智能等级、服务对象、操作方式;生产决定了人工智能的外观形式与使用寿命;消费终端的影响仅限于对人工智能的“教育”:后一环节均建立在先前环节的基础上。如果人工智能出现侵权问题,作为使用者的管理人要提供“产品瑕疵”证明就很困难,甚至有些管理人并非人工智能的实际操作者,要举证“产品瑕疵”就更加困难。当人工智能侵权出现时,管理人免责需要证明产品制造有瑕疵,生产销售者免责需要证明他们生产时现有技术尚无法预见这一瑕疵带来的问题。相比之下,管理人的责任要轻于生产者。生产者、销售者、消费者(管理人或使用人)对人工智能的影响逐渐减弱,承担的侵权责任依次递减,这是合理的。

与技术发展密切相关的因素是工程师的道德操守。人工智能的技术发展并不单指科学技术的进步,更在于人工智能技术工程师道德操守的提高[4]。人工智能的自主性与人类的操控度成负相关,又与人类生活的便捷程度成正相关。人类某项伟大创造可以对人类有益,也可能给人类造成损害,未来人工智能将会与人类在长期博弈中共存。于是,人工智能被创造的目的与它在博弈过程中的表现有着密切关系,这对人工智能的制造者提出了极高的道德要求。目前世界各国对人工智能工程师的行为操守有共同的要求,即尊重人类尊严、遵守人类道德、保障人类安全、保护人类隐私。如果违反以上准则,后果不堪设想。“保障人类安全、保护人类隐私”的道德操守在未来人类与人工智能的博弈过程中举足轻重,制造者必须严格遵守。

(二)损害赔偿与责任承担

人工智能是物不是人,其侵权责任应该由管理人承担。管理人可以是生产制造者,可以是使用者,还可以是登记授权的其他相关利益人。此时责任问题是产品责任,也是生产者、销售者的责任,但是需要分清责任事故因何而起。事故的产生是设计人的技术漏洞,还是操作人的不当使用,或者是智能机器人超越原控制方案的擅自所为,是此类事故责任追究需要明确的。

有损害就会有赔偿,而赔偿的首要责任应当由过错方承担,即谁导致了损害,就由谁来进行赔偿,这才是合理的。对于自然人而言,赔偿责任与侵权责任是统一的,但对于人工智能而言,赔偿责任与侵权责任可能不统一,因为人工智能是物,无法承担侵权责任。然而,与一般机器侵权的无过错责任不同的是,人工智能可以用相关保险赔付金、基金或劳动报酬来支付损害赔偿。管理人的责任程度与人工智能赔偿数额不一定成正相关,因为可能会出现管理人为人工智能损害赔偿的不足部分提供补偿的情况。因此,现有法律有关条款内容需要调整,对管理人的补充赔偿责任进行具体规定。

(三)损害赔偿、责任承担与技术发展的平衡点

人工智能损害赔偿、责任承担与技术发展的平衡点在于管理人与生产者对人工智能侵权责任的补充赔偿责任。如果是人工智能产品本身的瑕疵,可以依照产品责任来规制;如果是人工智能管理人的失误,则应当追究管理人的侵权责任。人工智能发生侵权事故时,损害赔偿由人工智能自身的保险赔付金、基金和报酬赔偿,不足部分由侵权责任承担者补充赔偿。如果管理人确实尽到了注意义务并且成功举证侵害是由人工智能机器本身的“自主性”问题造成的,赔偿责任就应该由生产者承担。同理,生产者赔偿前也可以根据产品责任主张免责事由,而技术发展的限制确实可能会免除生产者的赔偿责任,使受害者无法得到管理人及生产者的任何一方的补充赔偿。需要说明的是,损害赔偿的管理人与生产者之间并不承担连带责任。前文已述,每个环节的相关利益人对于人工智能的影响程度不同。单就造成损害结果看,管理人的注意义务应当强于生产者的技术设定义务,所以损害赔偿责任应当先由管理人承担,当管理人免责事由出现时再将责任推向生产者。处于弱势的受害者在无法获得足额赔偿时,只能按法律规定通过提高人工智能的保险金或基金数额进行弥补。于是,在人工智能的制造、流通、服务的各环节,监管部门应当充分发挥监管作用,加强监管力度,保证人工智能保险金和基金数额足以承担其日后可能产生的侵权后果。这就需要配套的法律规定提供保障,促使监管机构在设立保险和基金规则时严格对人工智能进行尽可能精准的预测。人工智能自主程度越高,造成的伤害可能越严重,那么与它对应的保险金和基金数额就应当越高,以此来保障它能够独立承担损害赔偿责任。

三、人工智能侵权责任认定的瓶颈与建议

一般来说,有关人工智能的法律调整往往落后于科学技术的更新,法律的滞后性和科技的快速发展决定了有关人工智能的法律规范的制定晚于人工智能问题的出现。因而,需要针对当前人工智能侵权责任认定问题采取相应的措施。

(一)现有法律不足以解决人工智能侵权问题

与普通机器相比,人工智能更加自主和聪慧,这一点源于对人类的模仿。人工智能侵权与一般侵权相比,主要不同点在于人工智能具有高度自主性却无法认定其是否具有“主观过错”。人工智能侵权出现后,现有法律的弊端随之显现。人工智能是具有自主性的机器,是既有人性又有物性的“矛盾体”。其“物”性使侵权的过错无法认定,其“人”性又使得人工智能不完全受控于人的意志。于是,人工智能侵权不可适用一般侵权责任相关法规,而特殊侵权规则的适用又存在弊端。可见,传统的侵权法已经不足以解决人工智能的侵权问题。

(二)人工智能侵权责任认定的基点

要讨论人工智能的侵权责任,首先要弄清楚它是人还是物,这是人工智能侵权责任认定的基点。学界对人工智能的法律属性的讨论分为两派。一派主张代理说和法律拟制说,认为人工智能应当成为民事法律主体,可以看作法律上的“人”;另一派主张工具说和电子奴隶说,认为人工智能是机器,是法律上的“物”。从当前各类侵权归责的主张来看,代理人责任、法人责任、替代责任等主张都是偏向于人工智能的“人”的属性,或者将人工智能类比于自然人,或者将人工智能类比于法律拟制之人。而产品责任和动物致人损害责任等主张,偏向于人工智能的“物”的属性,认为人工智能应当是法律上的“物”。从法理上看,人工智能不具有独立的权利义务与责任能力,而是否具有民事法律资格归根结底要看其是否可以独立享有民事权利并承担义务。只有独立享有民事权利并承担民事义务,才能独立承担民事责任,否则就不具有独立的民事主体资格。在当前技术下,不应当过分强调人工智能的“人”之属性,否则人类与其博弈时将失去优势。当然,这并不妨碍将来科学技术和立法技术发展到更高程度时立法态度的改变。

(三)人工智能侵权问题应当受到合理规制

在处理人工智能侵权问题方面,我们可以学习、借鉴国外的司法经验,设立专门的监管部门,同时施行强制登记制度,对人工智能的数据和行为进行监控。对于侵权责任,适用管理人无过错责任原则,以减轻管理人的举证责任。人工智能与其生产者、管理人之间的侵权责任分担,要在责任承担、损害赔偿和技术发展之间寻求一个平衡点。这个平衡点的关键在于管理人与生产者对人工智能侵权责任的补充赔偿责任,其赔偿责任顺序依次为“人工智能—管理人—生产者”。人工智能发生侵权事故时,损害赔偿由人工智能自身的保险赔付金、基金或报酬承担,不足部分由侵权责任承担者补充赔偿,而管理人和生产者之间不承担连带责任。

猜你喜欢

生产者损害赔偿责任
生态环境损害赔偿诉讼优先审理模式之反思
论比例原则在知识产权损害赔偿中的适用
1月巴西生产者价格指数上涨3.92%
使命在心 责任在肩
2020德国iF设计奖
每个人都该承担起自己的责任
我国从2018年起试行生态环境损害赔偿制度
生态环境损害赔偿制度改革起航
期望嘱托责任
忠诚 责任 关爱 奉献