APP下载

人工智能侵权责任问题研究

2020-08-19周朵王雪云

经济研究导刊 2020年19期
关键词:责任主体法律地位侵权责任

周朵 王雪云

摘 要:近年来,随着人工智能在人类生活领域内的广泛研究和开发利用,人工智能带来的侵权事件不断涌现,这引起了法学界对人工智能侵权问题探讨。有关人工智能法律主体地位问题可否成为独立的侵权责任主体,不同原因导致侵权状态下的责任承担主体及归责原则的确定,以及针对人工智能产品生产者的强制责任险和赔偿基金等相关配套措施不够完善。上述问题的解决,对于相关司法实务问题的处理和推动人工智能的进一步健康发展都具有重要的价值。

关键词:人工智能;法律地位;责任主体;侵权责任

中图分类号:D923        文献标志码:A      文章编号:1673-291X(2020)19-0192-04

随着计算机时代、互联网时代、大数据时代的到来,人工智能技术也随之飞速发展。与其他仍需要依靠人工实时操控的机器不同,人工智能具有显著的拟人特征,其行为在一定程度上享有自主性和独立性,部分是在脱离人工直接操控的情况下做出行为,较为高级的人工智能还可以通过自主学习获得更多的能力。由于人工智能具有劳动力成本低、高效率的特征,逐渐取代了人们日常生活中的部分人力角色为人们提供服务。但是,有行为就可能产生侵权,例如医疗外科机器人可能造成病患伤亡事故、无人驾驶汽车可能会导致交通事故、机器保姆可能造成雇主财产损失等,都是对公民人身权或财产权的侵犯。此时,人工智能未经操控做出的独立自主的行为,相应的责任应由谁来承担?判断责任承担主体的法律依据又是什么?受害人应当如何得到救济?人工智能这一侵权主体的特殊性给当今的侵权责任制度带来了挑战,是如今法律值得关注和解决的问题。

一、人工智能的法律地位

对于人工智能产品的法律地位,学界存在着争议。主要分为三种观点,即完全法律主体资格说、限制法律主体资格说和非法律主体说。

1.完全法律主体资格说。该学说认为可以赋予人工智能完整的法律人格,以人工智能机器人索菲亚为例,该人工智能的学习能力、理解能力、创造能力和交流能力等已经与人类在极大程度上相近,“她”的开發者汉森宣称索菲亚具有类人意识,而该人工智能也被沙特阿拉伯授予了公民身份,成为历史上首个具有公民身份的人工智能。沙特阿拉伯的法律接纳索菲亚作为其本国公民,法律基础便是人工智能完全法律主体资格说。该学说的依据主要在于,由于高级的人工智能可能通过自主学习获得知识储备,并且能够脱离人类的操控独立判断并且做出法律行为,无论意识还是行为都已经具有极高的拟人性。所以,人工智能可以既享有权利能力,又享有行为能力。

2.限制法律主体资格说。该学说认为人工智能可以在一定限度上享有法律赋予的能力,但是并不能够成为一个完全的法律主体。该学说倾向于将人工智能定性为“奴隶”,即人工智能虽然可以独立做出行为并且具有类人意识,但其做出行为的本质是“服从指令”,无论人工智能的行为是否是脱离人类的直接操控自行做出的,该行为也是人工智能按照其创造者所设定的程序进行计算演绎而得出的结果[1]。在行为上人工智能可以独立做出行为,所以享有行为能力,但由于人工智能的意识仅局限于类人意识而非真正的独立意识,本质上不具有其独立意志所以不能够享有权利能力。

3.非法律主体说。该学说相对于前两种学说,直接将人工智能定性为“工具”,人工智能的类人意识实际是计算机中的编程指令,是其创造者所设定好的程序。而人工智能的行为是依照这些编程指令和设定好的程序做出的,可以看作是创造者或使用者通过人工智能这种工具间接行为,只不过对于该工具的把控是一定的自由放任的状态。人工智能品的本质是计算机科学的衍生物,是创造者依靠计算机科学发展所创造出来的产品,是仅为人类提供服务而不具有权利能力和行为能力的工具。

笔者认为,完全法律主体资格说忽略了要作为独立的法律主体,不仅需要具有权利能力和行为能力,还需要具有责任能力。如果将人工智能作为独立的法律主体,那么当侵权行为发生后,人工智能是否有能力去承担侵权的后果和责任是难以保证的,若是承认人工智能有权利能力和责任能力,那么人工智能是否应当享有依其权利而获得的财产?利用人工智能的行为是否应该演变成雇佣行为需要征得人工智能产品的同意?这将极大地影响责任分配效率,给救济被侵权人和司法实践造成困难。

而限制法律主体资格说仅承认人工智能具有行为能力而不具有权利能力,是以类似于“奴隶”的身份服从其设计者或使用者的预设指令做出行为。一方面,仅具有行为能力,而不具备权利能力的法律主体所做出的侵权行为是难以定性的。另一方面,既然无权利,便也无承担责任的能力,即使赋予人工智能限制的法律主体地位,它也同样不具备责任能力。所以对该限制法律主体的承认可能不利于现实的责任分配且较难具有实践的意义[2]。

相较于前两种观点,将人工智能定性为工具的非法律主体说更符合当今的社会生活。一方面,即使人工智能可以通过自主学习获得远高于其创造者或使用者的知识储备,人工智能的类人意识也不是真正自然人的意识,仅是因为通过其内设程序和算法,使得人工智能可以脱离人类的直接操控而独立套入公式进行判断并做出行为,由此表现出人工智能可能具有人类的意识。实际上,人工智能是发达的计算机产品,并不具有独立的意志,自然不可能享有权利而成为权利主体。另一方面,虽然工具说在一定程度上忽略了人工智能的行为是具有一定的智能性的,但归根结底,人工智能的一切行为都是按照设计者、创造者、使用者的预设程序做出的,这些行为在本质上是服从指令,只不过在人工智能产品套入公式、选择方法从而做出拟人行为的过程中,创造者或使用者因为失于控制而采取放任的状态。所以即使人工智能的智能性和拟人性将人工智能产品与普通工具区分开来,人工智能产品在本质上仍然是一种更为高级特殊的工具,目前以及未来的一段时间内是不能够享有法律主体资格的。

二、人工智能侵权形态和责任归属

既然把人工智能定性为一种高级的工具而不具備法律主体资格,那么人工智能自然不得成为发生侵权纠纷后的责任承担主体。那么在发生人工智能产品侵权时,应当如何确定责任主体变得很现实,也是立法和司法界迫切需要解决的问题[3]。实际上,人工智能产品极高的拟人性和智能性已经给责任制度带来了难题与挑战,例如当因为人工智能汽车发生交通事故导致行人人身财产受到损害的,该责任是归属于智能汽车的使用者,还是归属于智能汽车的生产者?当智能医疗器械造成患者伤亡,该医疗事故责任是归属于医护人员或单位,还是应该归属于智能医疗器械的生产者,抑或两者都要承担责任[4]?追究不同责任主体会牵涉到适用不同的法律规范问题,所以责任的认定变得非常关键。

1.使用者操作不当与人工智能本身缺陷造成的侵权。就较为简单的两种情况来看,一种是使用者操作不当,在这种情况下发生侵权,完全是由于人工智能使用者的操作失误,而并非人工智能产品本身存在问题,此种情况下责任应当归属于人工智能产品的使用者,按照侵权责任归责原则应当由使用者按照过错责任承担对第三人造成的损失进行赔偿。还有一种是由于人工智能产品自身存在缺陷造成的侵权,此时应当适用产品质量法,按照我国产品责任制度,生产者对产品因质量问题带来的侵权损害承担的是一种无过错责任。如果能够证明人工智能产品存在缺陷,受害人存在人身财产损害的事实,并且该损害事实发生与人工智能产品缺陷之间有因果关系,并且在这些情况下,生产者也无法证明其使用者在使用过程中存在过错,那么该人工智能产品的侵权责任就应当归属于生产者,由其承担相应的损害赔偿责任。

2.生产者与使用者都存在过错而造成的侵权。假设生产者和使用者都存在过失,从而导致人工智能产品侵权的,此时就应当参考具体情况进行具体分析。如果该侵权行为主要是由于生产者在生产过程中出现了过错,或者没能对使用者尽到提醒和警示的义务,那么按照产品责任法应当将责任归属于该人工智能产品的生产者,由生产者负主要责任,存在过错的使用者负次要责任。如果该起侵权主要是使用者在使用过程中存在过错造成,例如侵权的人工智能产品本身的确具有小小缺陷,但不至于造成侵权事件,如果主要是由于使用者未能妥善使用、操作不当、违反说明等操作规程而发生侵权的,那么就该由使用者承担该侵权的主要责任,而生产者负次要责任。但是鉴于人工智能属于高级科技,即使生产者尽到了说明提醒的义务,作为非专业群体的使用者仍然无法理解该智能产品的使用方法,或者错误使用造成了侵权,那么在司法实践中可以由法官自由心证,对生产者和使用者的责任划分更加公平合理,从而做出相对公正判决。

3.人工智能超越使用者可控范围而造成的侵权。当使用者不存在过错时,对人工智能产品的侵权是否是由产品自身缺陷造成,往往难以得出准确的推断,因为人工智能是通过自身遵循相应的程序计算,甚至是通过自主学习获得方法以做出行为,该行为具有自主性和智能性,所以侵权行为也可能是人工智能产品独立做出的判断决策而并不在其生产者所能掌控的范围之内。尤其是人工智能通过自主学习获得方法、做出行为构成了侵权,生产者并未设置该方法也并未通过编程发出新的指令,同时生产或设计过程中也不存在失误,但仍然出现了人工智能产品的侵权。那么此时,如果仅仅单纯地适用上述的责任分配来确定责任主体,将该人工智能产品自行做出侵权判断和行为归属于产品缺陷就不太合理,也就不宜将责任完全归属于人工智能产品的开发者或生产者,否则显失公平的同时也可能会打消在人工智能产品领域的开发者的积极性,从而影响该高科技创新产业的进步。在使用者和生产者都不具有过错、过失,而人工智能产品又不具备法律主体资格的情况下,对人工智能产品的侵权又该如何确定责任归属呢?

笔者认为,解决此类问题的办法就是首先对人工智能产品依据其智能性和自主性的强弱进行划分,可以划分为强人工智能和弱人工智能。划分标准为:第一,是否能够进行自主学习,能够通过学习提升数据和知识储备的为强人工智能,不能自主学习数据且知识储备固定的为弱人工智能。第二,是否能够自行分析判断进而选择行为方式,能够进行自主判断分析选择行为方式的是强人工智能,而只能依照预设程序和标准进行行为的是弱人工智能。

在此基础上,就可以对既无生产失误又无使用失误的人工智能产品的侵权进行责任认定,因为人工智能的行为与其类似人类意识的程序相对应,程序的自主性和智能性越高,人类对于人工智能行为的把控能力就越低。如果人工智能产品可以通过自主学习获得更多的知识和数据储备,或者可以独立对事物进行分析判断选择,那么它所掌握的行为方法和采取的行为方式也就难以在其生产者和使用者的把控范围内,所以当人工智能的自主性和智能性越高,生产者和使用者所要承担的责任应当就越有限。反之,如果该人工智能的行为程序或者数据知识储备固定,仅能按照预设程序行为,那么它的自主性和智能性就越低,生产者和使用者对它的行为控制力相对较高,此时就应当负有注意义务和控制义务,若因放任该人工智能行为,发生侵权时就应当承担大部分或完全的责任。

三、完善人工智能侵权责任的建议

1.严格责任归责原则在特殊情形下的适用。严格责任是一种归责原则,它产生于英美法系刑法理论中,已经被世界上许多国家所认可并应用到合同违约范围内。我国在一些特殊的侵权行为中已经开始引用该原则,如建筑物、构造物及其他设施倒塌致人损害的,受害人只要证明自己存在损害,且损害是因某构筑物的倒塌造成的,至于构筑物的管理者或所有者是否存在过错则不是其考虑的问题,但如果构造物的管理者或所有者能够证明其没有过错的,可以免责或减少责任的承担。可见,严格责任是介于过错和无过错责任之间,即虽不以侵权人的过错为承担责任的要件,但并非完全排斥过错。鉴于此,参考前文所述的人工智能侵权情况,可以由国家针对已经普遍出现在市场上为人类提供服务的人工智能产品制定具体的安全标准,特别是针对人工智能行为的自主性和智能性的程度高的智能产品,我们为了减轻和分散产品生产者和设计者的风险负担,可以规定严格责任在此状态下的适用。即使发生人工智能侵权事件时,人工智能生产者和设计者如果能够依据相关安全标准证明其智能产品不存在缺陷的,可以不承担或减少承担相应的损害赔偿责任,既可以督促我们的生产者和设计者在生产和设计过程中严格把控质量,同时也公平合理地分配生产者和使用者的责任,另外也为司法实践处理相关案件提供依据。

2.建立强制保险、賠偿基金制度。在明确责任主体之后,我们要做的是建立强制保险、赔偿基金制度。可以在通过法律强制要求生产者、设计者为其所生产的人工智能购买保险的同时,由其余相关受益人成立人工智能侵权赔偿基金[5]。

强制保险和赔偿基金制度的建立具有较高的可取性,国家可以要求一些服务危险性、侵权可能性、行为智能自主性较高的人工智能产品的生产者为其产品购买强制保险。服务危险性、侵权可能性指的是该人工智能产品为使用者提供的是危险性较高的服务,比如智能自动驾驶汽车与自动化医疗器械等做出的行为,都是与公民生命健康权息息相关且极有可能造成侵权的。与交通强制险要求车辆使用者购买不同的是,高危人工智能强制险应当要求由该人工智能的生产者购买。原因在于,第一,当使用者不存在使用操作上的失误,同时也不再负有高度注意义务,侵权行为是因为人工智能的自行判断做出而造成时,使用者此时并不应当成为责任主体反而可能成为蒙受财产损失的受害者。第二,即使人工智能作为产品,其生产过程无失误,行为智能自主性也不得作为产品缺陷,行为智能自主性、服务危险性、侵权可能性仍然是人工智能产品本身所带出来的或者服务过程中所避不可免出现风险,在一定程度上已经类似于产品缺陷,所以要求此类人工智能产品的生产者购买更为合理。在建立强制保险制度的同时,国家也可以通过财政支出设立“高危人工智能侵权赔偿基金”,在发生智能自主性、服务危险性、侵权可能性较高的人工智能侵权时,对人身财产受到损害的使用者、受害人进行救济赔偿。

对于人工智能产品的侵权,使用者是否仅仅只是作为受害者出现呢?换言之,在使用侵权危险性和智能自主性高的人工智能产品时,使用者是否应当负有高度注意的义务?笔者认为,从引导人工智能科技发展的角度来看,规定使用者负有高度的注意义务可能并不有利于鼓励人工智能科技的发展,因为具有行为智能性和自主性的人工智能产品,其生产目的是提供服务、解放劳动力,如果仍然需要使用者负有高度的注意义务,对人工智能产品的行为进行监督,对于人工智能产品提供服务、解放劳动力的意义将造成极大影响。然而,从保障合法权益、防治人工智能产品侵权的角度来看,赋予使用者一定的注意义务是有必要的,因为在人工智能产品做出行为的过程中,使用者具有最高的操控能力,只有当使用者对人工智能的某些高度危险的行为进行监督注意,才能在发生侵权行为时及时制止、避免损害。对此,可以针对部分人工智能产品制定其使用者的高度注意与监督义务,也可以考虑将使用者纳入购买强制保险的主体中,强制要求使用自主性、智能性和侵权可能性较高的人工智能产品的消费者购买使用险,从而在生产者、使用者两个层面上对人工智能可能构成侵害的权利进行双重保护,对受损法益充分救济。

四、结语

虽然人工智能产品的出现,带来了较为复杂的侵权问题,也对我国现有的产品质量法等法律制度造成了冲击,但不可否认的是,在大数据时代的今天,计算机互联网技术不断发展,人工智能技术也必将在未来成为一国之核心竞争力,它所更多带来的,将是对国家科技、经济、政治、文化等多领域的史诗级进步。因此,必须使法律制度不断完善,以适应人工智能科技的发展。在保护权益、救济损害的同时,也要注意保护这项未来工程的创新动力,对人工智能设计者、创新者、生产者不仅需要法律的规制,更需要法律通过合理合法的确定责任以保障权利、鼓励创新。只有这样,法律才能够适应人工智能时代的需要,为此项极具未来意义的工程奠定基础并保驾护航。

参考文献:

[1]  吴汉东.人工智能时代的制度安排与法律规制[J].西北政法大学学报,2017,(5):131.

[2]  张玉洁.论人工智能时代的机器人权利及其风险规制[J].东方法学,2017,(6):56-66.

[3]  杨芳龄.人工智能品侵权的法律问题研究[J].安徽电子信息职业技术学院学报,2018,(5):87-90.

[4]  梁鹏.人工智能产品侵权的责任承担[J].中国青年社会科学,2018,(4):11.

[5]  曹建峰.十大建议!看欧盟如何预测AI立法新趋势[J].机器人产业,2017,(2).

猜你喜欢

责任主体法律地位侵权责任
消费欺诈的构成要件及侵权责任问题研究
版权公有领域侵权责任主体范围研究
完善我国现行合伙制度的构想
论东北老工业基地全面振兴中的软环境建设与优化策略
从“成路15轮”看保险经纪人的法律地位和义务
对无过错责任原则的再思考
论人工智能产品侵权行为责任认定
论间接义务
网约出租车交通事故责任认定
论侵权责任的违法性要件