APP下载

新兴技术推动法理论变革的因素考量
——以人工智能产品侵权责任分配理论为例的反思

2022-08-22彭中礼

甘肃社会科学 2022年4期
关键词:主体责任人工智能

彭中礼

(中南大学 法学院,长沙 410012)

提要: 人工智能时代之来临,法律人基于各自的理论推演和预设,试图构建新型法理论。以人工智能产品的侵权责任为例,学者们提出了产品责任说、高度危险说、用人者责任说以及法律主体责任说等代表性新观点。通过从生产者、使用者以及社会进步之角度进行思考,发现上述观点依然是传统侵权行为理论的延续。基于历史维度、主体维度以及技术维度反思,也可以发现,人工智能产品的侵权行为并没有动摇现有侵权责任分配原理,现有法理论可以处理好人工智能产品的侵权归责问题。从法理论变革的视角来看,以人工智能为标志的现代科学技术的发展虽然会促进法理论在某些方面的变化,甚至可能是扩大了法律的规制领域,但是想要从根本上撼动现有的法律体系,仍然需要有其他变革的契机。理论与实践的双重演绎表明,科技的发展促进法理论变革,需要具备多种耦合性因素,包括科技因素、社会因素以及制度因素,从而形成理论变革的合力。

一、问题的由来

随着人工智能技术的迅速发展,人工智能应用范围越来越广,人工智能产品也越来越多,人工智能技术开发与应用已经深入社会生活的方方面面,一个新的技术时代——人工智能时代已经来临[1]。为了解人工智能技术带来的社会变革,建构规范方法应对人工智能社会风险,2012年,欧盟委员会启动RoboLaw项目,主要目的是研究“机器人技术领域中的新兴技术如何影响生活”。随后,欧盟议会法律事务委员会(JURI)于2016年5月发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》(简称《报告草案》),《报告草案》指出:“从长远来看,人工智能存在超越人类智力能力的可能。立法机关在不扼杀创新的前提下,需要考虑其法律和伦理影响。”[2]人工智能替代人类或超越人类的可能性逐渐成为一种共识。因此,人工智能产品能力的特殊性、超强性以及潜在的危险性,引发人们对人与机器关系的思考,特别是关于人工智能产品能力的法理思考。

人们往往会从理论上追问,如果人工智能具有人类智能,那么人工智能与人是什么关系?是平等关系吗?如果是平等关系,人工智能与人发生冲突时,如何分配责任?无论如何理解人工智能的社会角色,人工智能为人们带来技术福利的同时,也会不可避免地与人类发生冲突。在法律尚无明确规定的前提下,我们是否会想当然地以为,因为人工智能会与人发生冲突,所以人工智能产品侵权就会带来侵权责任归责理论的重大变化,进而导致整个民法乃至法理上责任主体的理论变革?为此,本文首先从当前学术界的代表性观点出发,反思人工智能是否对民事侵权责任的基本原理带来了挑战,进而从法理上寻找理论缘由,为我们充分应对人工智能时代的到来提供理论依据。

二、人工智能产品侵权责任分配的代表性新观点

自人工智能的研究成为学界的学术热点以来,短短的五年时间(2017年被公认为中国人工智能研究的元年),有关人工智能产品侵权责任分配的学术研究成果非常丰富。概而言之,这些学术研究成果可以总结为以下几种学术观点。

(一)产品责任说

吴汉东提出关于智能系统致人损害责任的认定,有两种责任方式可供选择:一是基于行为人过失所产生的产品责任;二是基于技术中立原则所产生的替代责任[3]。有人认为将机器人定位为民法上的物且将其视为产品并据以确定其民事责任应是更现实的选择[4]。从属性来看,人工智能本身是由人类制造的物品,而市场上的人工智能是为了满足人类需要而生产出来的,目的是为参与流通即销售,因此人工智能符合《产品责任法》第2条规定的产品要件“经过加工制造”“用于销售”,仍然属于产品的范畴,故应接受产品责任制度的调整[5]。

(二)高度危险责任说

美国学者凯尔·科隆纳将HAV(Highly Automated Vehicles,即高度自动化)驾驶定义为侵权责任法中的“高度危险”[6]。高度危险责任的理论基础主要在于“危险责任说”,即危险不仅在于潜在加害人所从事的活动或管理的对象具有外部致损的可能性,更在于损害的高度严重性和危害广泛性,而且潜在受害人对此几无防御之道[7]。有学者认为,无论人工智能归于危险物品或危险活动,高度危险的说法都符合人工智能的属性[8]。高度危险责任是“基于风险的不可预测性和损害后果的极端严重性而对加害人课以无过错责任”[9]。Paulius Cerka等人提出人工智能的开发者应该对更大的危险来源的行为负责,在这种情况下,无过错责任论产生[8]。此外,高度危险责任是在人工智能技术“危险的难以避免性”、行业的“非通常性”——即人工智能核心技术的专业性以及技术缺陷和因果关系较难证明的情况下,基于节约交易成本的考量。

(三)用人者责任说

用人者责任又可以被称为“雇主责任”,属于替代责任的范畴,指的是如果雇员在职务范围内实施侵害他人权益的行为,那么雇主就需要对雇员的行为承担责任[10]。用人者责任说提出,人工智能自主运行行为是为执行特定任务,所有者或使用者为其运行利益的享有者。即如果智能机器人实际上“代理或者代表”某个法律主体从事行为或者进行决策,那么可以比照雇主对雇员的责任,让部署智能机器人的人承担替代责任[11]。如贝札尔等人指出,谁“雇佣”谁负责应当是基本原则[12]。用人者责任中,责任主体承担无过错责任。此外,还有一种特殊的用人者责任——劳务派遣责任。2017年2月,欧洲议会《机器人民事法律规则》就是基于劳务派遣关系进行自动驾驶侵权的责任构造[8]。该理论基础在于用工单位直接享受劳动者劳动成果带来的利益,因此对比用人单位,应承担更为严苛的侵权责任。

(四)法律主体责任说

1.类比自然人的有限人格——监护人责任

监护人理论认为因人工智能具备一定的自主性,但又不能完全像人类一样独立地思考和行为,其类似于人类社会中的无或者限制民事行为能力人,使用者如果使用该人工智能,对人工智能的自主行为负有监督管理的义务,应当承担人工智能的监护人责任。赖玉强提出,人工智能是人类创造出来的服务于自身的,其地位不可能超出人类,甚至不能达到与人类同等重要的程度。它所能拥有的,至多只是有限的民事行为能力以及民事权利能力,这种能力在一定程度上可类比于未成年人,是“类人”[13]。所以,所有者应当对人工智能承担监护人的责任。

2.类比法人的有限人格——设立中法人和电子人制度

刘晓纯、达亚冲提出智能机器人享有有限法律权利,即可以成为中法人[14]。贝克则主张在人与工具之间设立新的主体,即把与智能机器人相关的所有参与者(研发者、程序员、生产者、用户)全部绑定起来,转化为一个新的法律实体——“电子智能体”(electronic agent)或“电子人”(electronic person)[15]。他认为法人概念在处理公司事务时是相当成功的,至少能够确保由公司各方的合作行为造成的全部损失不是由某个人来独立承担。因此可以赋予智能机器人特定的法律“人格”,让自主机器人有一定程度的法律自主权。这种观点与从属法律主体地位理论有一致性[16]。

3.直接赋予人工智能法律主体地位

不少学者从法律主体理论出发,提出直接赋予人工智能法律主体资格不存在学理和伦理上的困境。周详认为,以往有很多先例可循的“社会人格化”例证,足以说明如今我们若将智能机器人“人格化”,在逻辑上并不存在法律推理与论证方法层面的根本性障碍[17]。权利主体的内容是逐步建构起来的,是一个不断发展变化的观念。智能机器人的智能性这一本质性要素,必然要求赋予智能机器人法律主体地位,从而对社会发展起到正向作用。因此赋予智能机器人法律主体地位是顺应时代发展的要求。如许中缘提出民法上确认法人的民事主体人格[18]。张童提出法律关系主体与客体的区分依据并非局限于是否拥有生命、是否拥有独立意志,而是应当将重点放在衡量有无必要赋予主体资格使其享有权利能力,如法人拥有拟制人格那般,赋予人工智能产品以拟制人格并非不可。在不限制其他法律主体(自然人和人工开发的法律实体)的利益的最佳保护的情况下,人工智能系统应该是公认的法律主体[19]。所以,在知识产权法领域,有学者基于人工智能的法律主体地位,提出可以赋予人工智能创造物以著作权[20]。

三、对人工智能产品侵权责任分配代表性新观点的反思

人工智能技术的发展,带来了法学学术研究的新一轮繁荣。秉持学术研究应当提升知识增量的理路,我们应当对上述四种代表性新观点进行分析,思索其是否真正地反映了人工智能产品侵权责任分配的基本原理,进而思索这些所谓的新观点是否冲击了现有的民事侵权责任体系。因此,我们要关注的是,人工智能产品的侵权行为是否动摇了现有民事侵权责任体系的理论根基,人工智能产品的民事侵权责任是否仍然囊括于现有的民事侵权责任体系之中。概而言之,如果将人工智能产品的侵权行为归结到生产者、销售者或者使用者,那么就可以说这只是传统侵权行为理论的延续,并没有诞生新的民事侵权责任归责理论。

(一)从生产者角度的观察与反思

生产者在追求市场利益的过程中创造人工智能技术,是人工智能技术危险产生和流通的根源;在具体的人工智能侵权事件中,生产者是实力雄厚的赔付主体;对人工智能侵权事故整体而言,生产者是人工智能侵权危险的有效控制者。生产者是人工智能侵权责任主要主体之一,生产缺陷是人工智能侵权危险来源之一。

1.人工智能产品存在生产缺陷时的归责反思

在产品责任、高度危险责任、用人者责任以及监护人责任中,人工智能存在生产缺陷时,生产者若为责任主体,则承担无过错责任。其中,产品责任直接规定了生产者的缺陷责任。我国《产品责任法》第四十一条规定当产品存在缺陷时生产者承担无过错责任:“因产品存在缺陷造成人身、缺陷产品以外的其他财产(以下简称他人财产)损害的,生产者应当承担赔偿责任。”因此,如果人工智能生产制造过程中存在缺陷而导致人工智能侵权责任事故,生产者应当承担无过错责任。确保人工智能符合当事人之间约定的或者法律规定的质量标准是生产者的法定义务。生产者作为人工智能技术制造生产角色,是保障人工智能技术安全的第一道防线,一般而言“在工程领域,产业界常常并没有强烈的直接动力在系统安全性和正确性方面做出更多投入,更常见的应对是来源于问题发生之后的补救和分析”[21]。生产者对缺陷制造承担无过错责任有利于引导生产者提高人工智能生产制造的安全性。相较而言,若设立中法人发起人、智能电子人代表或人工智能成为独立法律主体,则生产者对人工智能侵权不承担直接责任。

在人工智能因生产缺陷而侵权时,高度危险责任、用人者责任以及监护人责任的免责事由均较为严苛,且存在不适用之处。《民法典》第一千二百四十四条规定:“承担高度危险责任,法律规定赔偿限额的,依照其规定,但是行为人有故意或者重大过失的除外。”《民法典》第一千一百九十一条规定:“用人单位的工作人员因执行工作任务造成他人损害的,由用人单位承担侵权责任。用人单位承担侵权责任后,可以向有故意或者重大过失的工作人员追偿。”《民法典》第一千一百八十八条规定:“无民事行为能力人、限制民事行为能力人造成他人损害的,由监护人承担侵权责任。监护人尽到监护职责的,可以减轻其侵权责任。”因此高度危险责任、用人者责任中,生产者无法以人工智能技术符合安全质量标准等进行抗辩;有限人格监护人责任中,无过错是减责而非免责事由。在免责事由之欠缺前提下,责任由生产者一己之力承担。由此作为“风险社会”,损害总是以一定的概率存在,区别只是由哪些人实际承受这些损害,此时生产者成为损害的实际承担者。这一理念下,生产者会将重心转移至如何通过保险等方式提高自己的偿付能力而非最大限度地提高人工智能技术的安全性,因为前一种方式的成本明显低于后一方式。盖多·卡拉布雷西指出:“毫无疑问,在事故发生后,我们为事故受害者提供的方法是至关重要的,但现实的事故的社会成本可以通过首先采取手段避免事故得到最大程度的减少。”[22]23完全法律人格下,人工智能要以自己的独立财产承担责任,这在实践生活中无法实现。虽然其可以通过人工智能保险、人工智能风险基金等方式来转化责任,但减少了生产者与人工智能侵权行为之间的联系,无法推动制造商积极主动关注人工智能技术安全问题。这种责任联系的弱化,也是今天许多法人组织从事非法行为屡见不鲜的原因之一。

2.人工智能产品无生产缺陷时的归责反思

除了人工智能无生产缺陷时生产者是否需要承担侵权责任这一问题,承担责任比例也是人工智能侵权责任分配面临的问题之一。如果人工智能不存在生产缺陷,则在产品责任中,生产者不承担责任;在高度危险、用人者责任以及有限主体论的监护人责任等三种观点中,生产者承担无过错责任;设立中法人、电子人以及法律主体责任,尚无具体规定。不同的观点,生产者责任承担相差较大。笔者认为人工智能无生产缺陷而发生侵权事故时,生产者应承担公平责任。《民法典》第一千一百八十六条规定:“受害人和行为人对损害的发生都没有过错的,依照法律的规定由双方分担损失。”这一规定被称为公平责任原则。公平责任原则充分考虑了生产者作为受益者的身份,也考虑了使用者作为受益者的身份。由两个受益者分担人工智能产品无缺陷时导致的损失,大体体现了分配正义。

(二)从使用者角度的观察与反思

使用者作为人工智能技术的直接控制者,规范使用人工智能是其应有之义。此外,谨慎使用人工智能技术,避免因操作失误等过失致第三人受损是其注意义务之范畴。与生产者相比,使用者是力量较为薄弱的责任主体,不宜为其设置超出其承受能力之责任,适当的责任分配有利于激发使用者履行安全使用人工智能之注意义务。使用者对人工智能的青睐和信任是人工智能技术长足发展的基础。

1.使用者未谨慎使用人工智能

在人工智能不存在生产缺陷的前提下,使用者应当谨慎使用人工智能,使用者未履行谨慎义务致人工智能侵权的,应当承担过错侵权责任。鉴于使用者大多数赔偿能力较弱,故可以借鉴机动车强制责任保险制度,覆盖小额赔偿。以自动驾驶汽车为例,自动汽车驾驶人未履行注意义务的,可以依据《道路交通安全法》第七十六条规定承担责任:“机动车发生交通事故造成人身伤亡、财产损失的,由保险公司在机动车第三者责任强制保险责任限额范围内予以赔偿。”强制责任保险是确保使用者赔偿能力的重要条件,消费型使用者作为个体赔偿能力普遍较弱,借鉴机动车强制责任保险制度有利于分散使用者赔偿风险,保护受害人权利。但强制责任保险赔偿限度较低,面对较为严重的损害,无法全面覆盖,此时单个主体可以以商业保险等方式填补损害。

2.使用者谨慎使用人工智能

使用者在谨慎使用人工智能,履行其注意义务的前提下,不存在过错,不对人工智能侵权承担侵权责任。首先,与生产者不同,使用者对人工智能技术运作知之甚少,无法进一步阻止人工智能侵权;其次,使用者多为单个主体,对个人过失行为负责是权利与义务相对应之内涵,但对非义务范围内行为承担责任超过其法律义务。使用者不承担责任,由生产者与受害者根据公平责任分担损失。

在现有新观点中,产品责任未规定使用者之责任承担。高度危险侵权责任中,取使用者做责任主体,不符合高度危险责任理论基础。首先,使用者享受人工智能的运行利益,但生产者却未尝不是人工智能的更大受益者,整个社会也因人工智能技术的普及减少资源浪费等。其次,从现有的高度危险责任出发,承担高度危险责任的主体有:民用航空器的经营者,易燃、易爆、剧毒、高放射性、强腐蚀性、高致病性等高度危险物的占有人或者使用人,高空、高压、地下挖掘活动或者使用高速轨道运输工具的经营者,高度危险活动区域或者高度危险物存放区管理人等主体。从高度危险责任主体的规模到其活动的高度危险性,使用者使用人工智能技术的行为都无法与其相提并论。此外,人工智能侵权责任事故的原因既可能是用户未履行注意义务,也可能是技术自身的缺陷,此时即使用户履行了合理的注意义务也无法避免损害发生。不论是用人者责任、劳务派遣责任还是监护人责任,使用者作为人工智能的直接控制人承担无过错责任,在劳务派遣模式下生产者有过错的,承担补充责任;监护人责任下,使用者尽到监护义务也不能免除其责任。有限人格设立中法人制度无法适用于单个的使用者,虽然使用者也可以与生产者等一起与人工智能组成电子人,但不明晰的权利义务分配,容易导致适用困境。

(三)从社会进步角度的观察与反思

社会进步需要技术进步与社会安全相平衡。社会之进步离不开技术之进步,而社会进步之目的在于使社会主体“人”享有幸福之生活。自康德提出“人是目的,而不是工具”这一理念以来,人权观念日益深入人心,人人追求幸福生活之过程极大推动了技术变革的步伐。人工智能侵权责任分配是调整二者之平衡的关键点之一,须谨慎对待。

1.人工智能若为责任主体

人工智能责任主体究竟应该如何认定?是继续由生产者、使用者等承担责任,还是将人工智能类比自然人或法人赋予法律人格?从权利利用角度来看,赋予人工智能主体资格并非有效的权利保护方式。私人权利盛行之时代,所有权制度为权利人提供了最全面的权利利用方式,现有人工智能技术仍处于不断发展和进步的上升时期,将人工智能技术归于其所有者,对人工智能技术开发者更具激励作用。所有权是最完整的物权,是最为典型的绝对权,开发者可以对人工智能占有、使用、收益、处分,其完整性超越其他任何一种行使的非所有权财产权类型[23]126。首先,承认所有者对人工智能的所有权,使其对人工智能的权利最大化,可以激励开发者不断改进和提升人工智能技术,开发人工智能技术的多种利用途径。其次,法律赋予权利的同时也赋予权利人谨慎行使权利避免对他人权利造成损害的义务。人工智能在完全具备人类自由意志和独立的财产之前,仍要依靠具体的自然人行使权利、履行义务,过早赋予人工智能法律主体资格可能导致实际责任主体享有权利后借人工智能法律主体资格逃脱责任。因此,人工智能技术发展初期,明确人工智能不是权利义务主体,是技术发展的要求。

2.人工智能归责原则

侵权归责原则决定生产者、使用者与受侵害者权利义务的分配。克雷斯蒂安·冯·巴尔提出只有当侵权行为法避免了过分严苛的责任时,才能作为有效的、有意义的和公正的赔偿体系运作。作为一个为理性所支配的法律,它既不能成为公众所认可的经济秩序的阻碍因素,也不能要求一个行为不谨慎的人对他人因其行为所产生的一切损害,及一切非因行为人的过失即无需容忍的损害,承担赔偿责任[24]1。高度危险责任、用人者责任以及有限人格中的监护人责任都为无过错责任,形式上对受害人的保护无可挑剔。但无过错责任作为一种严格归责原则,责任主体不明确、以及责任主体明确后,免责事由适用不合理,引发任何一方承担责任都会导致过于严苛的责任。由此引出,责任主体会将注意重点转移至通过保险等提高赔付能力而非最大限度提高人工智能安全技术或谨慎使用人工智能,在事故发生前即降低事故发生之概率。每个生产者、使用者关注重点之转变,集中后使社会整体事故发生率提高,受害人数增多,从社会整体讲并不利于保护受害人权益。因此,从现有法律出发,根据人工智能侵权原因对应不同责任主体,结合每一责任主体的特殊性确定归责原则,可以减少法律对技术发展的干涉,同时保护受害人权益。

从上述分析来看,我们可以得出一个基本的结论:即使在现有法律体系下,依然可以处理好人工智能产品的民事侵权责任问题。换言之,在无法赋予人工智能产品为责任主体的情形下,人工智能产品的侵权行为只会在原有的责任归责理论中进行适当的选择,并没有实现责任理论的创新。由此可见,人工智能的研究大潮中,并非所有的研究都存有真正的问题意识。

四、人工智能产品的侵权行为不会动摇现有的侵权责任分配理论

上文分别从生产者、使用者和社会进步角度对人工智能产品侵权责任分配的代表性观点进行了述评和反思。我们发现,这些所谓的新的学术观点并没有提供新的理论成果。接下来需要继续追问的是,人工智能究竟是否会动摇民事侵权的责任分配原理?下文将从历史维度、主体维度和实践维度对此展开否定性论述,进一步明确人工智能产品的“行为”依然在现有法律体系的规制范围之内。

(一)从主体维度来看,人工智能产品尚非法律意义上的“人”

人工智能法律主体的论证分为两类,一类是将人工智能类比为自然人,从人工智能之“智能性”出发;另一类是将人工智能“拟制化”,认为人工智能可借鉴法人、非法人组织拟制化的路径,构建人工智能法律主体制度。

1.人工智能作为“人”

自然人的法律主体基石来源于近代的“天赋人权”理论和“自由意志”理论。1789年,法国颁布了《人权和公民权利宣言》,其核心精神是从“自然权利观念”衍化而来的“天赋人权”精神,实质是关于平等、自由、博爱的宣言书。于此,自然法不再被视为是为具体问题提供答案的原则,个体的权利也不被认为系由客观规则作为寻求公平的手段而赋予的,而是直接从人的本质中归结出来,是自然的权利[25]13。通过天赋人权观念,启蒙思想家表达了“人生而平等”的诉求。这是生物意义上的人(Mensch,Human Being)。在此层面上,个人的社会身份被褪去,人与人的原始平等性得以呈现。民法以众生平等的权利能力制度回应了这一诉求[26]369。因此赋予自然人法律主体资格是“天赋人权”的要求,是生物意义上的人的要求,是保障自然人原始平等的要求。人工智能作为以程序设计为核心,以机器人、自动驾驶汽车等各种形态出现的人造非生命体,无法被纳入人类种族中。因此也无法从“天赋人权”角度要求法律赋予其与自然人相同的法律主体地位,并给予相同的保护。

“自由意志”理论也是考察人工智能产品是否为人的重要理论渊源。德国理性自然法论的奠基人萨缪尔·普芬多夫将人区分为物理存在体和伦理存在体两种存在形式,前者指向人的自然属性,后者指向人的伦理属性。伦理人(person morales)是伦理世界的主体,具备理智与意志,因而区别于动物[27]82。后来,普芬多夫延续勒内·笛卡尔“我思故我在”的理论,认为理智与意志决定人的行为,义务则是自由意志的界限;基于义务,伦理人具有引导、节制自己意思行为的自由,以此确保自由生活的秩序[28]6。启蒙运动代表人物之一康德在其《实践理性批判》一书中提出“人格”:“正是人格,也就是拜托了整个自然的机械作用的自由和独立,但它同时却被看作某个存在者的能力,这个存在者服从于自己特有的、也就是由他自己的理性基于的纯粹实践法则,因而个人作为感官世界的个人,就他同时又属于理性世界而言,则服从于他自己的人格,这就不必奇怪,人作为属于两个世界的人,不能不带有崇敬地在与他地第二个和最高地使命地关系中看待自己地本质,也不能不以最高的敬重看待这个使命的法则”[29]118-110。他指出人格应该不只是生物存在——作为感官世界的人格,还包括理性意志——表现为服从自己的意志。基于自由意志,萨维尼在对康德理论发展的基础上,提出权利能力和行为能力的划分,权利能力与生物人概念相关,生物人存在于外部世界,为了使他们相互支持而不是相互阻碍,需要法律来确定规则;但是权利能力“只需要以人的本质、人的形态以及与母体分离为前提,不再需要什么理性因素”[27]104。而如何取得、实际行使权利能力则是行为能力的范畴,且后者与个体的自由意志相关。朱庆育在《民法总论》中也指出:“法律交往,民法奉行自治理念,该理念以人具有为自己理性判断的能力为前提。与‘理性人’相呼应的,是人的行为自由。”[26]370人工智能显然无法突破生物人而被归入人类中进而享有原始权利能力。但是,以自由意志为发展方向,未来有一天,当人工智能根据自我意志作出判断与行动,赋予人工智能法律主体资格便具备了现实基础。此时,人工智能侵权理论会导致法律体系的些许变化,但并不会对侵权法理论体系造成十分巨大的影响。

2.人工智能作为“法人”

当代意义上的“法人”概念为海泽首版于1807年的《供学说汇纂讲授之用的普通民法体系纲要》所创建[30]406。在该书中,海泽将“法人”作为民法的一个抽象概念使用,与“生理人”对称,其含义为:“法人是除了个人之外,在所有国家中被认可为独立之权利主体者。”[26]406由此,法人可被定义为“法律认可其主体资格的团体”[26]407。

法人法律主体资格的来源存在多种学说,“拟制说”和“实在说”是两类具有代表性的学说。“拟制说”认为,只有自然人才称得上真正的人,能够拥有权利能力,法人则是法律拟制的产物[26]423,这体现了对自然人的尊崇。“实在说”认为法人如同自然人,是具有实质的组织体,而由“超个人的有机体”来操作,因此法人的人格是真实存在的[26]453。无论是“拟制说”还是“实在说”,法人所有的法律效果最终由人承担。法人虽然为权利主体,能够以自己的名义享有权利、承担义务,但从根本上说,它之所以能够出现,仅仅是为了实现自然人的某些特定目的,对于自然人而言,法人永远只是一个工具性的概念[26]407。分析自然人与法人的主体资格,我们发现法人组织主体资格的本质是取决于人类之需求。在侵权责任规则原则可以自我调整适应社会变化的基础上,赋予人工智能法律主体资格没有需求基础。因此人工智能想要突破侵权责任主体体系,仍取决于人工智能技术是否能发展出真正的自由意志,成为真正的“人”。

综上可得,如果人工智能已经发达到了具备主体资格的程度,如人工智能产生了与人一样的自由意志,能够在自己的支配下与他人进行交往,那么人工智能就可能不再是人的附庸,而能够享受权利和承担义务,这样就可能导致侵权责任主体的增加,但是也难以说会引发侵权法基本理论的变化。

(二)从历史维度来看,人工智能尚未挑战现有的侵权责任分配体系

侵权责任制度起源于古罗马《十二铜表法》中的“以眼还眼,以牙还牙”,此后的《阿奎利亚法》明确提出了“违法”(iniuria)的概念,对“私犯”成立的主观标准加以规定。罗马法就是在《阿奎利亚法》的基础上,通过法学家的学术解释和裁判官的判例加以补充、诠释而发展的,形成了较为系统和成熟的以过错为基础的归责体系[31]。

近代大陆法系侵权法摆脱了罗马法中以列举具体侵权行为为特征的模式,代之以一个非常抽象的归责原则一般条款,而其中过错是核心要件[32]6,最典型的代表当属1804年的《法国民法典》第1382条和第1383条。《法国民法典》第 1382 条规定:“人的任何行为给他人造成损害时,因其过错(faute)致该行为发生之人应当赔偿损害。”第 1383 条:“任何人不仅因其行为造成的损害负赔偿责任,而且还因其懈怠或疏忽大意造成的损害负赔偿责任。”过错原则取代了古罗马以来极端结果主义责任:并非有损害必有赔偿,只有行为人在违反其理性人之义务导致损害时才需承担责任。而随着近代工业革命的发展,损害事件的数量和规模都大大提高。一方面社会上企业主与劳动者之间、生产者与消费者之间出现了严重的两极分化与对立。这两层关系的激烈矛盾最终导致劳动者与消费者成为社会阶层中相对的弱者,即所谓的“弱势群体”[32]7,此类弱势群体根据过错责任获得损害赔偿极为困难。另一方面工业化来到了大工业时期,很多侵权事故的发生是行为人不可避免的,不论是加害人抑或是受害人。过错责任越来越不能适应社会实践之需要,改革过错责任的时机也就来临。

两次世界大战后,侵权责任规则原则逐渐发生变化,开始强调法律的任务不再是满足个人利益,而在于调节社会各种利益的冲突,以满足人们社会利益的需要。侵权行为也由个体之间的侵权,逐渐过渡到以企业行为为中心的侵权,而且以企业行为为中心的侵权行为所造成的侵害由单一性向大规模和立体化的方向发展,因而导致现代侵权法向以企业侵权责任为规制重点的法律体系转变。此时,传统大陆法系侵权法采用过错责任原则,但在这个时期针对大规模新出现的特殊侵权行为采用了严格责任原则。严格责任原则不是以责任人的过错为判断标准,而是基于损害的客观发生,由法律加以具体规定[32]8。归责原则便也由单一的过错责任扩大至适用严格责任。

1984乌尔里希·贝克年在《风险社会》一书中提出“风险社会”的概念,由于工业化的高度发达以及在世界范围内的推广,人们日常生活中的一些生产、经营等行为亦成为损害之来源。邱聪智也指出:“现代社会权益损害现象之重心,已经由传统的个人间的主观侵害行为,转移到危险活动的损害事故,虽然许多传统的归责原理不能合理的对其进行调整,而且非诉诸足以配合新社会事实之法理,既不能弥补侵权法损害之社会功能,亦根本无从达成其所欲实现之正义观念者。”[33]为回应上述实践发展之需要,保护个人权利,严格责任的适用范围被不断扩大,产品责任、危险作业、核污染、机动车交通事故等都是其产物。过错和无过错的二元规则体系在世界范围内逐渐形成,在事实上形成了以追问因果为主,以特殊保障为辅,并要求公平正义的责任原理体系。

总结上述过程,我们可以发现,侵权责任法的演变与社会实践和人之主观需求息息相关。从早期的报应主义到后来的过错归责再到现代社会的无过错归责,侵权责任的基本原理发生变化的缘由是:一是对“人”的认识发生了变化,后文对此将有详细分析;二是人类生活实践的范围愈来愈广阔,不断扩张的生活实践使人类面临的侵权问题越来越多,因而侵权法理论也在实践中不断发展;三是人类交往的方式发生了巨大变化,从早期的人与人之间的交往到现代社会的通过他物的中介交往,导致了不同的交往方式要求不同的侵权法理论,进而形成了现有的侵权法原理体系。由此可知,人工智能产品的侵权行为仍然可以归入现有的侵权法体系当中,既没有导致侵权法理论的变革,自然也就无需新的、特别针对人工智能产品侵权行为的法律体系的建构。

(三)从实践维度来看,人工智能技术的发展尚未深刻影响社会关系的变革

人工智能产品要能对侵权责任的分配理论形成革命性的影响,就必然需要对社会关系有重大影响。但是,无论是当前人工智能技术发展的阶段和水平,还是人工智能对社会关系的影响,都尚未呈现变革性趋势。

第一,人工智能作为实践技术,目前尚处于发展的初级阶段,对社会的影响尚处于预测阶段或者理论阶段。人工智能可以被定义为像人类一样思考、行动和合理化的系统[8]。“人工智能”概念首次出现于1956年达特茅斯的人工智能夏季研讨会中,距今不到80年历史。从1950年图灵提出“机器与智能”的概念,到1956年达特茅斯会议召开正式提出“人工智能”这个概念,再到今天人们普遍论及人工智能,70多年的时间里计算机语音识别、图像识别、知识图谱、专家系统等人工智能子系统技术的发展给我们的生活带来了翻天覆地的变化。有计算机专家预测到了人工智能技术发展的迅猛性,英特尔(Intel)联合创始人戈登·摩尔(Gordon Moore)于1975年提出了“摩尔定律”(Moore’s Law),计算出全球最大计算能力每两年翻一番。这意味着它会呈指数级增长,人工智能发展的奇点将在2045年左右出现。按照这样的发展速度,人工智能技术发生重大突破,迈入人工通用智能(AGI)①、甚至人工超级智能(ASI)②指日可待。在AGI时代,人工智能知识水平和思维方式与人类相差无几,二者处于同一水平;ASI时代,人工智能则在各个方面都优于人类,对人类地位提出了挑战。基于技术发展前景,赋予人工智能法律地位是必要的,因为未来的人工智能可能具备人类所有的能力甚至高于人类。但是就目前而言,人工智能技术显然处于初级阶段。我们当前所说的或者论及的人工智能,与其说是“智能”,毋宁说是初步的“自动化”。换言之,当下我们所呈现出来的人工智能技术与真正的智能相比,还有一段很长的路要走。因而,现阶段的人工智能技术水平还不足以深刻影响社会。哪怕是人工智能驾驶已经成为现实,或者哪怕是人工智能驾驶主导了所有的驾驶市场,但是基于驾驶所导致的侵权责任归责并不会产生重大的变化。

第二,作为技术的人工智能,其发展道路并非一路高歌猛进,而是曲折中前进,这意味着人工智能技术的发展困难重重,要实现人工智能的重大突破或许还需要较长时间。第一代AI研究者中不乏对人工智能发展过度评价者。就计算机下象棋这一技术发展而言,赫伯特·亚历山大·西蒙在1957年预言十年内计算机下棋程序可以击败人类,明显未果[34]121。约翰·麦卡锡在1968年和象棋大师列维十年之赌,最终仍是人类胜利。在这几十年间虽然机器下棋的胜率不断提高,但人类总有棋高一筹者。直至1997年IBM的“深蓝”击败世界冠军俄罗斯特级大师斯帕罗夫,计算机下棋才开始反超人类。马文·明斯基也曾在1968年提出“30年内机器智能可以和人相比”。但1974—1980年迎来了人工智能技术发展的第一次低谷。后来,康奈尔大学的实验心理学家罗森布拉特在一台IBM-704计算机上模拟实现了一种他发明的叫做“感知机”的神经网络模型,这个模型可以完成简单的视觉处理任务[34]103。这引起了人工智能-神经网络研究的大流行,美国国防和海军部资助了罗森布拉特的研究项目,媒体也不断夸大这一研究结果。直到马文·明斯基和西蒙·派珀特撰写的《感知机:计算几何学》提出罗森布皮特的神经网络模型的研究缺陷,神经网络模型研究的热度慢慢降低,政府也逐渐停止项目资助,神经网络研究进入长年“寒冬期”。对技术的盲目乐观是有迹可循的,近年人工智能的迅速发展是过去70年人工智能研究积累的爆发,推动ANI③的出现和急速发展。但从ANI到AGI直至ASI,不是量变的简单累积,而需要完成质的飞跃。目前,科学人工智能界几乎达成了一个共识,即在现阶段不可能对人工智能的未来做出明确的预测,这仅仅是因为我们离创造人工智能还很远,更不用说理解它的含义了[35]。人工智能的这种曲折前进,也说明智能技术尚处于初级探索阶段,对社会的影响力有限;哪怕现阶段的人工智能技术在我们看起来可能是“变革性”的,但是仍然没有触动社会发展的深层动脉。

第三,作为技术的人工智能,仅仅是以技术的形态影响社会生活,尚未完全导致社会关系的重大变革。从侵权责任的发展史可以发现,导致侵权责任从结果责任到过错责任,从过错推定责任到无过错责任,主要缘由是经济社会进步,对人类的认知能力、风险预防能力、权益保护能力等问题的认识越来越深刻。换言之,经济社会的发展导致了行为方式的变化,进而导致了社会关系的变革,所以侵权责任的分配方式就发生了相应的变化。在侵权责任归责原则以及分配方式的变革方面,起到重要影响的是社会生产方式的变革,而不是某一项科学技术的进步。人类历史上有过无数次科学技术的进步,从钻木取火到牛顿第一定律的发现,从蒸汽机的发明到计算机的发明,都对人类社会的生活造成了无法想象的影响,它们也一度是那个时代最标志性的发现或者发明,其对人类的福泽也一直延续至今。但是从本质上说,它们都只是以技术的形态影响社会生活,而没有直接深刻影响社会关系的变革,因而就不会对法学的发展变化有重大影响,自然也不会直接影响侵权责任的分配方式。虽然现代法律体系的建构和形成与经济社会的发展有密切的关系,但是科学技术的发展唯有直接影响到人的行为方式的时候,才可能影响法律体系的变革。哪怕是人工智能可能在将来完全取代我们的“工作”,但是它们并没有取代“人”。因此,已经过时的是工作,而不是人;将要过时的是工作,也不是人[36]128。所以,如果仅仅是从人工智能技术的角度来反思单一的法律问题,或许它会促进某个法律领域的拓展,但并不会带来学术领域问题的根本性重构(比如对侵权责任归责原则的挑战)。然而,可以预见的是,如果人工智能技术的发展真的创造出了一种新型“主体”,并且被人们所认可,那么对于人工智能产品的归责以及责任分配问题的理论就需要重新讨论了,因为人工智能作为法律责任主体与人作为法律责任主体始终存在作为“肉体的人”与“作为机器的人”的差别。当然,需要警醒的是,回想人类历史,同样是作为“人”,奴隶为了获得法律主体资格,抗争了无数岁月;黑人为了获得法律主体资格,也抗争了较长历史;即使在今天,平等的法律主体之间依然存在歧视。“机器人”获得法律主体资格,恐怕并非一帆风顺的事情吧!因此,人工智能是否能动摇民事侵权责任分配,取决于人工智能技术的实践发展,特别是能否发展到前文所说的AGI阶段,也取决于人类自身对未来的那种高科技发展境界的接受程度,但是那都是“未来”的事情。

五、新兴科技引发法理变革的耦合因素考量

目前人工智能尚未真正引导法理论的变化,并非说人工智能不能引导法理的发展与进步。并非任何科学技术的发展,都会必然带来法理论的历史性演进。换言之,科技的发展仅是法理变革的因素之一,但是并非唯一因素。不可否认的是,很多法理论的变革都是科学技术的变革引起的。回顾科技和法律的发展,新兴科技要能够深刻地影响社会进而影响法律领域的变革,导致新的法理论诞生,还必须具备多种耦合性因素,包括新兴科技发展改变人们对事物科学规律的认知、直接回应法律实践需要以及促进社会关系的重大变化等,从而形成理论变革的合力。

(一)新兴科技发展改变人们对事物科学规律的认知

新兴科技往往通过新的科学认知引起新的法律认知,从而引起法理论的变化。虽然人类社会的高度繁荣也带来了高度的分工,但这并没有成为不同学科、研究领域之间交流新兴研究成果的障碍。相反,不同学科在各自研究领域的重大突破往往会引起其他学科知识的勃兴,法律和科技也不例外。有学者曾指出:“作为生产力要素的科技指自然科学与技术。自然科学指关于各种自然现象及其规律的知识体系。技术泛指根据自然科学原理和实践发展而成的各种工艺操作方法和技能。”[37]130新兴科技既包括具体技术工具的突破,也包括科学理论的创新,而无论是技术还是科学理论的创新,往往都反映了人们对事物科学规律的认知。这可能改变人们对法律的新认知,引起法律意义科学因果关系的发现,并促使法律对人们的行为规律做出新的规范,推进法律制度的规范化与科学化。

第一,新兴科技发展引起人们对法律的新认知。传统的法律认知往往局限于特定的视角,新兴科技发展就很容易突破传统视角的窠臼,引导人们产生新的认知,从而影响法理论的变革。以博弈论为例可以充分说明这个问题。博弈论被认为是20世纪经济学的最伟大成果之一[38]3。具体来讲,具有竞争或对抗性质的行为称为博弈行为。在博弈行为中,参与主体的利益倾向或者追逐的目的有差异。为了各自的利益需求或者目的差异,参与争斗的主体就会考虑各种可能的方案,进而从多元方案中选择一种自己认为最合适的方案。博弈论就为如何寻找这个最优化的方案提供理论依据。博弈论的研究为人们理解法律提供了新的视角,我国著名经济学家张维迎教授提出:“过去的观点认为法律是有意识地由政府设立的,现在的研究认为大部分法律都是自发形成的。很多法律都是由规范变来的。美国普通法的演变是一个典型的例子。它是各个参与人长期博弈的一组均衡,是长期演变的结果。”[39]381-394博弈论的研究表明,不同的人有不同的立场和利益,人们的行动决策会受到对他人行为预测的影响,这改变了人们对法律是由立法者单方面颁布和实施的认知,引起人们对法律的新认知。而且,这样给了立法者们警示,立法过程必须双向交流,从而实现法律的最大程度的可接受性。可见,无论我们如何界定法律的地位,法律作为社会知识体系中的一部分,无法避免地受到其他领域知识的影响,这也为法律的进步提供了源源不断的知识力量。

第二,新兴科技发展促进法律意义上科学因果关系的发现。科学因果关系的发现会促进法律发展,正如苏力所说:“古代世界各国的许多荒谬的法律制度和责任分配制度之所以发生,一个很重要的因素就是因为当时的人们对事物的因果关系缺乏科学的理解,甚至是无法获得科学的理解……随着人类无数次错误地认定因果关系,人们逐渐累积起一些科学的因果关系判断,因此,法律制度也随之发生重大变革。”[40]历史上人以外的对象,如动物、非生命体等都曾是刑罚处罚的对象。而且,历史上人类对动物的判罚在程序上几乎与对人类的判罚一样。“它们被带到法庭——家养动物被带到世俗法庭,野生动物被带到教会法庭。在那里,它们被正式传讯,由律师代表出庭、审判、无罪释放或定罪—如果罪名成立,它们将受到惩罚。”[41]52这时人们认为动物的本能行为或非生命物体与客观上的违法结果具有因果联系,没有区分自由意志下的行为与本能行为之间的差异。后来,人们发现自由意志是人类特有的品质,法律处罚动物的本能行为与非生命物体并不能形成法律意义上的因果关系,在自由意志支配下的犯罪行为才具有可罚性。这一发现导致了现代责任理念的重大转向,并逐渐形成现有法律责任制度。直至今天,我们在探讨人工智能的主体责任之时,也必须坚持这种观点和理论。如果人工智能尚未产生自由意志,那么它们依然不是独立主体,自然也不可能独立承担法律责任。

第三,新兴科技发展促进了法律制度的科学化与规范化。在科学的理论没有产生之前,很多法律事务,包括制度,都是经验的产物。新兴科技的发展,为法律制度的科学化和规范化提供了理论指南。以保险法中保费的计算方法为例,为保险和养老金设置保险费,刚开始是一件凭经验的猜测而不是计算的工作。使用统计学制定保险费是在17世纪60年代才开始的,与概率论的产生是同一时间[42]。数学领域对概率的研究成果促进法律赔偿向着统一化与可计算化方向发展,如侵权责任损害赔偿的计算方式。如今,统一、标准的损害赔偿法律规定已经成为默认的规则,如工伤赔偿、机动车肇事赔偿、专利侵权赔偿、消费者赔偿以及刑法中的国家赔偿等都有法律赔偿标准。这也在客观上促进司法裁判标准的统一化,推动法律制度的科学化与规范化。因此,至少在一定程度上,“由于科学技术的发展,近代以来法官的裁量权缩小了,司法不得不更为形式化了”[40]。

(二)新兴科技能够直接回应法律实践的现实需要

立法意义上的法律规则是静态意义上的法律,但在“纸面中的法”之外还有“行动中的法”。甚至在法社会学的视野下,“行动中的法”更能体现法律的品格,那些无法被落实的法律某种程度上仅仅是一种象征意义,不具备现实意义。人们在运用法律指导具体实践生活时(包括司法实践活动),面临着正确认识客观世界以及人类社会沟通的难题。此时技术工具和科学理论作为思想与行动的桥梁,帮助人们实现法律指导下的生活。因此,新兴科技若能直接回应法律实践的现实需求,便对法理论意义重大。此外,司法实践中,在“纸面中的法”转变为“行动中的法”这一过程中,常常因为客观条件的限制导致二者之间存在落差。实践中,新兴科技往往因为解决了法律实践中的难题,推进法律以及法理论的发展。

第一,新兴科技通过解决法律实践的难题而变革法理论。从某种意义上说,纸面上的法律是一种抽象化且理想化的法律生活,是一种法律的应然状态。真实的法律生活,比纸面上的法律要复杂得多。比如,面对纷繁复杂的世界,如何辨别、提取出法律事实是法律实践中的难题之一。实践中,法律事实的提取受人们认识客观事实能力的影响。我国《刑事诉讼法》第二条规定“中华人民共和国刑事诉讼法的任务,是保证准确、及时地查明犯罪事实,正确应用法律”,明确法律适用应以犯罪事实的查明为基础。实际上,人们查明犯罪事实的能力与技术发展紧密相关。以清代刑事技术为例,法医学检验尸体仅检验尸表,而不进行解剖,这导致当时的法医学知识存在错误之处。如我国现代医学奠基人林几教授指出:“按吾华《洗冤录》旧法:谓取净水从头骨后下方之枕骨大孔细细斟灌。如能自鼻窍流出泥沙,便是生前溺死之证。经本人多次实验此法诚不可靠。凡腐败已行骨化之尸体鼻软部已经消失者,在鼻甲解部极易窜藏泥土。且生人之鼻孔后部亦往往容有少量泥垢。故由枕骨大孔冲水,而自鼻孔流出泥沙,安足视为死前吸进溺死液之根据。”[43]251错误的技术认知一旦被类型化应用,就会影响法律事实的提取,并容易引起冤假错案。这恐怕也是古代刑事审判程序中注重案件当事人口供的原因之一。当技术还原客观事实的水平较低时,被告人口供是可获得的还原案件事实的主要证据。但是口供是否能达到还原案件事实的效果?经实践检验,虽然一些案件的破解确实依赖口供,但获取口供过程中使用刑讯逼供等手段更容易引起冤假错案。现代刑诉法体系中,虽然被告人口供仍是刑事诉讼的主要证据类型之一,但随着刑事技术提取客观证据的能力大大提高,物证、书证、鉴定意见等其他证据的证明力越来越高,口供在刑事诉讼中的地位也就慢慢降低。这也在技术层面推动了刑法“禁止刑讯逼供”原则的可操作性,有力地影响了现代刑事司法观念和文明的形成。

第二,新兴科技的应用形成了新的法律实践方式而变革法理论。在历史变迁中,法律可能作为一种传统而存在,特别是一些具体的实践方式,长期以来都在影响人们的法律生活。而科技的发展,则可能使得在原有的法律生活之外,出现新型的法律实践方式。比如20世纪互联网技术的诞生和应用引起了司法实践中一种新型证据类型——电子数据的诞生。为迎合这种新型的证据类型,我国《民事诉讼法》等法律都明确认可了“数据电文”的法律地位,即“不得仅仅以某项信息采用数据电文形式为理由而否定其法律效力、有效性或可执行性”[44]。2004年,我国首部信息化法律《电子签名法》也明确规定“数据电文不得仅因为其是以电子、光学、磁或者类似手段生成、发送、接收或者储存的而被拒绝作为证据使用”,并建立了符合法律法规要求的数据电文保存标准[45]。再如,随着信息技术的进一步发展,区块链技术的成熟与应用有望扭转司法实践中电子证据的这一尴尬境地,进而引起证据法理论的变革。肯定区块链技术在数据收集、固定中自身具有的防篡改特征,并将此种技术特性转化为法律意义上的真实性,即区块链基于自身的技术特征实现了自我信用背书[46]。这大大缓解了司法实践中由于传统电子数据不稳定、易篡改、可复制性等特征而引起的证据真实性难以判定的困境。

(三)新兴科技发展能够直接促进社会关系的重大变化

社会关系是人与人之间关系的总称。从主体层面可以分为个人之间的关系,个人与群体之间的关系;从内容层面看涉及政治、经济、文化等多个方面。法律对人与人之间关系的规范,也构成社会关系的一部分。社会关系稳定,特别是社会关系的主体稳定,那么法理论也可能稳定;社会关系变革,特别是社会关系的主体变革,那么法理论就容易迅速变革。

第一,新兴科技发展产生了新的生产生活方式。生产生活方式是一定时间内的人们固有的生活模态。生活模态改变,法律生活才可能改变。比如,能源技术革新引发的工业革命,改变了人类社会的生产方式,社会生产组织从小作坊式生产转为工厂型生产,引发大量人口从农村流向城市。这也引起了现代法律关系从身份向契约的转向,改变了传统社会中以主要血缘为基础构建的身份法律关系。在典型的“陌生人”社会中,越来越多的人通过契约形成人与人之间的法律关系,展开社会关系。需要注意的是,并非所有的新兴科技都能引起新的生产生活方式。如今新兴科技几乎每天都在出现,但大多是现有技术的改进而非突破,并没有产生新的生产生活方式,相应也就没有引起新的社会关系。如在我们日常生活中占据重要地位的电子产品手机、便携式电脑等,虽然这些电子产品的更新换代越来越快,但我们不能判定其改变现有法律关系,因为它没有涉及法律关系的主体、内容或客体的改变,也没有引起社会关系的变化。但是,倘若有一天人工智能突破现有技术,进入AGI或者ASI时代,则极有可能引起法律关系的重大变化。因此,引起法律关系重大变化的新兴科技一定是重大科学发现或技术突破,这也说明了他们的出现需要时间的积淀,而不会常常发生。

第二,新兴科技发展产生了新的社会关系主体。上文已经指出法律关系是社会关系的一部分,法律是人类社会发展的产物,其主要功能在于满足主体的法律需求,即满足人与自然或人与人之间的规范需求,因此法律主体也是社会关系主体。但社会关系主体却不一定都是法律主体,如从前法律并不承认奴隶、未成年等的法律主体地位。此外,法律虽然建立在人们对客观世界认识的基础上,但法律并非人们凭空想象而来,要受客观条件的限制和指导,不同民族法律的差异就是表现之一,不同的自然条件、技术水平等客观条件孕育了不同的法律规范与法律文化。如能源技术变革大大提高了生产力,可交换商品的大幅增长促进了商品经济的繁荣。由于商品交易的旺盛需求,促使法律最终确定有限责任公司和股份有限公司制度,从而导致社团法人完成了向以财产独立、责任独立和“他营机构原则”为基础的高级法人形态的转化[47],并产生了新型法律关系主体——有限责任法人主体。此后,各国纷纷立法保障法人的法律主体地位。在法律制度保障的基础上,法人如今成为构成社会生活中最常见的社会主体之一,有限责任法人制度反过来又促进了现代社会科技与经济的繁荣发达。

第三,新兴科技发展带来了新的社会问题。社会问题是促使法律形成的重要原因,也是法律存在的根本因素;如社会问题发生了变化,则法律有可能变化;若产生了新的社会问题,则相应的法律也会产生。历史上,新兴技术及发展带来了许多新的社会问题,因而产生了许多新的法律。如工业革命以来能源技术的革新引起了人与自然法律关系的重大变化,促成了环境法的兴起。从蒸汽机、内燃机到原子能等一系列能源动力技术的不断突破大大提高了人类改造自然的能力,但也引起了大规模的生态破坏与环境污染。这促使各国联合起来寻求环境保护的法律合作,通过了《气候变化框架公约》《维也纳公约》《巴塞尔公约》《联合国海洋法公约》等一系列环境保护公约。环境保护在各国国内法也逐渐占据越来越重要的地位,成为各国法律关系中的重要内容。但是,并非每一技术工具的革新都能带来新的社会问题,引发社会关系变化。那些没有回应法律发展实践需要的技术革新虽然也需要法律的调整,但不会引发新的社会问题。如3D打印技术成熟之后,也曾出现有关3D打印引发的著作权问题的讨论。虽然3D打印是全新的技术,但它实现的是造型从平面到立体的再现,而著作权法的理论、规范和实践早已对此进行了清晰的界定。因此,3D打印技术虽然看似是一项具有突破性的技术创新,但打印技术的著作权问题已经有了较为清晰的界定,因而也就没有引发法理论的新思考[48]。

综上所述,新兴科技要引起法理论变革需要满足改变人们对事物科学规律的认知,回应法律实践的需要,促进社会关系变化等耦合因素。但以上因素只是我们回顾科技和法律发展历史的尝试性论述,探寻新兴科技与法理变革的深层联系还需要更多后续的工作。

结 语

对人工智能产品民事侵权责任的讨论是法学回应新兴技术发展、回应可能挑战的表现之一。对新兴技术是否需要新的法律这一问题,我们需要追溯法律发展历史进程寻求经验,重新审视法律主体资格并回归技术实践仔细考量。对于某种新兴科技的发展予以深切的关注是必要的,但是如果动辄认为某种技术的发展会带来法律体系的变革则过于“敏感”。因此,对于学术而言,特别是对于法学学术而言,“让子弹飞一会”并不会挑战或者彻底颠覆现有的法律体系,更难以从根本上颠覆目前已经基本成型的法律制度和法律观念。我们可以对未来进行深刻关注,但是不必忧虑,因为未来会怎么走,并不是现代人能够规划的。历史肯定不会按照今天的人类轨道推进,它有自身的逻辑曲线和众多变量。此外还需要注意的是,追寻技术发展与法律规制之间的关系史时就会发现,如果过早对新兴科技的发展进行法律介入,激进的法律规制路径就可能会打击这一尚处初期的技术行业。正如一些学者所言,“科学人工智能界几乎达成了一个共识,即在现阶段不可能对人工智能的未来做出明确的预测,这仅仅是因为我们离创造人工智能还很远,更不用说理解它的含义了”[35]。一个发展前景尚不明确的技术,需要我们耐心等待,待迷雾散开后,再见分晓。

注 释:

① AGI代表“人类水平的人工智能系统”,计算机在各个方面都和人类一样聪明,能够执行人类所能完成的所有智能任务。AGI被期望能够解决不同领域的各种复杂问题,并具有自主控制的能力,包括自己的思想、担忧、感觉、优势、弱点和偏好。See Goertzel B, Pennachin C.Contemporary approaches to rtificial general intelligence.In:Cognitive technologies.Rockville:Springer,2007.

② ASI代表人工智能在几乎所有领域,包括科学创造力、一般智慧和社会技能方面,都比最优秀的人脑聪明得多。See Bostro-m N.How long before superintelligence? Linguistic andPhilosophical Investigations 2006,5(1):11-30.

③ ANI是一个专门从事某一特定领域的人工智能,See Paulius Cerka , Jurgita Grigiene, Gintare Sirbikyte :Liability for damages caused by artificial intelligence,computer law & security review 31 (2015) 376-389.

猜你喜欢

主体责任人工智能
论自然人破产法的适用主体
使命在心 责任在肩
每个人都该承担起自己的责任
2019:人工智能
人工智能与就业
技术创新体系的5个主体
数读人工智能
下一幕,人工智能!
关于遗产保护主体的思考
怀旧风劲吹,80、90后成怀旧消费主体