APP下载

权利视阈下的人工智能法律主体地位

2019-02-19

上海政法学院学报 2019年4期
关键词:人格权利主体

袁 曾

人工智能法律地位是确立人工智能权利、义务、责任的基础。①参见彭诚信、陈吉栋:《论人工智能体法律人格的考量要素》,《当代法学》2019年第2期。弱人工智能时代人类仍是世界的主宰,自然人是规则的制定者以及人工智能的服务对象。当人工智能可以深度学习与情感交融、进行协同行动时,特别是强人工智能可以脱离原定程式衍生新的算法时,人工智能的属性就已经发生了改变。②参见[美]约翰·弗兰克·韦弗:《机器人是人么》,刘海安等译,载彭诚信主编:《独角兽法学精品·人工智能》,上海人民出版社2018年版,第2页。对于人工智能的法律地位,学界一直存有较大争议,“客体说”认为,机器人仅仅是权利的客体③参见杨立新:《人工类人格:智能机器人的民法地位——兼论智能机器人致人损害的民事责任》,《求是学刊》2018年第4期。,“电子人格说”提出,为机器人创设一个特殊的法律地位。④2017年2月16日,欧盟议会以396票赞成、123票反对、85票弃权,通过《欧盟机器人民事法律规则》,有关机器人电子人格的内容规定在第59条(F)款。由于人工智能具有何种法律地位特别在是否具有法律人格的问题上一直未有普遍性的结论,影响了技术正向发展的速度。有学者明确提出,阻碍人工智能发展的是法律问题,而非技术问题。⑤参见陈敬根:《海事安全目标导向型公约:生成发展与我国应对》,《法学杂志》2018年第12期。从根本上讲,法律的目标是规制技术的可靠发展。因此,明确人工智能的法律地位,是必须厘清的关键问题。

一、否定人工智能法律主体地位的论据

法律主体地位缺位,阻碍人工智能发展,但已有众多学者对人工智能的法律主体地位的观点持坚决的否定态度。有学者提出,人是无法作为权利客体的同时成为他人权利的支配对象,而人工智能若具有法律主体地位享有权利,则与其需要受到人类支配的事实不符。①参见王利明:《民法总则研究》,中国人民大学出版社2011年版,第86页。对域内外已有学术观点进行梳理,否认人工智能法律主体地位的主要依据有以下几个方面。

(一)人的本性包含主观欲望

人的特征在于本性。法学家边沁提出,作为法律主体的人必须是欲望的人,欲望的人才能够负担利益,法律通过对人的快乐和痛苦的分配和操控以实现社会的秩序。②参见[英]边沁:《道德与立法原理导论》,时殷弘译,商务印书馆2000年版,第90-91页。范伯格认为,人的欲求必须被挑选,并赋予其优先地位,当此类欲求被法律承认并受到保障时,就形成了权利。③参见[美]范伯格:《自由、权利和社会正义——现代社会哲学》,王守昌、戴栩译,贵州人民出版社1998年版,第31页。由于合法化的欲望一直存在,对于权利的要求也就应接不暇。④参见[英]科斯塔斯·杜兹纳:《“人权的终结”六论》,江兴景译,《法学家》2009年第2期。但是,人工智能所具备的技术理性完全排除了欲望等主观因素的影响,将自然人所具有的主观能动心智活动数字化,人工智能完全不同于人类的主观心智,没有欲望的主体无法负担利益,因此无法成为适格的法律主体。从反向角度推导,若人工智能具备法律主体的地位,其应当享有权利义务,则人类在使用人工智能时是否需要人工智能的许可?人的主观心智有两项基本特征——感觉和欲望。基于此,人类才成为具有意识的生物,虽然人工智能计算与应用能力强大,但缺乏感觉与欲望。⑤参见[以色列]尤瓦尔·赫拉利:《未来简史——从智人到神人》,林俊宏译,中信出版集团股份有限公司2017年版,第96页。因此,人工智能无法获得法律主体地位。

(二)人具有社会性

费尔巴哈提出,只有社会人才是人。⑥参见[德]路德维希·费尔巴哈:《费尔巴哈哲学著作选集》(上卷),荣震华、王太庆、刘磊译,商务印书馆1984年版,第571页。人工智能具有部分人的特征,如通过数据的收集、分析、运算,通过逻辑的规则寻找计算机认为的最优解,但是否承认人工智能的法律地位需要依据特定的法律目的⑦参见吴习彧:《论人工智能的法律主体资格》,《浙江社会科学》2018年第6期。,不能因为人工智能仅仅具有自然人法律主体的部分特征,就认可人工智能的法律地位。自然人法律主体的地位是为了获得社会性,基于人的上述特征,可推导出一系列处理人工智能问题的法律原则。比如,在对待人工智能创作内容的法律地位问题上,依据“额头出汗”的原则,明确著作权归属人工智能设计者⑧参见袁曾:《人工智能法律人格对专利判断规则的影响》,《上海法治报》2018年8月29日。,而无论人工智能创作内容是否符合现行著作权法下的独创性标准。

(三)人工智能不具有理性

哈耶克认为,理性是人类最宝贵的天赋。⑨参见[英]哈耶克:《自由秩序原理》,邓正来译,生活·读书·新知三联书店出版社1997年版,第80页。现代法学的通识观点,认为法律主体应当是理性的。⑩参见龙卫球:《民法主体的观念演化、制度变迁与当下趋势》,《国家检察官学院学报》2011年第4期。民法上的主体是理性的人,是指人能够根据情势不同做出自己的选择并对自己的行为负责,而一系列法律制度的设计也基于此而来。例如,“谨慎注意义务”需要存在理性人的期待可能性,①参见杨红军:《理性人标准在知识产权法中的规范性适用》,《法律科学》2017年第3期。基于此,无民事行为能力人的责任能力是受限制的。从人工智能运算的机理与做出选择的角度分析,人工智能通过运算能够获得类似于理性选择的结果,但运算无法等同于理性,该选择并非人脑的理性决策。人工智能并无法满足现行法律体系下对于理性所要求的独立的意思表示能力、权利行为能力等特征要求。虽然部分人工智能已经能够做出合理的价值判断与合适的行为动作,但这并非法律主体所要求的理性。人工智能创设的目的是为了遵守法律,而非理解法律。法律概念的设置就是为了调整社会结构下的人而形成的,只有理性自然人才能准确理解权利与义务的区别,预设理性的意义是为了确立人行为的普世标准。虽然有些观点认为由于人工智能可以做出类似具有独立意思表示的行为②参见袁曾:《人工智能有限法律人格审视》,《东方法学》2017年第5期。,但技术手段本身并不能回答原因问题,将结果混淆为原因是一种谬误。③参见[德]尼采:《偶像的黄昏——或怎样用锤子从事哲学》,李超杰译,商务印书馆2009年版,第39页。人之所以能够成为法律制度下的适格主体,就在于其区别于万物的理性能力。人工智能虽然具备高度的技术理性,但这种理性的基础是逻辑规则,而非人类所具有的从经验中获得的主观理性。同人类理性相较,技术理性包括以下3个重要特征:一是客观世界不以人的意志为转移,规律和现象是客观存在的;二是人类能够透过现象触摸到本质;三是人类通过把握客观规律获取幸福。④参见龙文懋:《人工智能法律主体地位的法哲学思考》,《法律科学(西北政法大学学报)》2018年第5期。囿于人工智能自身具有的技术属性,法律无法对其自身行为产生过多影响,而需要通过人工智能背后的设计者、生产者、使用者、保险人的责任规制解决责任分担的核心问题。例如,法律不可能采用设定无人驾驶汽车过失赔偿责任机制,以尝试提高其中央处理器在行驶时的注意水平。其责任规制的目的最终是为了实现设计者与生产者在制造人工智能时的注意义务,实现不断提高人工智能水平的客观效果。

(四)人工智能不具有意志

人工智能作为人类工业革命以来最为强大的智慧结晶,不可避免地造成侵权结果,例如,无人驾驶汽车肇事可能造成人员伤亡。那么,人工智能实施伤害行为的刑事责任主体是谁,对于人工智能是否具有独立承担的刑事责任能力,学界大部分观点予以否定。通过刑罚对人工智能客观行为引致的法益侵害加以惩治的观点,采取的是刑罚客观归罪的标准,但缺少对于主体意志自由方面的考量。追寻刑罚的正当性必须审视刑法本意,现代刑法在犯罪构成认定上,必须考虑主客观相统一的认定标准,既需要考虑行为造成的客观法益侵害后果,也要考虑主体的主观心理。现代法学对主观标准的判定提出了多种考量因素,而独立意志是其中的重要判断因素。柏拉图、亚里士多德均提出了人的行为意志自由。尼采认为,人的独立,体现在人有能力自主做出重要决定并执行,同时认为此行为是可行的。⑤参见[美]约翰·弗兰克·韦弗:《机器人是人么》,刘海安等译,载彭诚信主编:《独角兽法学精品·人工智能》,上海人民出版社2018年版,第2页。既然犯罪是人意志的体现,缺乏意志便构不成犯罪,不具有科处刑罚的本质。⑥参见[德]黑格尔:《法哲学导论》,范扬、张启泰译,商务印书馆1996年版,第103页。缺少能力对自身决定与行为做出评价的个体,无法成为法律意义上的人,也就无法承担责任。这是现代法理下无民事行为能力人与野生动物,无法以刑法调整其行为规范的原因。

人工智能与传统计算机最大的区别在于具有自主学习的能力,通过数据的搜寻与利用,可以产生类似人类感知外部世界的效果,而对数据依据一定规则处理的逻辑也具有人类意志的表象。但人工智能缺少对其外在行为的理解,即无法感知其行为所造成的客观影响。刑法只能对具有社会评价意义的目的性举动加以要求或者禁止①参见[德]汉斯·韦尔策尔:《目的行为导论——刑法理论的新图景》,陈瑛译,中国人民大学出版社2015年版,第6页。,因此无法符合刑法意义上的意志自由。产生刑事责任的前提在于要求主体对于法律规范具有认识理解的能力,同时具有在选择实施具体行为时的意志力。但如前文所述,人工智能既没有对于法律的理性意志自由,也无法参照法律规定执行自身行为,无法形成对于主体按照法律规定行事的期待可能性。当发生侵犯法益的客观结果时,人工智能不具有责任能力,其需要通过责任分配以使得其他真正主体承担后果。人工智能造成的法益损害应当归于技术缺陷,而其本质则是辅助人类生产生活的工具,当出现目的偏差时,由其他意志自由的主体承担相关责任。

二、人工智能权利能力证成

从自然科学的视角分析,人是由各种不同复杂器官组织构成的复杂系统,从生物学角度分析,属于灵长目人科人属的物种。但哲学与法学视域下人的含义却有更为丰富的内涵。从马克思主义哲学的观点出发,劳动将人与动物等其他物种区分开来,劳动是人与他物的本质区别。如果仅仅从可以劳动的角度分析,人工智能早已可以替代人类从事繁多的体力与脑力劳动,从本质属性上具有了一定人的特征。虽然动物经过驯化也能够从事一些体力劳动,但这种机械性劳动与人工智能自我思索寻求最优化解决方案的过程不同,人工智能的劳动与人类的创造性劳动在结果上并无本质区别。

从法学的角度分析,法律创设的法律主体或人的概念并不完全等同于现实中的人,法律主体是具备法律权利与承担法律责任的主体。②参见[德]卡尔·拉伦茨:《德国民法通论》(上册),王晓晔、邵建东等译,法律出版社2003年版,第57页。《德国民法典》第43条在明确法人人格时,确立了权利能力的概念。从法理分析,自然人所具有的特性中,法人这一拟制主体仅具有权力能力的单一特性。自然人的权利能力来源于理性与意志,天赋人权、人人平等,法人的权利来源于法律的创设。设定权利能力,使得自然人与法人在权利和义务上达到了同等地位。③参见周清林:《主体性的缺失与重构:权利能力研究》,法律出版社2009年版,第90页。

(一)由权利溯源推导权利能力

从宪法到部门法,权利是人保护自身法益的依据。④从概念分析,权利是指法律明确规定或暗含的,在法律关系中实现,并以相对自由的作为或不作为的方式,以获得利益。权利是资格、行为的自由以及意志自由,通俗地表述就是法律允许法律主体为或不为的设定,是对社会结构利益关系的法律表达。⑤参见谢晖:《论新型权利生成的习惯基础》,《法商研究》2015年第1期。人工智能的广泛应用,已经形成了事实上需要被确认的诸多权利,特别是被遗忘权、数据信息权等虚拟性权利。《民法总则》已经确认了数据具有财产性,而法律主体借助虚拟权利才能够实现对于虚拟信息、数据、财产的占有、使用、收益、处分的权利。人工智能将在事实上加快数据的流动,同时又将引致人工智能与其他法律主体间关于数据运用等虚拟与实体权利的冲突。当人工智能的发展尤其是强人工智能的全面应用,将直接改变自然人与人工智能的实力地位对比,由此产生人工智能权利衍生的基础,但仍然无法改变人工智能作为工具而无法成为人的本质属性。法律主体制度的范围扩展反映的是法律观念、法律价值的动态变化,法律主体与社会性、伦理性的结合只是近代法律的产物。①参见张作华:《法律人格的伦理变革——来自罗马法又回到罗马法》,《西南政法大学学报》2007年第6期。随着社会的不断发展,法律主体的范围不断发生动态变化。在美国“色拉俱乐部”案中②Sierra Club Case.405 U.S.at 741-43,749(1972).,有法官对动物的法律主体地位否定提出了异议,格拉斯法官在判决附带意见中分析,应当为森林、河流、动物等特殊自然物赋予法律主体资格,给予其表达权利的地位。在人工智能时代,社会性或伦理性已无法成为人工智能成为法律主体的必要条件。③参见许中缘:《论智能机器人的工具性人格》,《法学评论》2018年第5期。因此,由天赋人权的自然法理念论证人工智能权利的正当性缺乏依据,但通过法律的技术选择不失为实现法律目的做出的正确价值选择。

(二)法律拟制为人工智能赋权提供可能

如前文所述,法人等拟制法律主体资格的出现,为人工智能等人类创造物的赋权提供了可能。法人的出现完全是因为生产关系与生产力达到了一定的发展水平后出现的必然结果,通过将法律技术与经济活动发展的现实结合,最终促进了商品经济的发展。约翰·德威认为法律主体就是承担权利与义务的单位(Unit),法律主体是不断发展变化的,法律基于现实的需求拟制出法人人格就是其本身的异化。抽象是法律人格的本质特征,通过权利、行为能力的抽象,将自然人所具有的不同特征,抽象为法律主体的唯一特征,通过抽象方式消除了个体间的差异,从而推导人人生而平等地享有权利与义务。注释法学派认为,在大多数团体成员以外,独立存在的抽象人格,才使法人得以应用。④参见张俊浩:《民法学原理》,中国政法大学出版社1991年版,第169页。

现代法律体系下,法人拥有民商法下的主体地位,同时享有刑法及行政法等法律主体地位,这符合现代社会的基本组织形式与运行规律。如前文所述,承担刑责的前提在于主体能够意识到其行为的后果并采取具有独立意志的行动。法人运行的关键,是其内部成员意志的集中体现,通过相应决策机构,集中形成意志,并以自身的名义开展活动,从而具备了认知能力以及实施犯罪的能力。⑤参见时方:《人工智能刑事主体地位之否定》,《法律科学(西北政法大学学报)》2018年第6期。对法人科以刑责,实际突破了传统伦理中心下的规则桎梏,提供了法律主体认定的先行范例。法人权利能力基础在于立法的创设,笔者认为,人工智能与法人并无本质不同,穿透人工智能面纱,一定会体现人的意志。与动物、建筑等其他主体不同,人工智能是人类创造的具有自主独立行为能力的主体,其能够根据具体情形做出恰当的选择,但人工智能归根结底仍为人类所用,其最终促进的是人类社会的快速发展,尤瓦尔·赫拉利提出,既然法人可以拥有主体地位,那么人工智能也将必然获得相应的法律资格。⑥参见[以色列]尤瓦尔·赫拉利:《未来简史——从智人到神人》,林俊宏译,中信出版社2017年版,第96页。

“非人可人”恰恰说明了法律承认主体地位是基于现实的需求,因此可认为是法律设置了法律主体的范围。因此,应赋予人工智能以法律主体地位,而非人工智能自行创设法律规范以取得主体地位。现行公司法下,有限公司以其资产承担对外责任,因此法人的权利来自法律的设定,而非独立的意志。从自然人自身的财产权出发,可以反证意志能力并不是权利享有的唯一标准,即使是智商超常的天才儿童,如果未达到民事责任能力,也必须得到监护人的同意才可行使财产权。在现有情势下,人工智能拥有部分财产并承担与法人类似的对外责任,不会对现有法律规范造成大的冲击。

(三)法律主体设定来源于目的共识

拟制的法人概念,其体现的是占大多数的群体意志,这种意志便是作为控制社会话语权的大多数群体基于现实需要形成的共识。法人的设立乃是基于实践的需求,通过限制责任实现自然人规避风险等特殊目的,而并非决定于法人是否具有意志。将是否具备意志能力,作为判断权利能力的基础太过机械,人工智能早已可以在事实上完成较高难度与相当复杂度的工作,很难否认人工智能不具有自己的意志。人工智能的核心大脑是算法,而算法本身就是规则,人工智能关心的是如何操纵数据并得出结论,而不是形成意义。法律主体的判断标准,更不能直接将“权利能力”“责任能力”等现代法律概念直接加于人工智能上,而需要进一步探究第二个关键性问题——法律对人工智能持有的目的究竟是什么? 或者换一种表述,人类究竟享用人工智能实现什么目的?

技术是在已设定目的的前提下追求最优解决方案,技术本身不是目的。无论技术的奇点(Singularity)何时到来,人类对于人工智能的态度才是人工智能能否获得法律承认主体资格的关键,而这种心理态度不会受到法律推理乃至证据的影响。人工智能的外形或运行机理是否同人类一样,并无法形成支持人类达成赋予人工智能权利的心理共识,人类需要形成的共识是基于何种目的对待人工智能。法律主体必须是为法律目的而存在的,这也是马克思所说“不是人为法律而存在,而是法律为人而存在”的根本原因。①参见《马克思恩格斯全集》(第1卷),人民出版社1965年版,第282页。

赋权的共识具有历史阶段性,人类法律体系对于法律主体资格的赋予是不断螺旋上升的过程。甚至直到18世纪40年代,在普通法系下的英国法律仍然认为已婚女性的法律主体资格需要依附于其丈夫。无论是古罗马法下的“人格减等”,还是新西兰近年来授予河流以法律人格②为保护新西兰第三大河流旺格努伊河(Whanganui River)特殊的民族信仰地位,2017年新西兰国会赋予该河流以人格,使得河流具有法人地位,分别由毛利部落和新西兰政府任命的2名人员出任该河的法人代表。,法律主体资格的变化均呈现了不断发展扩大的过程。法律主体地位或称法律人格赋权的设定一定具有其所处历史时段的阶段性。这种阶段性不能以当代法学的观点加以评判,就像古巴比伦法下的奴隶并不符合现代人类社会的共识伦理,但在当时的历史条件下,奴隶没有法律人格是生产力发展水平较低阶段必然需要经历的选择。甚至连哲学家亚里士多德也曾经明确表示,奴隶和妇女是人类,但其没有灵魂、无法参与民事活动,无法成为法律上的人。③参见[ 意]彼德罗·彭梵得:《罗马法教科书》,黄风译,中国政法大学出版社1996年版,第32页。在现代法律主体完全创设之前,人与人的资格能力是森严区分的,其实际是“人可非人”的体现。直到天赋人权、众生平等的原则完全应用之后,法律主体资格不再取决于何种类型的人。民法基于功利主义的视角,确认法人的主体人格,从社会整体利益角度而言,对该类主体类型的承认不会引致负外部性。④参见房绍坤、张旭听:《我国民法典编纂中的主体类型》,《法学杂志》2016年第12期。

法律中的人是立法对于资格的确认或者虚拟,当共识目的的重要性处于社会发展的支配地位就会产生这种确认或虚拟。这种确认或者虚拟并不纠结于人工智能是否具有意志或社会性,而是基于为了人类的共同幸福而承认人工智能拥有权利的共识。德国民法学家安东·蒂堡说过,任何权利主体,只要人们将其称为权利主体时,立即成为法律上的人。⑤参见[德]汉斯·哈腾鲍尔:《民法上的人》,孙宪忠译,《环球法律评论》2001年第4期。这种共识的实现将会直接减少人工智能在大规模应用与社会容纳度之间存在的成本,更加有利地促进人工智能技术的发展与人机关系的协调,从而更加妥善地为人类社会服务。人工智能自身并不会像人类一样产生利己主义的思索或想法,人类基于自身利益的需要,通过使用人工智能产生利他的效果,归根结底是人类利己主义的体现。随着人工智能的活动更为广泛,人机合作的偶合关系会逐步上升为法律关系,以满足人类的利己主义与现实需要。因此,人工智能可以逐步脱离法律客体物的定位,而不断增加法律主体的特征。①Lawrence B.Solum.Legal Personhood for Artificial Intelligences,70 N.C.L.REV.1240(1992).

(四)人工智能权利能力的实现方式

人需要通过群体生活的交往,继承或获得社会品性。②参见[美]约翰·弗兰克·韦弗:《机器人是人么》,刘海安等译,载彭诚信主编:《独角兽法学精品·人工智能》,上海人民出版社2018年版,第2页。但同时兼具类人智力与一定程度自我意志自由的人工智能,已可以完成几乎所有的人类复杂劳动,只是取决于成本的高低。笔者对人工智能被创造的目的是遵守法律,而非理解法律的观点不敢苟同。法律对人工智能的态度,应是鼓励技术的发展的同时有效控制风险。在State Farm Mutual Automobile Insurance Company v.Bockhorst 案中③453 F.2d 533(10th Cir.1972).,保险人的计算机系统基于错误的程序发出了保险更新的通知,原告基于此改变了保险合同,法院判决原告基于信任的行为有效。第十巡回法庭明确计算机程序做出的超出预想的错误后果由保险公司承担,这实际确立了计算机作为独立的主体,已经能够在雇主与客户间形成权利义务。④David Marc Rothenberg.Can Siri 10.0 Buy Your home? The Legal And Policy Based Implications of Artificial Intelligent Robots Owning Real Property,11 Wash.J.L.Tech.& Arts 452(2016).人工智能可以有自主意识做出的理性行为,以人类行为模式为中心,建立相应法律规制体系,并非是完成人身支配的建构,而是简化繁杂的法律关系。

权利能力是解决法律主体资格平等的关键,人工智能的责任承担同样可以实现。若人工智能违反合理义务,需要为其行为承担赔付责任,人工智能在此意义上也具备了相应的行为责任能力。⑤Lawrence B.Solum.Legal Personhood for Artificial lntclligcnccs, 70 N.C.L.REV.1295(1992).人工智能可以通过创设承担经济责任的合法路径,如通过设立相应的责任赔偿基金或投保相应责任险种,当对他人造成损害时以该基金或保险资金进行赔付。⑥Ugo Pagallo.The Laws of Robots:Crimes,Contracts,and Torts.Springer Netherlands,143-144(2013).法律主体界定了法律人格“身份和能力”的基本属性,法律人格的作用一是保证人工智能在权利与义务上的主体资格,二是保护相关精神利益⑦参见吴汉东:《试论人格利益和无形则产利益的权利构造——以法人人格权为研究对象》,《法商研究》2012年第2期。,从已经投入使用的老人陪伴型机器人等实践角度分析,人工智能的广泛使用,必然会产生情感替代效应等精神利益。基于上述论证,法律主体资格的赋予以抽离自然人属性形成的权利能力为最低起点,赋予人工智能以法律主体资格具有理论基础与实践需求,拟制人工智能以法律人格是实现其法律主体资格的必然选择。

三、人工智能拥有的法律人格受限

(一)人工智能享有有限法律人格

从现有法律体系的规制分析,人工智能独立缔结合同、享有财产权、成为权利义务的主体,并不具有法律上的障碍,但必须明确人工智能法律人格的有限性。囿于人工智能的实际特性,这种有限性包含以下几个方面:一是权利与义务的范围有限。人工智能作为具有类人思考能力的特殊工具,虽然能够独立做出意思表示并承担一定的责任能力,但其归根结底仍然是机器的内核,人类所具有的生育、繁衍、婚姻等伦理性权利显然无法加予人工智能,人工智能可以被赋权的范围主要集中在经济型的权利。有关人工智能权利义务的阈值范围,将于下文作详细论证。二是行为能力与责任能力有限。穿透人工智能的面纱,其背后一定体现的是某些人或多数人的意志,深度学习、逻辑运算、类人思考的底线依然是人工智能无法取代人类的位置,否则将对人类社会造成整体的覆灭性影响。如果不加以限制,对于人工智能取代人类的想法并非杞人忧天。人工智能的设置出发点是以人为本,导致人工智能的损害赔偿责任最终要由使用人工智能的人承担。①Mark A.Chinen.The Co-Evolution of Autonomous Machines and Legal Responsibility,20 Va.J.L& Tech.378(2016).从司法实践的角度分析,在McEvans v.Citibank,N.A案件中,银行ATM机由于程序错误导致了客户资金受损,该案判决银行承担责任,而ATM机作为银行的代理人地位存在。参见408 N.Y.S.2d 870(N.Y.Civ.Ct.1978).人工智能的行为能力与责任能力需要具有有限性,虽然其可以独立参与到社会活动中去,但是,其行为的内容与承担责任的范围却必须是有限的。

(二)权利义务阈值范围

关于人工智能的义务,笔者认为并不复杂,由于人工智能是人为了实现特定目的而创设的特殊工具,因此其义务是为了实现人类的目的而进行“劳动”,即在人类控制范围内从事人类指定的工作。但这种义务是需要加以限制的,早在20世纪中叶,阿西莫夫“机器人三原则”就对机器人不得伤害人类等义务做出了限定。因此,人工智能的义务阈值可以较为简便地明确,即以不伤害人类为前提,并以人类的利益为先。

但对于人工智能应该享有的权利,法学界尚无定论。而这种法律不周延性,将直接影响到人工智能大规模应用后面临的问题所带来的社会影响性。在拟制人工智能权利上,有必要明确权利的阈值范围,即人工智能的权利边界,应当拥有何种权利,而何种权利又不能涉及。从立法技术上考量,笔者认为,人工智能的权利应区分为应当保留与应当赋予的两大类权利,应当保留的权利是指自然人应当保留的权利,该类权利基本权利通常由宪法规定,是公民权最基本、最核心的组成部分。②参见周永坤:《论宪法基本权利的直接效力》,《中国法学》1997年第1期。虽然法律保留无助于列明人工智能权利的具体内容,但有助于限制其权利过于扩张。对人工智能的利用若不当,其带来的危害将极大。有关人类保留权利的范围,应当包括以下几个方面:一是政治性权利,特指公民参与国家政治生活与表达个人见解的政治权利,这是关系到人类社会存在的政治性基础,必须予以保留。二是自我毁灭权。人工智能非依人类的命令或遭遇已设定好的自毁场景,不得采取断电、格式化等形式自我毁灭。人工智能价值高昂,往往具有重要的生产生活意义,如果允许人工智能在无干涉的情形下自我决断毁灭,极易造成难以估量的直接与间接损失。三是生命权。在人工智能遭遇本体与人类生命健康安全时,必须坚持以人为本,将人类的生命健康安全放在首位,不得采取保全自己的形式而故意剥夺自然人生命③参见侯健:《人权何以成为人权:证明方式、内在逻辑及理据》,《政法论丛》2018年第4期。,这一点与“阿西莫夫三原则”的出发点是相同的。对于人工智能应当享有的权利而言,应当是随着经济社会发展的现实水平而不断变化的。笔者认为,现阶段至少包括以下几项。

1.数据使用权

人工智能的可怕之处在于其强大的自我学习能力,AlphaGo在击败所有世界顶尖棋手后仅仅3天就被其升级版的AlphaGo Zero击败,而强大的人工智能学习能力需要的是大量数据的依托。人工智能的大规模应用的程度与广度,基本取决于数据、算法与逻辑规则的交互,缺少数据的人工智能是无法做出科学决策的。因此,必须保证人工智能使用数据的权利,当然,这种数据可能是免费的,也可能是付费的,这也符合现代社会关于数字财产权的基本理论。

2.著作权

若将人工智能生成的内容认定为著作权法上的作品,则现行法律无法满足实践需要。不授予人工智能创作物以版权,避免了法律修正的成本。①参见袁曾:《人工智能法律人格对专利判断规则的影响》,《上海法治报》2018年8月29日。但笔者认为,当代知识产权法诞生的目的一直围绕着赋予知识产权人对于独创性成果的法定权利以激励有价值的作品创作并传播,对于作品权利归属的认定也一直以相应的著作权人为中心。作品之所以被称之为作品,应当蕴含人的独特思想与情感,而作品包含的权利也由著作权人享有——包括自然人、法人以及其他类型的法律主体。由于法人等组织在鼓励、传播、投资作品上具有重要作用,因此当代知识产权法赋予其应有的著作权利。基于立法本意,人工智能创作的内容应当享有著作权,只是这种著作权的范围应当同样是有限的。这需要随着情况的变化进一步分析论证,例如,将作者命名权归于人工智能而将大部分收益归于人工智能的所有者。②参见彭诚信、陈吉栋:《论人工智能体法律人格的考量要素》,《当代法学》2019年第2期。但从知识产权所保护的具有“独创性”的“作品”的目的共识出发,人工智能创作的内容享有著作权并无不妥,对于鼓励人工智能创作“作品”的增多与知识产权市场的发展大有裨益。

3.财产权

正如法人这一拟制主体享有财产权一样,人工智能可以享有财产权。财产权是使得法律主体获得平等的尊重与发展的关键。③参见李宇:《十评民法典分则草案》,《中国海商法研究》年2018第3期。人工智能拥有财产权是为了与人工智能的责任能力承担与数据使用权、著作权等权利内容相匹配,便于人工智能处理与其他法律主体间的法律关系。人工智能具有独立的意志与选择能力,可以通过逻辑计算确保利益最大化,具有更高的效率与能力,若其他主体要求人工智能承担责任,则通过责任机制的设计刺破人工智能面纱,要求人工智能的控制者承担相关责任。

4.救济权

人工智能能够显著提高生产率,对于人类的未来发展有着至关重要的作用。根据摩根士丹利的报告,无人驾驶汽车投入大规模应用后,仅美国就可以增加1.3万亿美元的收入。④参见李彦宏等:《智能革命》,中信出版社2017年版,第158页。但是,无救济则无权利,人工智能的权利实现需要得到有效救济,侵犯人工智能权利的行为应受到相应的惩戒。笔者认为,从公法的角度出发,人工智能及其控制人具有向司法机关及行政机关寻求救济的权利;从私法的角度出发,人工智能机器控制人拥有要求侵权主体采取恢复原状、停止侵权、赔偿损失等救济的权利。

(三)人工智能责任能力有限

人工智能可以做出行为,但其承担行为的能力有限。现有法律文件提出对机器人的责任采取分担解决途径⑤联合国教科文组织《关于机器人伦理的初步草案报告》正文中提出,让所有参与机器人发明、授权和使用过程中的主体分担责任。,让所有相关参与主体分担责任。从人工智能的设计、开发、制造、监管、使用等多流程、多环节、多内容着手,设计合理的风险分配与责任建构机制,避免因单一主体担责而带来的风险成本过高。基于人工智能有限的法律人格,通过分配侵权责任,将人工智能系统的安全成本分担,鼓励责任方履责,确保上下游链条不随意变更人工智能系统。①John Fox.Safe and Sound,Artificial Intelligence in Hazardous Applications,The MIT Press.155,167(2000).为形成人工智能侵权责任覆盖的闭环,同时需要建立人工智能强制保险机制。人工智能的设计制造属于资金密集行业,一般的个人或中小企业无力承担人工智能致损的后果,通过保险特别是强制保险的风险转移,妥善地解决责任链条分配。2016年英国议会提出,将汽车强制险适用扩大到自动驾驶汽车产品责任。在人工智能投入商用之前,必须为其强制投保责任险,以获得风险共担的效果。

四、结语

对于人工智能的规制,必须依赖于立法的体系性调整与安排,确保人工智能的发展与应用在合理的区间范围内运行。对于人工智能的否定更多反映的是人类身份认同的焦虑,如何认定人工智能的法律地位考虑更多的是人的反身性,对其进行人工符号化改造。通过阐释现代权利理论视阈下的法律主体地位赋予机理,考察法律主体扩张的进路,明确人工智能法律主体地位与资格赋予的可能。人工智能应当具有法律人格,但由于人工智能承担行为能力的后果有限,其具有的法律人格是有限的法律人格。人工智能的发展是必然的,而对于人工智能发展的法律规制同样是必需的,承认人工智能法律主体地位所具有的有限性,对于减少人工智能与人类发展利益的冲突可能涉及的法律问题有着至关重要的意义。

猜你喜欢

人格权利主体
列宁的伟大人格及其当代意义
共产党人的人格力量
论自然人破产法的适用主体
我们的权利
远去的平凡背影,光辉的伟大人格
股东权利知多少(一)
技术创新体系的5个主体
关于遗产保护主体的思考
怀旧风劲吹,80、90后成怀旧消费主体
权利套装