APP下载

浅析通用型人工智能的法律人格

2021-12-06红,赵

法制与经济 2021年7期
关键词:人格原则主体

沈 红,赵 凯

人工智能(Artificial Intelligence)的广泛应用可以极大地解放、提高社会生产力,使得人类进入一个全新的发展阶段——智能时代。以弱人工智能为代表的应用型人工智能已走进日常生活,和人们形成紧密的依赖关系,随着强人工智能、超人工智能等通用型人工智能的研发,人工智能将获得何种法律人格地位会是一个无法避免的话题。本文将从通用型人工智能法律人格的实践现状、建构逻辑、法律人格确立可行性三个方面进行探究,并对通用型人工智能法律人格的实践提出一些思考。

一、通用型人工智能概况与前景

人工智能可划分为应用型人工智能和通用型人工智能两类。弱人工智能是应用型人工智能的代表,其基于机器学习等智能化技术,通过模仿人类的思维模式应用于某一特定领域。通用型人工智能基于脑科学技术的发展,目标是培育人工智能使其具备等同或超过人类思维的能力,由强人工智能和超人工智能两个发展阶段组成。国际学界普遍认为强人工智能阶段将在2050 年左右实现,不过,就目前而言超人工智能仍停留于理论探索阶段,强人工智能是通用型人工智能最接近的实现形式。人工智能是知识科学的再造,是一场知识创造知识的革命,在不可知论建构的知识体系中,知识的边界未知,为人工智能的发展留下潜在机遇,在国际科技竞争中,通用型人工智能的研究将伴随着国家战略不断推进。

由中国科学技术发展战略研究院、科技部新一代人工智能发展研究中心等十余家机构编写的《中国新一代人工智能发展报告2020》[1]显示,2019 年,美国、德国、日本、韩国、俄罗斯等国家均强化人工智能发展战略迭代,16 个国家新发布了国家人工智能发展战略或计划,另外至少还有18 个国家正在筹备制定人工智能发展计划。2017 年国务院发布的《新一代人工智能发展规划》[2](以下简称《规划》)中提及要“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架。开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究,建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任等。”《规划》中明确人工智能的未来发展期望和具体的实施措施,体现深度人机互动的发展理念,同时,提出建设人工智能未来法律主体地位的设想。《中共中央关于制定国民经济和社会发展第十四个五年规划和二〇三五年远景目标的建议》[3]指出“要瞄准人工智能、集成电路、生命健康、脑科学等前沿领域,实施一批具有前瞻性、战略性的国家重大科技项目”。在国家政策大力扶持的语境下,可以预见的是,人工智能技术要想获得深度发展,需要赋予其明确的法律人格地位。

二、通用型人工智能法律人格的建构

法律人格,也称法律地位,是法律规定的法律主体所拥有权利和承担义务的现实状态,核心是权利能力、义务能力和责任能力。法律人格的性质不同,其承担的权利义务形态也不同,主要由主客二元说来区分。法律人格有两种取得方式,一种是积极取得,法律主体通过一定的法律行为而取得;另一种则是消极取得,在法律规范生效的区间内自动取得权利义务。前者适用于非自然人的拟制法律人格取得,后者则适用于自然人通过拥有生命来获得,但是,两者作为法律意义上的“人”的概念是相统一的,即法律意义上的人既可以是有生命的,也可以是没有生命的。

关于人工智能法律人格的学说,主要集中于将人工智能视为主体的目的论(代理说)、视为客体的义务论(手段论)和有限度地承认主体地位的折中论[4]。目的论认为人工智能具有自由意志、能够享受权利、以金钱的方式提供救济,具备非人类拟制法人的资格。义务论则认为人工智能不具备感性因子,自由意志是算法运行的结果,实质上在模拟人类思维过程。固有的“以人类为中心”的价值观崩塌[5],人工智能存在取代人类的风险,同时由于其承担责任的能力有限,且局限于以财产为中心,会导致权利与义务不对等,人工智能所接受的人身惩罚无法比拟于人类,甚至轻于人类,使得人类处于一种相对劣势地位。上述关于人工智能主体地位的学术争鸣,实质上是围绕通用型人工智能的法律人格的目的性、合理性、价值性三个关键点展开的。换言之,只要完成这三个焦点的剖析与建构,就能够对通用型人工智能法律人格的解决起到推动性的作用。

(一)法律人格建构的目的性

从法律的历史性来说,法律人格是建立在社会发展基础上,各个阶段国家权力选择的结果,同时,法律人格的确立是广义的公共行政的选择,是行政相对人的确认,因此,可以从行政法角度来探讨通用型人工智能法律人格设立目的的符合性。行政法律关系中行政主体和相对人之间是一种监督与命令的纵向关系,在复杂多变的客观环境中,相对人需要对行政权力的裁量性有所容忍,但同时需要行政主体遵循比例原则来施政。立法具有的滞后性特征,为行政行为预留一定的裁量空间,行政法中的比例原则偏向于实用主义,与当前通用型人工智能主体地位的设立有交叉区域。

适当性判断要求通用型人工智能的主体地位不能同设立目的相悖。给予其主体地位,实质上是有前提条件的,需要强人工智能技术的实现,与之相关的是技术突破对原有法律边界带来的极大冲击,通用型人工智能已经在事实上具备法律意义上“人”的资格。法律主体地位的不确定实质上并不符合社会事实,并且将阻碍通用型人工智能的深入发展,这明显与人工智能发展的总体趋势呈负相关。必要性判断要求人工智能主体地位的确立是对人民利益的侵害程度是最低的,即“最小侵害原则”。侵害程度的高低,需要有所比较,鉴于主体地位论证过于复杂,就通过反证的方法来论证。客体论的观点将通用型人工智能附属于生产者、所有者和使用者,并就其损害承担无过错原则或过错推定原则的连带责任,这不仅与通用型人工智能具备主体资格的事实状态不符,还通过扩大责任主体的方式加重生产者、所有者和使用者的负担。相较而言,给予通用型人工智能主体地位,将极大降低责任负担、缩小责任主体范围,使得整个社会的资源配置更加高效。狭义比例原则是适当性和必要性关于衡量性的比较,要求干涉手段造成的损害要低于达成目标所获得的利益。主体地位确立,实际上将赋予通用型人工智能在机器伦理基础上的权利义务资格。反之,如果选择确立客体地位,将技术的扩展空间限制于一域,不利于未来发展。通用型人工智能的技术性将极大解放社会生产力,人类承担的工作类型由低级机械向高级智能转移,社会发展进入新的阶段。不过,通用型人工智能的出现本身就是对人类传统思维的挑战,正如法人地位的确立那样,是艰辛曲折的需要经过长期的批判历程的。

(二)法律人格建构的合理性

学术界对于通用型人工智能法律人格的否定,是对机器人智能与人类源生性意识的关系所作出的价值判断差异,质疑机器理性与人类的法律理性是否具有交汇点。回应质疑所要解决的问题,需要对人类的法律理性进行探索[6],以求得通用型人工智能法律人格的合理性基础。法律意义上的“人”是以意识决定论和表达决定论相互证明的假设为前提的[7]。意识决定论认为意识与意志具有紧密的联系,个人只承认自己是拥有意识的,但对于他人是否有意识却无法证真,也无法证伪。表达决定论是以意识的外观为基础确定的公理,既然无法解答自己与他人是否具有相同的意识这个问题,那么不如表达形成表达能力和意识能力等同的假设,通过这种方式高效率地构建具有共同价值观的法律秩序。图灵测试(Turing test)成为判断机器是否具有人工智能的参照,本质上是运用意识与表达相互证明的假设,提出智能是思想与人同质的体现这样的意识外观性判断标准[8]。对于法律意义上“人”的概念的认同,人类建立起一套较为完善的法律法规体系,实现社会秩序的塑造。机能主义心理学则从另一个角度阐释人工智能意识的合理性。源于进化论的机能主义意识观主张心理是有机体适应环境的活动过程或机能,强调意识是一个连续的整体,不能将意识分析为那些感性的元素。对此,吴伟士提出行为机制理论[9],有机体接受来自环境中的刺激,在既有经验作用下,又对环境作出相应的反应。机能主义心理学对人工智能程序运行中产生的意识因素予以解读,事实上认同人工智能的意识产生模式,认为人工智能的意识产生与自然人意识属性的同质性。

不过,一些精神哲学理论未认同上述假设,并且对图灵测试所依赖的这种假设进行批判。“现象学之父”胡塞尔指出,先验自我是意识和意向结构的最深核心,也是推动心理活动和引发知识结构的总根源。这就是说意向对象是建立在纯主观性的基础上,意识活动也并不是一种经验活动,而是经过还原后的“纯粹意识”。约翰·塞尔认为语言和心灵交汇于意向性继而实现与世界的交流,意向性是某种心理状态的特征,在意向性的基础上,心理状态能够反映世界中的客体和事物状态,并通过意向活动的方式完成意识各层面内容的统一[10]。意识是基于意向状态所发生的感性能动反映,最终通过语言的方式外化,意向性是其核心,语言只是表现。在“中文屋”(Chinese room)的思想实验中,实验对象虽无法真正理解接收到的信息,但借助于特定工具,形成一种直觉假象,塞尔由此提出“程序是纯粹按照句法规则限定的,精神是拥有精神的内容”[11]。其实,这是对图灵测试的一种逆向思维实验,但两者都是不完全的,两个测试的理论前提是人工智能遇到更多、更新的问题存在无穷性;类比于人类本身,马克思主义理论认为客观世界具有复杂性,使得规律、真理的暴露需要一个过程,人的主观能动性构成这一过程的催化剂,具备自主思维能力的通用型人工智能亦是如此。两个实验是基于现有知识能力的探索,尚未脱离当前应用型人工智能的运行模式是机械模仿人类思维、进行意识活动的观点。伴随新一代人工智能的革新,特别是通用型人工智能新思维模式的建立,上述实验推论成为无法证真、也无法证伪的正确与否的效力待定命题。通用型人工智能将超越应用型人工机器以深度学习来模仿人类思维的过程实现沟通的层级,其智能与意识具有一定同源性,显然不能用是否具有意识来否定独立的电子人格。

(三)法律人格建构的价值

法的价值是法律的灵魂,正义作为法的价值的组成部分,两者之间相互交融。法律是正义的载体,基于正义基础上的合法性则是法律调整人类社会关系秩序的实践。正义集中体现自然法的内涵,但同样也是实在法所追求的价值目标。人类社会道德秩序的建立是价值观、道德、法律三者共同作用的结果,三者的关系体现为价值观引领道德和法律,而道德则是高于法律的理想化标准。不过,当道德具备正义价值时,才是其上升为一般社会规范甚至是法律的前提。反对赋予通用型人工智能主体法律人格的群体,是出于对人类处于弱势后被取代的担忧,人机平等的法律人格意味着自然人的物化和人类的贬值;当人类实质上处于主宰万物的地位后,形成优势地位的偏见,无法正确接受任何对于自身地位的挑战。毕竟,通用型人工智能将面临突破人类社会的道德边界的问题,其在拥有高于人类思维能力的超人工智能后如何选择道德模式将不可避免地冲击法律的正义价值。

即使人工智能发展到更高的层次,但其技术属性的特征并不会随之消失;与人类相比,人工智能特殊的意识形成,不是由源生而实现。同时,在人类社会已有固定的伦理道德秩序前提下,人工智能的伦理道德秩序的实现,法的正义价值应该从规范伦理学的角度探索。规范伦理学是人类社会化的发生依据,本身所蕴含的动态特性使得其不仅能塑造道德个体,也能够以较低的成本实现道德共治。功利主义认为行为的道德性取决于行为的结果,这个结果是最大化效用的,要求人工智能对目标有所评估[12]。人工智能在道德伦理的建构中,将行为方式的选择进行设定,以符合人类的行为结果。行为方式作为外在表现,实质上是对内在期望、目标的执行,需要对评估进行严格限定,人工智能道德应以功利主义为基础,排除情境功利主义的极端追求,内化普遍功利主义和规则功利主义。义务论强调行为的道德是依据道德原则和正当性而产生的,行为结果并不是参考标准。罗斯的义务论以直觉主义为核心,道德原则的设定来源于直觉,其应用则是直觉作用的结果[13]。不过,主观的义务论的理论前提不存在普遍原则,过于理想化的设定与现实存在较大差距。康德的义务论认为道德并不是建基在欲望之上,而是在理性意志之上。其中,意志的主观原则是格律,一般化的格律是上升为道德至高原则的基础,人工智能在拥有思想的能力后,在纷繁复杂的客观环境下,通过道德原则的约束亦可建立秩序。

功利主义以评估方式建构道德,在实践中操作难度极大,人类自身都无法避免意识缺陷的误判,人工智能同样存在此种风险,伦理道德秩序建构要以低风险、小损害为核心。遵循规则是较易实现的设定,以规则作为公理,在逻辑推理的模式下,可以快速实现扩充,能够适应更广泛的情境。义务论把道德归于普遍规则,大大降低人工智能的道德风险,且能够较好地与人类社会原有观念契合,推理模式的成长性特征使其具备更强的操作性。在此基础上,可以推知人工智能伦理道德秩序建构的一般标准,即低风险、重成长、重实践,无论选择何种理论作为构建伦理道德秩序的参照,都应该使人工智能的伦理道德秩序成为来源于人类道德规则的发展。

三、通用型人工智能法律人格确立的可行性

通用型人工智能法律主体地位的法学争鸣,实质上是对人工智能发展技术不确定性的担忧,集中体现于道德伦理秩序的维护和法律责任的承担。因此,通用型人工智能法律人格的建构应该基于法理学、伦理学和经济学,通过法律拟制技术来实现。

(一)原则的适用

适用何种归责原则和归因原则是被侵权人维权的依据,同时也是侵权人的责任承担依据。当前法学界的主流观点是赋予人工智能有限的主体地位[14],人工智能造成的损害通过直接代理人或所有人来代为承担的方式实现归责,采纳无过错原则进行归责。对于通用型人工智能来说,这样的归责原则过于扩大化,其实质上作为法律主体却未拥有承担相应责任的能力,反而由其利害关系人来承担连带责任。虽然在法律形式上损失的填补方式得以具体化,但并没有真正体现通用型人工智能的法律主体地位,造成实质上非正义的结果。《民法典》侵权责任编的归责原则适用过错原则和无过错原则,还有一部分的公平责任和危险责任。过错原则归责的依据是行为人的过错或者推定过错,由于通用型人工智能已经具备人类的思维能力,并拥有一定的判断力,那么也应具备承担过错的理由。无过错原则是适用法律规定特定事由来归责,是一种预先设定,但仍需被侵权人承担侵害行为和结果存在因果关系的证明责任。由于是法定事由,无过错原则的适用只需由立法直接规定即可,不需要证明这种归责原则是否属于通用型人工智能的归责范畴,需重点讨论的是因果关系的确立。对两种归责原则以外的意外情形所适用的公平责任、危险责任,责任承担的方式是以财产为核心的补偿,可在通用型人工智能的财产制度确立后解决,下文有相应分析,在此不做赘述。在现有的归责原则体系下,通用型人工智能已能够适用,但仍可根据社会发展的客观形式进行相应调整。

通用型人工智能自主性、不可预测性、感知适应性等特征导致归责适用的依据多样化,同时也导致因果关系的难以确定。因果关系和归责原则是侵权责任的前置条件,两者共同归结于损害赔偿的结果。现有的因果关系适用原则采的是“相关关系说”,其他在学理上分类还有“原因说”“条件说”“法规目的说”等。较为通用的“相关关系说”认为偶发性的条件与事件结果不具备因果关系,只有在普遍情况下都适用时,因果关系才能证立。民法视角下的因果关系证明推行“谁主张谁举证”的原则,通用型人工智能由于其是高技术、高智能结晶,在发生侵权纠纷时,被害人可能因为不具备相应的专业知识能力和经济能力致使举证困难。如果法律全面采用无过错原则的方式归责,又会使得惩罚范围过大,与民法的平等原则、公平原则相悖。针对通用型人工智能高技术性、高统一性的特点,关于证明程度这个问题,应该在一定条件下接受统计学调查等证明方法,使得被侵害人从单纯地证明因果关系之存在转化为证明因果关系的发生的概率性问题。

(二)责任承担的可行性

解决意识和伦理的相关问题后,通用型人工智能拥有成为法律主体的认识论前提,其已在事实上具备享有民事权利的条件,但是由于权利与义务的一致性的要求,立法上必须解决通用型人工智能的责任承担问题,以使两者相符合。对于以上观点,笔者认为可以在侵权损害赔偿的法理基础上进行责任能力构建。《民法典》侵权责任编是调整被侵权人与侵权人之间以损害赔偿为核心的权利义务关系的法律规范。侵权行为通过赔偿的方式实现损害的填补,为此,通用型人工智能必须以具备相应的财产能力为基础。财产的核心是价值,马克思主义认为“价值是凝结在商品中无差别的人类劳动”[15],当赋予通用型人工智能法律主体地位时,也相当于承认其民事行为能力,其具备参与财富创造的活动资格。主体资格意味着参与价值创造和拥有对财产占有、使用、收益、处分的权利,通用型人工智能能够以自己的财产承担损害赔偿责任。不过,经济的交易属性、风险属性使得财富均等拥有还停留于理想状态,但劳动创造价值的本质却未改变。针对人工智能的损害赔偿问题应该分类,在设定相应的保险后,有赔付能力的人工智能可以自己的财产赔付;对无固定赔付能力的人工智能,可以凭借人工智能的“劳动”所创造价值折现进行相应的赔偿。

(三)责任主体的唯一性

法律人格的拟制同自然人人格的拟制具有一定相似性,通用型人工智能可以借鉴信息化的方式完成具有唯一性的身份特征识别。关于拟制人格,我国《民法典》规定“法人应当有自己的名称、住所、财产或者经费”,这是通过名称、通讯地址、责任能力物质基础来完成身份特征唯一性识别。与之相对应的《居民身份证法》规定“公民身份号码是每个公民唯一的、终身不变的身份代码,由公安机关按照公民身份号码国家标准编制”,这是将自然人信息数据化的表现。人类社会的互联网时代,其实是数字的时代,人类的身份信息、财富以数字的形式记载于各种服务器终端。

(四)拟制的可行性

关于法律意义上“人”的一种的法律拟制(类自然人的主体地位)的理论,康德的义务论中关于“人”的哲学定义认为,“所有‘理性’的存在都是‘人’。”理性是哲学人格的核心,存在是以理性的方式存在,而并不要求必须以人类的形式存在。回顾法律的发展历史,法律主体的范围经历“人可非人—人人可人—非人可人”的变迁[16],在法律主体的二元结构下,非自然人的法律人格获得依赖于法律拟制的实现。此外,从法律选择的角度来说,法律与政治的关系呈现出一种依附的状态,法律主体的选择既是法律选择的结果,也是政治选择的结果。拟制本质上是一种技术,法律意义上的“人”并非一定要求是自然人,通用型人工智能在具备相应要件后,通过以拟制的方式成为法律主体是可以预见的。

四、结语

确立通用型人工智能的法律主体地位是人工智能未来发展战略的组成部分,法律人格的拟制奠定了电子人格法律主体的基础。科技革命是世界发展的重要驱动力,其本质是为人类社会服务,不能完全脱离实际,要与现有的法律体系、价值观念、道德共识相适应。通用型人工智能具备成为拟制主体的理性,但仍然是一种区别于自然人、法人、非法人组织的特殊法律主体,如果将其纳入法治的体系中,应该从人的视角审视,在权利义务一致性的语境下平衡通用型人工智能现实和未来之间的冲突。

猜你喜欢

人格原则主体
强化述职评议 落实主体责任
论碳审计主体
十二星座的做事原则
共产党人的人格力量
你是回避付出型人格吗?
党支部的工作原则是什么?
远去的平凡背影,光辉的伟大人格
何谓“主体间性”
略论意象间的主体构架
漫画之页