APP下载

人工智能法律主体地位辨析

2023-01-21蔡泽男

合作经济与科技 2023年2期
关键词:主体资格法人民事

□文/蔡泽男

(吉首大学法学与公共管理学院 湖南·吉首)

[提要]法律主体应当具备类人的自我意志、自律性等主体性要素。人工智能的发展也许会无限的类人化,但是并不能达到复刻人类必备特质程度。盲目将其纳入法律主体范围,无疑会对整个法秩序产生“质变”影响。时下,对人工智能体的风险防范应主要致力于如何确保其未来发展的“可控性”,亦或寻求人工智能纳入法律客观范围等其他解决路径。

一、问题的提出

随着国家综合国力的提高,科技水平的迅猛发展,与此同时也伴随着一些忧虑。人工智能是否可以在人类可控环境下逐步实现技术飞跃仍然是一个未知问题。库兹韦尔在其奇点理论中提到人工智能在未来的某个时刻极大可能出现发展的不可控性,并预测在2045年,人工智能将超越人的智能。这种猜测在法律领域也有折射。但在某种意义上说,此举也确实将人工智能的法律主体资格这一问题摆在了人们面前。

我们首先需要明确,法律主体即是在法律规定的范围内从事社会各项活动的人,是以马克思主义哲学为基础认知。可以进一步理解为,法律层面上的主体即为哲学层面上的主体,因而所有的自然人都是法律主体,也是哲学层面上的主体。一个自然人从出生到死亡都是在社会这个大家庭中生活,自始至终是以一个社会人的角色生活着。而法律作为社会生活各方各面的“润滑剂”,使得所有的自然人在以社会人身份生活的同时,还必须成为法律人,即作为法律主体而存在。既然如此,人工智能是否和应否作为社会甚至是法律意义上的“人”还有进一步探讨,不能一概而论的赋予其与人类享有同等地位。

二、法律主体的标准

(一)法律主体的哲学意义定位。法律主体即为法律意义上的主体,是以马克思主义哲学为基础认知的。在此基础上,主体即为人,人即为主体,两者之间是可以画等号的。作为主体要同时具备三个条件:(1)能掌控自己的生命活动;(2)能左右外部世界;(3)可以控制自己的欲望。上述三点都说明一个特性,即意志。由此可以看出,主体是本身就具备意志存在物的。而同时具备这三点的,即具有意志的主体也就只有人了,人以外的其他生物很难同时做到这三点。意识是人脑的技能是从哲学观念出发。马克思在研究物质与意识之间的关系时曾得出:“观念的东西不外乎是移入人的头脑并在头脑中改造过的物质的东西”,物质是意识的起源,意识是对客观世界的主观反映,而人脑是意识的载体。如果脱离人脑,人类将无法认知世界,同时也就没有办法形成主观意识。另外,意识的本质特征还在于“意识到必须和周边的人们来往”,如果不与周围之人来往,那么他脱离了社会关系,即使他具备一定的人脑的生理机能,也不会有人的意识。是由于人类的行动是由社会关系的需要来决定,因而社会关系的总和是由人的社会性构成,在某种程度上,社会性表现在人的行动上,通过社会劳动获得自我物质需求、精神需求,与此同时还能满足社会、他人的物质需求,并获得自我价值。根据以上,人工智能体要想拥有人类的意识,第一,应具备意识之载体,即与人脑结构高度相似的人脑仿真;第二,存在相当的社会关系,而事实上,科学技术发展的有限性及人脑结构的高度复杂性决定了人工智能体无法克隆人类完全一样的大脑,且仍不能适应社会。另外,从人的经验与情感角度来看,人工智能与人类智能仍有差别。第一,人类的经验具有独特性和差异性。每个人在生活中的经历各不相同。因此,他们对同一件事结合个人的经验、常识、直觉等很可能产生不同的看法或者不同的处理方式。而这一点恰恰是强人工智能无法模拟的。通过算法对现存信息的提取、剖析和分类是人工智能做出判断的方法。然而,人类是通过大量常识性知识进行分析人们所面对的问题,并不是像人工智能通过大数据的剖析、提取所得。第二,强人工智能拥有的EQ与人类有较大差距。强人工智能所能体会的“喜怒哀乐”仍然是对数据的分析和处理。即使将来真正出现“情感机器人”,这种“情感”仍然属于“人造情感”,与人类的情绪世界截然相反。明斯基曾指出:智能的与情感、直觉和感情都是相通的,只不过是人类另一种思维方法。理智后于情感而产生,而人工智能只具备智力很难具备情感,因此不是真正意义上的智能。人类的经验和情感的不可复制性也决定了人工智能不能具备人类那样的意识。

(二)各部门法视角下法律主体的标准。不同部门法之下,法律主体的范围有所区别,民法领域包括自然人、法人、非法人组织;刑法领域主要以自然人和单位为主;而在国际法上主要指国家与国际组织。不同部门法之下的法律主体对于人工智能的法律主体资格问题参考意义也有所差别,因此有必要分别讨论。

1、民事法律主体标准。参加民事法律关系享受权利和承担义务的人,即民事法律关系的当事人。一般情况下,享有民事权利和承担民事义务是民事主体权利能力的体现,也即权利义务主体的资格。在民法上,自然人和法人的民事权利能力大致相同,自然人出生时开始享有,死亡时终止;法人则以成立为起点,注销时终止。人工智能能否享有与人类相同的民事权利呢?笔者认为,人工智能能否具备民事权利可以从以下几个方面探讨:一方面人工智能是否存在与自然人法律人格的共同性?本文谈论到,自然人是集理性、道德、情感于一身的存在,自我意识比较显著。而人工智能则是依据固定的算法、大数据分析来实施人类指令,弱化自我意识,强调服从意识,其内在核心为逻辑运算。强的人工智能可能会做出一些面部表情甚至通过语言来与人类进行沟通,但其内在并不知如何定义是非、善恶,即便能够知晓,也是通过人类输入的数据,其进行逻辑运算得出的,缺乏必备的价值感和道德感。依靠一定的手段通过逻辑算法得出的结果,并按人工输入的默认程序做出的表示。另一方面人工智能能否具备与人类平等的民事主体地位?笔者对此持否定的态度。民事主体地位是在法律规定的范围内享有,以宪法为根本准则。假设人工智能与人类享有平等的民事主体地位,其超强的逻辑运算能力是否会为追逐利益最大化而损害自然人的正当利益?是否会破坏市场正常的经营秩序?是否会危害国家的安全?我们并不能对此表示肯定,所以只能对赋予人工智能与人类平等的民事主体地位表示否定。民事主体资格的产生与灭失都是取决于人类社会的需要。法律没有把现实社会存在的所有实体都确定为法律关系的主体,享有民事主体资格,而是在法律政策的指引之下,挑选一部分实体赋予民事主体资格。由此可以看出,人工智能并不契合人类需要,因此并没有成为民事主体。但社会中不乏同意人工智能应被赋予民事主体资格的人,在他们看来,人工智能具有极强的自主性,我们不能简单地将其看成一个供人类操作的一个被动性工具,而应赋予其主体资格,享有特定的权利,履行相应的义务,承担一定的责任。反之,则有些人认为,人工智能主要靠技术人员输入数据进行逻辑分析,缺乏意志、没有自主意识,不具备主体条件,仍然是人类开发利用的工具。面对观点迥异的两种主张,如何更加理性地看待问题的本质,需要从法哲学的层面来探讨,将人工智能置于法律主体的哲学基础之中,为人工智能立法提供理论上的帮助。

不可置否,有部分学者认为,法人也并非是真正意义上的人类,将人工智能推理为法人,由此认定其享有法律主体地位。需要注意的是,法人是享有民事主体资格的组织,它和自然人一样,同属于民事主体的范围,是民事主体中的重要组成部分,法人是具有民事权利能力和民事行为能力,依法独立享有民事权利和承担民事义务的组织;另一方面,法人有较好的集合能力,在为追求同样目的的时候,两个甚至多个可以组成一个团体,可以通过分工协作的方式完成目的。为实现各项功能、规范秩序,这个团体就需要由特定的人来行使特定的权利,而特定的人就是为实现团体功能,规范秩序以章程的方式推选的,如法人代表。其行为是按照章程规定的方式,由此可见法人的行为可以看成是法人团体的行为,所以法人是可以成为团体的机关。着重在于该行为是由于团体章程规定的并不是由于法人本身。从这一方面来说,法律拟制的法律人格无法类比于人工智能,人工智能更多的是由于人类预先设定的程序进行的,不能像法人一样逐渐适应繁琐的法律活动;另一方面法人可以在其权利受到侵害或者因他人不履行义务时寻求法律保护,该权利是由法律赋予的,然而权利实际是由该团体享有的。从这方面来看,即便赋予人工智能民事权利,也不具备独立财产,更无法承担民事责任,也就无法真正地融入到民商事活动中。

2、刑事法律主体标准。在今后发展中,人工智能体即使形成一定独立意识,但这种意识也非绝对自由的意识。恩格斯之前提出:“道德和法的问题要在研究自由意志、人的责任、必然和自由的关系下探讨”。在没有形成自由意志的情况下,意味着对自身行为无法真正具备控制能力。对于一个犯罪行为的处罚,要求行为主体具备刑事责任能力。而决定刑事责任能力的因素有两个:一是年龄;二是精神状况。这两个原因最终决定刑事责任能力是否存在,同时它们又是刑事责任能力必备要素,究其原因为这两个因素影响了人的辨认能力和控制能力。只有在行为人具有辨认能力与控制能力时,才能找到对其进行刑事处罚的正当依据。一方面强人工智能不具备刑事责任能力,自由意志的欠缺决定了它们并不能完全独立地实施一系列行为;另一方面不具备刑事责任能力,致使其没有刑事主体资格。根据犯罪构成四要件说:(1)客观上实施了严重危害社会的行为;(2)主观上存在故意或者过失;(3)客体上侵害了刑法所保护的社会关系;(4)主体即为实施犯罪行为、依法应当负刑事责任的自然人和单位。任何不具备刑事责任能力的主体都丧失了受到刑罚处罚的可能性。人工智能体终究是人类智慧的创造物,因而在任何时候都无法真正脱离人类的控制。人工智能实施的行为在某种程度上仍然夹带着一些人类的意志。人工智能永远无法横跨人类大脑,只能无限的趋近。人工智能体不能拥有与人类相同的自由意识,不能对自身行为做出是非善恶之分,因而也就不是一个适格的刑事责任主体。

综上所述,人工智能不宜成为法律主体,但可以寻求其他解决途径,对人工智能未来发展进行风险防控。一方面可以将其定位为法律客体。法律最主要的目的就是达到社会关系链条的一种稳定性和连贯性,因此这种法律的本质变化是一个自相冲突的事实。所以,在仍持有怀疑的态度下是否进行通用人工智能研究的今天,以稳定性和连贯性为主的法律如果带领人们在法律的框架内赋予其主体地位,将会显得比较草率。在2020年人工智能峰会中,演讲嘉宾都不约而同地提到人工智能在数据分析、逻辑运算方面的重要作用,人工智能的价值在于为人类所用,凸显着法律客体地位的充分需求。另一方面保证人工智能在人类可控范围内发展。人工智能无论是对知识的获取、对行为的认知还是对情境的反应等,无一不是通过人类输入的数据,通过对各项数据的分析、运算得出的,并不是实际参与社会生活的结果,不具备社会性。进而言之,人工智能不能摆脱人类的控制,其本质意义上始终是为人类服务的工具。如果说将来人工智能真正实现独立思考,能够自主支配行为,对人类能够实施“反控”时,那么造就这类人工智能体的意义是什么?对人工智能“居安思危”固然是没错的,但并非一定要将其推向法律主体。当下,最应当致力于如何保障人工智能在人类可控范围内发展,这要比增设一个新的法律主体类型更为简便。“未雨绸缪”未尝不是一个好的选择。

猜你喜欢

主体资格法人民事
法人征订(新)
法人形象广告
完善法人治理结构 增强打造世界领先内生动力——中国石化完善法人治理结构的实践与思考
民事推定适用的逻辑及其展开
论民事共同诉讼的识别进路
非营利法人破产特殊制度安排研究
加强民事调解 维护社会稳定
环境公益诉讼主体存在问题及对策