APP下载

人工智能法律主体地位及可罚性探讨

2023-12-01

法制博览 2023年30期
关键词:法人意志理性

秦 平

对外经济贸易大学,北京 100105

今天,以人工智能为首的信息革命正在极大地改变着世界,人工智能已不是简单服务于人类社会的机器,其发展的最终形态是逐步向人类本身靠近,很难排除在未来的某一时刻,人工智能达到类人的程度。从法律的层面来看,是否赋予人工智能主体地位,该以什么样的法律来规制人工智能摆脱人类意志而行的侵权行为,是不可忽视的问题。

一、人工智能可罚性问题的形成

人工智能之所以存在可罚性问题的原因是强人工智能存在其脱离主体意识而为的侵权行为,如自动驾驶引发的车祸,聊天软件学会了暴力、侮辱、厌世的反动人工智能、智能机器人非因程序指令伤人或杀人等。对于强人工智能的非程序性侵害事件,损害结果到底该由谁承担?是否应该对强人工智能进行惩罚?这些问题都是目前学界所讨论的问题[1]。

部分学者认为强人工智能的非程序性问题需要由人工智能本身承担,也即人工智能具有可罚性。但笔者认为人工智能不具有可罚性。

二、人工智能可罚性研究综述

一般认为,在弱人工智能时代,人工智能在法律上仍应被界定为权利客体。但在强人工智能时代,是否应当有条件或有限度地赋予人工智能法律主体地位。人工智能成为民事法律主体的必要条件与因素,国内学者的研究主要有以下几个方面。

关于人工智能能否产生独立意识问题,大部分学者认为,从科学技术角度来说,强人工智能的发展虽处于迅猛时期,但让人工智能拥有类人的主观情感以及对外部世界的感知和实践能力是不可能实现的[2]。例如,在情感方面,虽然目前人工智能系统已经能够用多种方式识别人类的情感,但对于数据的处理与储存只是对外部世界的刻板僵化反映。

部分学者认为,“人”与“人格”从概念上就已被划分,法律上的人格并不需要自然人格的支撑,[3]因此,赋予人工智能人格未尝不可,法律主体亦由最先的自然人扩张至法人,那么人工智能加入主体行列并非无法逾越的鸿沟。另一部分学者认为,人工智能是否享有法律主体地位取决于其发展的程度,法律只需在人工智能发展为具有“类人”特征时,将其列入法律主体地位即可[4]。但一些反驳观点认为,无论人工智能发展到什么程度,都无法成为法律主体,且人工智能不具有发展成为“类人”的可能性,当此种人工智能存在威胁时,人类会自动阻止此类人工智能的产生。技术虽然能够借道德物化的功能来展示自己的某种“自主性”,但是实际上技术不可能具有自主性,因为技术所表征出来的意义和功能都是人所赋予,只是使技术人工物在功能上看上去有“自主性”和“意向性”而已[5]。

三、人工智能法律“人格”证伪

(一)人工智能“人格”与自然人人格比较研究

在自然人主体资格标准的问题上,从古至今主要有理性说、感性说、德性说、神性说四种学说,大部分国家的法律主体资格标准采用的是理性说。理性说,指具有主体资格的存在者拥有辨别对错、合理预见和控制行为的能力[6]。理性自然人具备主体资格,也是法律层面上的主体和客体的本质区别。人类的理性源于人的自主意识,而自主意识造就了人类的“自由”,此种自由并非生理上的自由,而是心理上的自由,即具有选择性。虽然动物也具有自由,但此种自由不具有选择性,动物无法意识到自己选择之目的,即不具有“被支配之自由”。因此人类具有理性,而动物不具备。康德认为:“有理性的生灵叫做人,因为人依其本质即为目的本身,而不能仅仅作为手段来使用”即理性使得人存在本身即为目的。[7]人可以改变、创造世界,也可以制定、废除法律,人的自主性使得其自然而然成为法律之主体。

人工智能却不具有此理性特征,虽然目前一部分强人工智能具有自主选择和自主判断能力,但这些能力并不意味着人工智能与人类具有相同的理性部分。人工智能的运作是靠既定的编码程序进行运行,无法脱离人类之操作而自主行为,更不具有独立的辨别对错、合理预见的能力,无法通过类似人体的主观意识去做选择,因此,其不具备理性特征。

(二)人工智能“人格”与法人人格比较研究

法人乃法律规定之产物,这主要得益于法人同时具备实体性基础、实益性基础和法技术基础:一是实体性基础,法人之所以具有实体性基础在于其具有独立的意志和独立的财产。法人虽非人,但其本质是一个自然人的集合体,其意志是自然人团体意志的体现。同时,法人之所以能脱离自然人独立地运行,成为交易的主体,在于其拥有独立财产。法人的独立意志与独立财产是法人实体性基础的构成要件。二是实益性基础,指法人之社会价值。早在罗马时期,简单商品经济下的法律制度已经体现了初级团体人格理论。但直至自由竞争与垄断并存的资本主义时代的到来,团体制度才显得尤为重要,法人制度才能够应运而生。因此,实益性基础被认为是法人制度之根本依据。三是法技术基础,即法人之法律基础。罗马法的高低人格与有无人格之分是历史上第一次将人与人格分离的法律,奠定了现如今的法律人格理论。而非人的法人被赋予了人格,即具有了法律上的主体地位,逐步发展成现今的团体人格的法人制度。故法人之所以具有法律主体地位,是因为其同时具备实体性基础、实益性基础和法技术基础[7]。

而人工智能,其作为人类社会发展的工具之一,是否也能与法人一样具有人格呢?从实体性上来看,目前的人工智能没有自由意志,其行为乃人的意志,此点与法人类似,随着科技的发展,人工智能具有获得自由意志的可能性极大,拥有独立的经济基础也不无可能。因此,人工智能的实体性基础随着社会的发展将呈现现实化。从法技术基础上看,由于罗马法的人与人格分离理论的产生,法技术基础也同样可以适用于现代强人工智能身上,因此也符合法技术基础要件。从实益性基础上看,一是人工智能创造物归属问题,二是人工智能侵权问题。人工智能是以既定的编码为基础来运行的,通过黑箱处理后而创造出产物,是一种机械式的表现形式,而当代知识产权所保护的作品,是人的一种“个性”,是人类所独有的创作表现形式。即便人工智能被赋予主体地位,其对于作品也仅具有虚名无法享受实益,且机械式的作品在法律层面受保护也是不具有任何意义的。有学者认为,未来强人工智能若赋予独立意志而摆脱人类预先设定的程序独立行为,其侵权行为却由生产者承担是不公正的。但若侵权行为由人工智能自己承担,将责任推脱于此种虚拟人格上,失之偏颇,此做法容易促成生产者形成逃避责任的心理。因此,人工智能被赋予主体地位不具有实益性基础,不能拥有像法人一样独立法律人格。

四、人工智能可罚性辨析

(一)人工智能欠缺独立意识

科技的发展将人工智能拥有独立意识的可能性提高,拥有独立意识的人工智能类同于自然人所拥有的理性要素,因而具有可罚性。康德在《道德行而上学》中对“意志”的界定有三个要素,即理性、选择、目的。[8]人工智能是否拥有独立意识,即从以上三个角度展开。

1.人工智能无独立辨认能力

法律对人的行为的规范程度通常以人对于自身的辨认能力为基础,[1]具有完全行为能力的人需要承担完全的法律责任,具有限制行为能力或者无行为能力人承担相应的责任或无需承担责任。因此,法律责任主体对其自身的侵权行为是否具有辨认能力对于其承担法律责任而言是至关重要的。

人工智能的辨认能力与人类的辨认能力相比较可以看出人工智能的辨认能力是存在缺陷的。人类的辨认能力源于经验、心智、理性,是由生理与心理共同构造而形成的,强人工智能的辨认能力源于编码程序和算法,二者的形成机理完全不一样。人类的辨别能力来自生理能力和理性判断,而人工智能的辨别能力是每一次精确计算出来的结果,在结果的精确度与正确度上,人工智能可能超越人类,但并不意味着其具有与人类相同的辨认能力。因此对其进行惩罚是毫无意义的。

2.人工智能无独立思考能力

思考能力是选择的前提,每一个选择行为的背后都包含着思考。目前,强人工智能已具备初步的思考能力,但此“思考能力”是对人工智能程序运行过程的一种表述,与实质的“思考能力”存在差异。本质上人工智能的思考能力依旧是对既定程序的一种处理方式,其不可能脱离基础程序设定而自主运行。而思考能力是独立意识的表现形式之一,无自主性的思考能力的人工智能即不具有独立意识。即便人工智能具有发展出自主思考能力的可能性,人类也会因排除人工智能威胁,而阻止人工智能发展出独立思考能力。所以人工智能目前所表达的“思考行为”实际上是人类借由人工智能作出的意志表现。[9]

3.人工智能无独立感知能力

法律以惩罚的形式使不法者产生了生理与心理上的双重压力与痛苦。法律制度的设置正是通过对不法者施加痛苦,迫使其对自身所为产生正确认知,且对不法行为产生悔恨之意。以此标准,人工智能倘若具有可罚性,则其必定需要具有感知痛苦和产生负罪感的能力。强人工智能能够基于大数据和内部算法的运行形成自我深度学习的能力,但对其惩罚的形式有限且难以证明强人工智能是否真正能感受痛苦。诸如删除数据、重新设定等惩罚形式,由于强人工智能的学习转换知识的能力是通过“黑箱技术”进行加工处理,设计人员无法知道人工智能经过黑箱转换以后会以何种形式输出数据。此种情况下,更无法验证强人工智能是否拥有外部感知能力以及内在情绪形成程序。而对于限制自由等身体罚,需要强人工智能本身能够了解到自由的概念,若其没有自由的观念,便不会由此感受到人身限制所带来的痛苦。目前来看,人工智能无法感知精神和身体痛苦。

(二)人工智能无独立财产

对于人工智能进行财产罚需要分为两个层次进行讨论:第一,以目前法律规定层面探究。人工智能处于客体地位,其本身属于主体的财产,因此,人工智能不具有独立财产。对人工智能的财产罚等同于对人工智能的所有者或生产者的财产罚,不符合严格意义上的人工智能财产罚概念。第二,即使人工智能拥有独立财产,却不具备财产罚的实质要件。财产罚是对加害者的经济进行压迫的惩罚形式,而人工智能无法具有类似自然人的理性情绪,无法形成对财产损失上的压迫心理,这也意味着对人工智能实行财产罚,并无法避免其可能存在的再次侵害行为。从被害者角度讨论,由于人工智能无理性情绪,即便被害人得到损害赔偿,也无法抚平其内心的创伤。被害人得到赔偿损害的实质不仅是对自己损失的填补,更是通过对加害者的经济压迫而满足内心“报复”的快感,但此种“报复”快感将被人工智能的自身条件所阻断,并不能满足被害人心理上的慰藉。

五、结论

在不久的将来,强人工智能将不断向类人方向探索,可能产生出拥有自由意志之人工智能。因此,其法律主体地位值得深度探讨。笔者认为,即便是拥有独立意志的人工智能也无法成为法律之主体,人工智能的产生只是为人类建造美好世界的一种手段与工具。如同自然人存在本身即为目的一样,人工智能存在本身即为手段,所以不应当赋予其主体地位。从处罚方面来看,对其处罚无异于对一台机器的处罚,其不具有生理与心理上的痛苦感知能力以及辨认能力,无处罚价值。综上所述,不论现今的强人工智能还是未来的“类人”人工智能均不适宜赋予法律上的主体地位,因此其也不具有可罚性,其所为的法律行为以客体角度看待即可。

猜你喜欢

法人意志理性
法人征订(新)
法人形象广告
动物的“自由意志”
完善法人治理结构 增强打造世界领先内生动力——中国石化完善法人治理结构的实践与思考
非营利法人破产特殊制度安排研究
《西厢记》中的理性意志与自由意志
“本转职”是高等教育的理性回归
理性的回归
自由意志的神经基础
3000m跑,锺练耐力和意志