APP下载

法理学视角下人工智能法律主体资格的探析

2023-11-13杨菊焕

法制博览 2023年29期
关键词:主体资格人工智能主体

杨菊焕

沈阳工业大学文法学院,辽宁 沈阳 110870

伴随着人工智能技术和产业的迅速发展,人工智能逐渐从工具化向人性化阶段过渡,例如最近很火的ChatGPT,它是一个人工智能聊天机器人,以对话形式进行交互,打开之后只需在对话框里输入问题就可以获得答案,可以写代码、做题、做产品方案甚至可以帮助写文章,这些需要人类智慧才能产出的成果如今的ChatGPT 都可以做到。但是,伴随着人工智能向人性化阶段的过渡,它必然会带来一系列法律上的问题,要想处理好这些问题,我们有必要对人工智能的法律地位展开更深入的思考和分析。

一、人工智能概述

(一)人工智能的定义

人工智能是指在电脑程序的帮助下,使机器能够模拟人类智能的一种技术和理论。它是指一系列通过模拟人类智能过程实现智能化系统的措施和手段,包括机器学习、自然语言处理、图像识别、推理等技术。人工智能不仅可以自动完成各类常规的工作,还能够学习和适应,从而自主地做出更加智能化的决策和行为,使得机器能够像人一样思考、判断、分析和处理各种信息。通过人工智能,可以实现更高效、更精准、更智能的业务应用,为人类生活、工作和社会带来更大的价值。

(二)人工智能的特征

1.工具属性

在最初的时候,人工智能被发明出来,就是为了满足人类需要的实用工具。人工智能的发展,是为了更好地为人们提供更多的帮助,从而提高人们的生活质量。人工智能的研究人员,在研发和制作智能机器人的时候,会根据一定逻辑和思维方式,用特定的模式算法以及各种技术,让机器人按照指令执行相应的任务。

2.智慧属性

人工智能从一开始被创造出来就是以拥有智能为前提条件,就是为了能够解放人类的双手和大脑来更好地帮助人类工作以及生活。例如自动驾驶,它可以把用户送到指定的地点,它可以自己设定行驶路线,自己调整速度,它可以像人类一样面对不同的情况做出正确的反应和判断。人工智能可以对人类的思维过程以及意识进行模拟,具有一定的智慧属性。

(三)人工智能的分类

1.弱人工智能

目前的人工智能处于弱人工智能的阶段,其本质上是一种可以模仿人的行为,可以独立地执行某些任务的简单智能体,在很多学者看来,弱人工智能应该被确定为物。弱人工智能虽然可以进行计算和决策,但是它只是通过指令和程序来作出相应反应,其不具备独立的意识,做出的行为都是研发者和设计者的意愿。弱人工智能包括有智能语音机器人、地图的导航系统等,它主要是通过研究人员提前编写的程序和指令来完成一些特定的行为,如果需要决策的事情的发展超出了预设的程序和指令的范围,那么弱人工智能对此种情况是无法作出反应的。

2.强人工智能

与弱人工智能相比,强人工智能被认为是有自我意识的,拥有独立思考问题并且解决问题的能力,不能被定义为物或客体。强人工智能不仅是拥有意识,而且在某些方面,甚至比人类还要强大。这种人工智能拥有与人类类似的思维方式,可以通过这种类似人类的逻辑来思考问题和解决问题,并且能够自主学习一些复杂的问题。因此这个阶段的人工智能的法律地位就会发生很大的变化,法律制度和规范也需要随之改变。[1]

3.超人工智能

超人工智能目前还未出现在人们的日常生活中,可是,在各种电影、小说中,超人工智能却是随处可见的,它们有着自己的思想、世界观以及原则,它们的思维方式以及思考问题的效率都是人脑无法比拟的。由于超人工智能在现实生活中还未出现,还存在于人们的想象中,因此无法对其进行确切的定义,不过大多数人都认为,超人工智能的智力水平要比人类高得多,无论在哪个方面,它都是凌驾于人类之上的。那么当超人工智能时代来临的时候,人类或许会面临一场很大的主体性危机。

二、人工智能对法律主体理论的冲击

(一)法律主体资格的内涵

法律主体资格是指在法律上认可的作为能够享有和行使权利、履行法律义务、承担法律责任的主体的法律资格。[2]也就是说,法律主体资格是资格的拥有者可以在法律上享有权利、承担义务和责任的前提条件。

(二)人工智能对法律主体理论的冲击

从法学的角度来看,“机器人”究竟是“人”还是“机器”,这是一个“人”与“机器”的关系。例如在民法理论体系中,“人”和“物”是两个最重要的基础范畴。主体和客体,人和物是严格区分的。除了人类以外,不具有精神、意志的生物属于物,是权利的客体。[3]如果将人工智能看作人类,并赋予其法律主体资格,那么会很难在现有的民法理论中得到合理的解释。民法意义上的人,必须具有独立的人格,这种主体既可以是具有自然属性的人,也包括法律拟制的人,例如法人。但是在人工智能时代,这些观点却受到了越来越多的冲击,一些观点认为可以为一些具有自主性的人工智能产品赋予拟制人格。

随着人工智能技术的快速发展,越来越多的智能系统被应用于法律领域,例如,人工智能系统具有自主学习和判断的能力,能够根据规则和数据进行行为决策,可以处理各种任务和业务,并产生一定的法律影响。这些特征使得人工智能系统具有一定的主体性,也可能具有权利和责任。法律主体地位问题一直是法学界和各部门法学研究的重点,而由人工智能引发的一系列法律问题最终都可以归结为这一问题。人工智能能否享有权利、承担义务及承担责任,以及是否具有与自然人和法人相似的法律人格,这是传统法律主体理论面临冲击的直接反映。并且随着人工智能所能应用的领域逐渐扩大,对于法律主体理论的冲击就越强烈。[4]

三、人工智能法律主体资格的法理分析

(一)肯定说

这种观点认为,人工智能应当是具有自身权利和义务的法律主体。这一观点的合理之处是,确定人工智能的法律主体地位,就可以将其纳入法律规范的限制之中,就可以利用法律的手段来规制人工智能,从而在很大程度上控制人工智能的行为,维护社会的稳定性。不过其不足之处在于,它并没有考虑到目前为止,大部分的人工智能都还处于较弱的状态,只是执行程序的工具而已,在这种情况下,如果人工智能发生了犯罪或者侵权,若是肯定其法律主体地位,那么就不能追究其幕后的自然人的责任。这样的安排,会影响到法律的稳定,影响到法律的权威。

(二)否定说

该学说认为,人工智能无法作为法律主体,其法律主体地位应明确为法律客体。这一观点的合理性是,目前的人工智能大多数还属于弱人工智能,只是通过指令和程序来作出相应反应,其不具备独立的意识,还不能成为法律主体。如果不加考虑就盲目地肯定人工智能的法律主体资格,若由于用户或者研发者的操作不当,致使人工智能做出侵权行为,那么坚持让人工智能承担责任就显得不合理了。此观点的不足之处在于没有把握住当前智能化快速发展的大趋势,人工智能技术和产业发展迅速,现在就否定其法律主体资格太过仓促,根据现在人工智能的发展趋势,人工智能通过不断的发展和进化,会逐渐接近于人类,那时的人工智能已经不再是工具或者应用产品了,可以作为法律主体来对待。

(三)折中说

这种观点认为,人工智能应该具有有限的法律主体资格,这一观点对肯定说的理论给予了肯定,并在此前提下指出了其权利的有限性。这一理论实际上是认为,人工智能的法律主体范围受到了限制,只有符合条件的、觉醒后具有意识的人工智能才能成为法律主体。该观点的合理性在于,人工智能需要被规制,但是现阶段的人工智能又不具有完整的法律人格要素,而赋予其有限的法律主体资格可以很好地解决这一问题,只是让人工智能在特定情况下享受某些权利。这种做法可以用法律对人工智能进行一定的管控,改变了人工智能处在法律管控之外的现阶段情形。这种观点的不足之处在于,人工智能是研发和制造出来的,不同于人类,自然不能享受完全的人格权。此外,最重要的是,赋予人工智能有限的法律主体资格意味着需要对其权利义务做出限制或者设定条件,但是由于现实因素太过复杂,且人工智能还在不断地发展,对于赋予其有限法律主体资格的限制和条件无法明确,因此,即使给予了人工智能有限主体资格,它也不能解决实际问题,没有太大的意义。

四、人工智能法律主体资格的规制

(一)审视人的主体性

对人工智能法律主体资格的规制,人类和人工智能的区别就成了一个很重要的问题。如果只是从是否具有自主性以及事务处理两个角度来看,人工智能与人类并没有得到有效的区别。[5]为凸显人的独特性、维护人的尊严、保障人的主体性,我们要审视人的主体性,将注意力集中在人独特性上,也就是在道德层面将人与人工智能区分开来,从而真正建立起独特的主体地位。

虽然人工智能能够做出一些与道德有关的行为,例如提醒驾驶员系好安全带,但这种动作只是一种编程,并不是真正的道德判断。相比之下,对于人来说,道德判断必然是建立在内心意识基础上的,也就是人对某种行为的对与错有着一种内心的判断,而不是仅仅建立在观察者视角上的一种规律性考察。人工智能无法拥有这样的自我判断力,人类的道德主体性是其无法达到的。正是由于人类作为道德主体所具有的这一特性,才需要对其加以重视,以最大限度地发挥人类自身的独特性,防止人类与人工智能混淆。因此我们要厘清人类作为现实世界中唯一的道德主体的原因,从而在理论上为人类的道德主体地位提供依据,进而维护人的主体性。

(二)坚持对人工智能的合法性审查

由于人工智能将来发展到何种程度尚未可知,所以在法律上很难对其进行规范,但是在法律上也不能忽视它的应用。应该坚持对人工智能进行合法性审查,这里的合法性审查就是对其是否符合现有的法律规定进行的审查。我国现行的法律制度是建立在人的主观能动性基础上的,而有关的法律法规则是确定了人的主观能动性的界限,所以,通过对人工智能进行正当性审查,可以最大限度地防止人工智能对人的挑战或威胁。在对人工智能的应用进行合法性审查时,需要做到人工智能不能干扰人类的自主决策,也不能直接代替人类对重要问题的决策。人工智能的应用必须建立在一个不影响人类主体性的法律框架之内。

(三)加强人工智能伦理建设

人工智能的学习和发展是依据各种数据完成的,但数据非常庞大且多样,我们无法确保人工智能在学习过程中不会受到有害信息的影响。而且随着人工智能的深度学习能力的发展,有时可能不是人类可以控制得了。这就要求我们加强人工智能的伦理建设,一方面,人工智能经过高度学习之后可能拥有自主意识,更甚在未来会开始出现“情感”,这会给它带来很大的道德风险,如果有一天,人类完全失去了对它的掌控,那么后果将会非常可怕,因此我们要做到对数据进行优化,对有害信息进行筛选,并在为人工智能设定程序和算法时,参考人类的道德标准;另一方面,有必要建立一个伦理审查委员会,对人工智能研究与开发人员的道德问题和人工智能产品进行实质审查和伦理审查。同时,需要坚持以人为本的理念和原则,因为人工智能产生的目的就是方便人类、服务人类,它的发展也离不开人类的力量,可以说以人为本是人工智能发展的根本目的。因此在人工智能发展和应用的整个过程中要始终坚持以人为中心的理念,以服务人类为目的。并且在开发和运用人工智能时,也不能对人类的权益造成损害,特别是对生命、健康等权益的损害。

五、结语

人工智能的发展速度越来越快,现在已经完全深入人们的日常社会生活中,对我们的思维方式和生活习惯已经产生了很大的影响,引发了一系列社会问题,解决这些问题的关键是对人工智能法律主体资格的认识,法律主体地位的问题得到完善或者解决,才能去解决接下来一系列的法律问题。

猜你喜欢

主体资格人工智能主体
论自然人破产法的适用主体
人工智能与就业
环境公益诉讼主体存在问题及对策
关于遗产保护主体的思考
论多元主体的生成
翻译“主体间性”的辩证理解