APP下载

人工智能算法中的法律主体性危机

2019-11-17陈姿含

社会观察 2019年11期
关键词:层面算法主体

文/陈姿含

人工智能技术的发展丰富了人类的生存样态,扩大了人类的社会活动范围,也改变了人们的交往方式。它带来便捷生活方式和多元生活体验的同时,也产生了诸多问题:人工智能的广泛应用导致人与客观世界的边界逐渐模糊,算法决策可能冲击人类秩序、公平和正义。算法的进步使得人工智能技术的开展可能从根本上动摇人在世界中的主体地位。这一主体地位不仅关乎于人生活的安全,也是人类文明开展的根源,其主体地位一旦动摇,政治、经济、文化、社会制度随即分崩离析。

人工智能算法引发的法律治理困境

第一,依靠人工智能进行信息处理,将引入、扩大设计者的偏见并延续信息收集的偏差,有可能导致决策不公。较之于作出法律决策的责任者,设计者责任更具有隐蔽性。第二,由于算法不透明本身导致的侵权问题,可能引发治理主体不明和传统民法规则的失效,即引发“谁是治理主体,谁又能够成为被调整对象”的诘问。由于基础数据和弱人工智能的设定者主观因素的影响而产生的歧视是一种设定层面产生的歧视。除却设定规则的歧视,在人工智能存在的算法相关的侵权问题还可能存在于数据的处理层面,这与人工智能算法的不透明相关。而人工智能在深度学习中所涉及的不透明性可以概括为:因国家秘密、商业秘密、个人隐私导致的算法不透明;因对象不同对人工智能技术理解不同而导致的算法不透明;因算法本身的复杂性而导致的不透明。第三,技术深度参与司法问题,以单纯的人工算法推理代替法律推理可能有违司法公正的制度设计。法律论证的功能在于使人们确信某一法律决定是正确的。在形成使人们确信正当或者正确的法律决定的过程中,论证具有重要的影响,但是并不导致唯一正确的结论,抑或形成法律决定的过程本身即是在可接受的前提范围内,形成当事人得以接受的结论。除却严谨的论证逻辑,遵循严格的法律程序,与人们确信的另外一个密切因素就是说服,而这并不是一个完全理性的过程。

直观而言,人工智能算法的进步与应用引发了新的法益纷争,有待法律框架的完善。具体而言,人工智能算法治理的复杂性涉及一种人对自我的重新定位。我们对人工智能所作出的治理和决策应当遵循的法律和伦理框架,与其说是法律对人工智能算法的规制,毋宁说是一个人对自我深度剖析的哲学命题。在人工智能时代,任何单一的模式都无法准确地定义人的自身以及人与人工智能的关系。以血缘和婚姻为纽带的自然人和自然家庭伦理关系受到新技术的突破,以自然人为基础的主体制度面临着扩张到电子人格、人工智能人格的压力。人创造了人工智能,但是人也可能会沦为人工智能世界的客体,并由此动摇以人为中心建立起的社会制度。这必然涉及对任何单一模式的自我定位的突破。

语言与算法的关联模糊了法律主体的客观属性

人的主体性首先建立在人与客观世界二分的基础之上。由此确定了人与自然、人与社会的特殊性。法律主体的特殊性首先在物质层面展开。

(一)算法和语言沟通了人与人工智能物理世界

如果以人工智能的发展对照人类物种的起源和文明的进步,人类历史可以被还原成为数据处理的过程,那么算法无疑正在充当语言对于人类的巨大作用。人工智能与计算机网络的结合,就是语言支配下的科技创新。所以如果一个问题是可以计算的,就意味着通过一连串机械的运算,它能够被计算机所解决。目前的人工智能所要解决的就是如何在增加节点但是不让计算成指数增加进而达到计算极限的问题,现有人工智能技术已经展现出极强的计算能力。人工智能如果一旦对不可解的数学问题给出答案,人工智能将迈上一个新台阶。目前计算机硬件、互联网与类神经网络的深度结合,正在推动人工智能实现自主性。

(二)算法模拟了人作为法律主体的物理性基础

人工智能展现了比以往的科技更强大的自我创造系统(self-reinforcing),对于人工智能软件,研究者不需要输入数以万计的指令,而是任由进化系统挑选最好的指令,这些被挑选的指令通过深度的自我学习得以不断改进。如果计算机代码能够在人工智能系统中得以像生命系统中的DNA一样自我复制、自我删除、自我修复,甚至自我突变,这样的进化至少让以人工智能为代表的人造系统与以基因为代表的天生系统之间的鸿沟得以消除。

(三)算法复制了法律主体“拟制”的过程

成文法制定的重要任务之一,是将现实中的人转化为法律上的人;由此使得生活中现实存在、各具特征的个人,在法律上以统一的标准人、制度人的方式出现。第一,法律根据自然的人的客观情况进行主体分类;第二,法律根据自然的人的生活场景不同划分法律主体场景;第三,法律根据自然的人“相同情况相同对待,不同情况不同对待”的朴素正义观设立行为模式的评价标准。其本质就是包括人类自身在内的世界被测量、记录和分析的可能。量化一切,是数据化为智能科技带来的有力支撑,文字、方位、沟通乃至人的行为都被数据化,进而也就实现了从外部观察以规范对主体的认定标准。

人在物理层面所表现出的特殊性,虽是关隘却非阻隔,是人与人工智能之间区别的前提但非鸿沟。机器人是否会出现反叛,进而让人处于被压迫、奴役、杀戮的境地?人能否保有自身的生存和发展空间,维持其自主性?人的主体性是否会受到冲击,人类中心的制度体系是否得以存续?这些问题事关两个层面的问题,一是如何对人工智能算法相关的技术予以规制,二是如何从制度构建的层面捍卫人的主体地位。第一层面的技术问题并非忧虑的真实存在。科技向来存在风险,而法律对于这一层面的安全问题的解决经验由来已久。第二层次关于人主体性的回应才是人工智能能否进行法律规制的核心问题,这也引导人们在自形而上的层面思考法律主体的本原问题。

人工智能算法在思维层面对法律主体的迫近

算法的进步让人工智能在客观层面具有了其他人造物非同以往的自主系统。技术的精进对理论的发展提出更高的要求。一方面人们转向对思维层面的探究,迫于寻求除却客观层面特殊性以外,人得以自主的理论根源;另一方面,可以为人工智能的技术进步提供哲学的指引。

(一)从物理搜索到仿生网络,人工智能算法在不断靠近智能发展的“奇点”。人工智能算法的设置大致经历了两个阶段。第一个阶段,人工智能的思维模式可以抽象为一种物理系统,对关键符号的搜索成为物理系统的关键。第二阶段,物理搜索系统展现出的不足,使得仿生神经网络的发展得到重视。这一算法系统的进步不仅仅在物质结构上更接近于人脑,还具备了基本甚至深度学习的能力,能够进行自身的模式分析,而不依赖于设计者输入的程序。简言之就是对现象进行描述、抽象、总结、分类、解释等。与物理搜索的方式相比,仿生神经系统可以通过后天的学习而不断提升,这是人工智能不断升级、越来越聪敏的重要体现。

(二)人工智能思维模式的转变,背后是从唯理论走向经验主义哲学基础的指引。如果说物理搜索是一种唯理论,先设定一个理性的大脑,能够抽象和假设,然后通过预先输入的通用模式进行求解;那么仿生神经网络背后的哲学基础就是经验主义,通过不断的物理刺激形成感官刺激,进而成为一种感觉认识。这一过程集中于算法的设计,主要是通过输入信息比对,形成人们的知识和概念。从物理现象,到感觉刺激,形成感觉观念,并随着感觉观念被不断强化,形成习惯,从而指导行为,正是经验的路径,也是人工智能不断学习强化思维的过程。所以仿生系统的人工智能并不预先设定用来存储信息或者程式化的算法,而是在感受的层面形成经验并建立联系。这种自下而上、从实践经验层面到形而上的知识和概念抽象的逻辑,至少解决了笛卡尔否定机器是人的实验中“机器无法学习的问题”。

(三)人工智能算法的逻辑体现因果关系的必然性 无论是物理系统,还是仿生系统,人工智能算法的设计都是对必然性的确信。这种一元论发展的可以归结为面对人工智能问题时:第一,将人的身体和心智还原为客观物质;第二,将人工智能视为生命的延续和必然;第三,接受科技的自我生命力,以及超人和超人类的存在。因此面对人工智能的发展和可能存在的风险,这种思维逻辑的结果是任由发生,甚至是推波助澜。

这种必然性的论证逻辑,除却未来的风险,还有一个现实的法律困境,即如果人工智能算法是对自然规律的总结是一个必然性的加速论证,那么因为人工智能所产生的任何问题,尤其是对人的伤害,就不应当承担责任。既不能追究机器的责任,也不能追求设计者的责任。因为出现伤害的具体原因无论为何,都是必然性的一种表现。在一元论的思维下,人们应当遵从必然性。

人工智能算法引发法律主体性理论的转变

(一)法律主体一元论基础因治理风险而动摇

如果人们依然沿着一元决定论的道路,只有两个归途:一种可能是因恐惧逃避科技进步而陷入发展的瓶颈,一种可能是彻底放弃人的主体性这一立足的根本阵营。当社会科学面对技术性进步,站在发展的十字路口,应当有跳脱时代的警醒和深谋远虑。如果将人完全置于自然之中,成为必然性和客观规律的体系,则人是完全不需要实在法的存在,更无法根据法律规则承担责任。科技的强势发展导致一元论思维对后世的影响深远,才是法律对诸如人工智能等新技术问题失灵的重要原因。我们并不是要证明“人类比算法做得好”,才能够维持人的主体地位,否则这种人文主义与科技的竞争结果,就是期待人类心智的升级,科学家将之称为驾驶一艘没有地图的船出海远航。

(二)法律主体为自由意志留有空间

科技可能否认事实,但是无法否定伦理,这是自由意志存在的价值。现代法律的思维的起点,应当是也必然是自由意志。只有在自由意志的关照下,承认人有选择自由,才是架构权利、义务和责任体系的基础。笛卡尔在解决人自身的对立的时候,同时也解决人的统一问题。在笛卡尔的二元论中,心和物分属于不同的世界,并遵循不同的规律。精神不仅是人与动物的分水岭,也是人与机器的分水岭。所以在笛卡尔看来无论机器设计的如何精妙——纵然机器与人能够进行交流,或者展现出同样的状态——皆不代表机器具有人的意识,能够具有意识的内在状态。面对这种启发,从理论构建层面,我们必须为人的意志寻求独立空间,并将之作为制度构建的基础。

(三)社会契约彰显法律主体的安全地位

现代法律制度构建的一个重要基础是社会契约。社会契约尽管复杂,缔结条约的个体从始而终也鲜有脱离,却可以高度概括:人类放弃宏伟的宇宙计划,选择在人类社会中获得力量。法治社会中,实体法通过对人权的保障和人的主体地位的确立,肯定了这种力量,也彰显了自由意志的独特价值。所以法治社会中的人最安全,法治中的自由意志最能彰显力量。

人工智能算法主体性的法律治理路径

法律主体并非主体性问题的全部,却是一切法律领域共同关注的话题,法律主体是权利的来源,是法律关系的逻辑起点,也是整个法律制度保护的基础。

(一)法律主体概念同生物学上的人相互区别

法律人的概念是一种身份,而生物人的概念是一种事实,更是一种伦理。现代法律制度的进步,将法律主体扩大至全体生物人,在于对自然人的保护。但这并不意味着法律人和生物人可以混为一谈,也不意味着身份与人格是同样的概念。随着近代资产阶级革命,和现代人权保障的要求,法律的主体地位被赋予所有的普遍的无差别的自然人,法律的主体也就逐步剥离了身份的差异,而变为一种不具有价值判断的中性的法律技术。在这一层面,纵然人工智能算法不断靠近智能的“奇点”,并不必然得出其主体地位得以确立的正当性。换言之,人工智能模拟或者仿真的只能是生物学意义上而非法学意义上作为主体的人。

(二)立法技术中立不否认人格高贵

被法律确立为主体地位的是否都是人呢?答案显然是否定的。法律主体不仅仅包括自然人,也包括法人。这代表着主体地位的授予是为了法律关系的开展,当然其终极目的也是为了保护个人。法律能够对人进行拟制。具备展开联系、对法律关系产生影响、能够承担责任,构成赋予主体资格的重要参考标准。法律主体资格可以赋予那些不具备自然生命的事物。因此,国家、社团、法人和其他组织,皆可称为主体,但是不能享有法律对人格特有的保障,不能侵害法律赋予人格的特殊恩惠。沿着法律对人格的特殊恩惠,实在法可能会实现对强人工智能等类人类事务的拟制过程,但不能否认人在法律上的特殊地位。

(三)康德“以人为中心”模式的可能与反思

表面上,从经验主义到唯理论指引的人工智能算法发展,以一元论哲学为基础,肯定了技术的理性,否认了人的自由价值,塑造了法律的契约,也瓦解了人格的神圣。事实上本着从事实到理论再到模式制度的探寻不难发现,法律主体制度的构建,无论是以价值倾向还是规范倾向的构建,不应也不能抛弃人的中心地位。

在康德模式中,人是自由意志和自然存在的统一,是先验和经验的统一。正向的关系应当是人在规范自身的过程中规范自然,人在理知的过程中统觉经验,人在制定实体法的过程中预设前提。反向的过程可以推导出,人的他律不违背自律,经验不否认自由意志,价值中立不违背伦理。所以康德的伦理模型在今天仍然具有极其重要的意义,不仅仅指引人工智能无限接近于人的思维,更重要的是将“尊重人作为目的”作为绝对律令。这种绝对律令通过算法植入人工智能的个体,更重要的是在执行目的和手段的模式中,对外在的状态进行一种反思。这种反思为人工智能的问责提供了基础。

人选择服从法律的规范意味着人在政治世界中必须获得安全和尊重。彻底中立的法律规范也是危险的。以人为中心构建的制度体系在任何时候无法摆脱因差异而产生的主流意见。所以法律就人与人工智能所作出的分配问题具有理所当然的合法性。它避免了一种因为不断探知真理而试图改造政治世界的癫狂。法律宣扬的个体无差别不代表人没有个性的差异。法律的主体地位确立不代表人格的授予或者人性的否定。法律的判断不是伦理和价值的判断。

猜你喜欢

层面算法主体
论碳审计主体
基于选项层面的认知诊断非参数方法*
何谓“主体间性”
Travellng thg World Full—time for Rree
略论意象间的主体构架
租赁房地产的多主体贝叶斯博弈研究
租赁房地产的多主体贝叶斯博弈研究
学习算法的“三种境界”
算法框图的补全
算法初步知识盘点