APP下载

人工智能嵌入司法审判的逻辑、困境与路径

2020-02-22王东方

研究生法学 2020年2期
关键词:审判司法人工智能

王东方

1956年人工智能(artificial intelligence)概念首次提出,经历六十余年的发展,人工智能技术逐步实现弱人工智能(week intelligence)到强人工智能(strong intelligence)之历史嬗变。在这一演变过程中,大数据(big date)充当着跨越式的跳板作用,即以大数据为基础的智能算法逐渐取代计算机程序并最终实现“机械循环—深度学习”的变革,例如“阿法零”(Alpha Zero)、无人驾驶汽车、风险预警及评估系统等。人工智能自产生以来便与社会生活有着天然的联系,在司法实践中,如何将人工智能嵌入司法审判更是其中的重要议题。2013年以来,最高人民法院陆续出台《人民法院信息化建设五年发展规划(2016-2020)》、《最高人民法院信息化建设五年发展规划(2016-2020)》以及《最高人民法院关于加快建设智慧法院的意见》等一系列文件更是将人工智能的研发与应用推向高潮。目前,司法领域中,“泛人工智能”的研究方兴未艾,回归学术理性,人工智能之价值应做何种界定?人工智能嵌入司法审判的边界与路径应如何选择?对于上述问题的回答需深入理解人工智能的算法逻辑,在实体思维向关系思维的转变中,探究人工智能融入司法审判的路径模式。

一、人工智能嵌入司法审判的逻辑

算法作为人工智能的核心,通过编程、建模为人工智能嵌入司法审判提供可能。从弱人工智能到强人工智能,算法赋予机器以“思考”的外部特征,对于其内在生成逻辑的梳理是深刻理解其嵌入模式的前提。

(一)人工智能的算法逻辑

1.弱人工智能:“像人一样思考行动”到“合理地思考行动”

人工智能作为新兴的科学与工程技术,自产生之日起便与生物科学一起被其他学科的研究者誉为“最想参与的领域”。[1]See Hutan and Ashrafian, AIonAI: A Humanitarian Law of Artificial Intelligence and Robotics, 21 Science and Engineering Eethics (2015), p.29.发展至今,人工智能已经包含了数量庞大的子领域应用,例如:下棋,疾病诊断,数理证明等。关注思维与推理过程者机械地认为,人工智能无非在于机器能像人一样思考行动,这一逻辑以人为核心,强调人之参与或控制;而关注于数学与工程技术者认为,人工智能应是合理的思考行动,这一逻辑以合理性(rationality)为考量因素,即淡化或者排除人之参与。人们不禁追问,当下的人工智能真能替代人进行活动吗?换言之,人工智能是否真的实现了从“像人一样思考行动”到“合理地思考行动”?

其一:像人一样行动思考

人工智能最早可追溯至20世纪40年代。1942年美国科幻作家艾萨克·阿西莫夫(Isaac Asimov)在他的短篇小说《四处奔跑》(Run Around)中第一次提出机器人的三大法则,[2]See Michael Haenlein and Andreas Kaplan, A Brief History of Artificial Intelligence: On the Past, Present, and Future of Artificial Intelligence, 61 California Management Review (2019), p.5.根据该法则可知:人工智能的初期设计理念呈现出一种机械性,突出的是人工智能的工具价值即服从、服务于人,而对于一台计算机是否真的具有智能,并没有提供明晰的识别标准,但阿西莫却为机器人、人工智能和计算机科学的研究指明了方向。随之,1950年,图灵在他的《计算机与智能》一文中,对机器是否具有智能提供了一个可操作性的界定方式。[3]See Eva-Maria Engelen, Can we share an us-feeling with a digital machine? Emotional sharing and the recognition of one as another, 43 Interdisciplinary Science Reviews (2018), p.125.因此,人们普遍认为图灵测试为人工智能(AI)作为一门学科的建立和快速发展提供了具体灵感,对计算机技术和智能的发展具有里程碑意义,被誉为哲学和AI的灵感之源。[4]See Daniel Berrar and Akihiko Konagaya, Turing Test Considered Mostly Harmless, 31 New Generation Computing (2013), p.241.但是,早期的人工智能理念侧重于“以人为中心”,只能是简单的模仿,即由人们设定目标程序,当既定的场景与该程序契合时,计算机便机械的做出如人一样的反应,其应是人行为的一种映射,由此可抽象出早期的人工智能行为模型:输入为从传感器得到的当前感知信号,返回的是执行器的行为抉择,即“条件—行为规则”。根据这一行为模型可知,早期的人工智能模型实质是建立在三段论(syllogisms)推理结构之上的,即只要前提正确,机器总能机械的得到正确的结论。局限性在于其间没有价值判断以及价值选择的“合理性”因素考量,正如学者所言:图灵似乎高估了技术进步的速度或者对根深蒂固的思想范式的转变过于乐观,他对“思维机器”可行性的预测都尚未在工程学或符号语义学上实现。[5]See Appa Rao Korukonda, Taking stock of Turing test: a review, analysis, and appraisal of issues surrounding thinking machines, 58 Computer Studies (2003), p.240.

其二:合理地思考行动

由于人类知识的有限性,对行为选择或者行为前提的正确性也并非百分之百确定,在某种层面上对复杂问题的决断也仅仅是达到“合理性”标准。基于此,“合理Agent”(rational agent)理念便具有了说服力,即:当存在不确定性时,为了实现最佳期望结果而行动。[6]参见[英]斯图尔特·罗素:《人工智能—一种现代的方法》,殷建平等译,清华大学出版社2013年版,第4页。但是,对于“合理地思考行动”之模型在思维法则层面存在三项难题:首先,获取非形式地知识并用逻辑表示法所要求的形式术语表现出来并不容易;其次,机器所赖以做出行为决策的大前提并非是绝对正确的,即其对大前提并没有判断能力;最后,行动是建立在最大可能获取的基础之上,其实质是知识的不完全获取。该种行为模型通过赋予机器以“智能选择”,其可以通过自身判断来实现目标的合理性,并在多种可选择方法中,择取最优方案。但该行为模型关注的是行为选择的合理性,即通过大量的示例性标记来证明是否与预先存在的行为相对应,以确认认知类型是否符合测试所假定的智能行为。[7]See Paul Schweizer, The Truly Total Turing Test, 8 Minds and Machines (1998), p.263.其本质是以经验科学为基础,进而对符合经验科学与否的检视,仍属于弱人工智能范畴。

2.强人工智能:“合理地思考行动”到“完全图灵测试(total Turing test)”

由于人的物理模拟对智能是不必要的,所以图灵测试有意避免询问者与计算机之间的直接物理交互,而一台真正的智能计算机不仅要具备对现象的感知判断能力,也应具备相应的思考的能力,因为思维有时伴着行动,有时却没有。[8]See Paul Schweizer, The Externalist,Foundations of a Truly Total Turing Test, 22 Minds and Machines (2012), p.191.据此,完全图灵测试认为,真正的人工智能应具有以下能力:(1)自然语言处理(2)知识表达(3)自动推理(4)机器学习(5)计算机视觉等。一台真正的智能机器,应综合具备自主思考,自主行动,自主学习以及自主判断的能力,其并非是一种忽略道德,伦理与价值判断的“合理性”机器。但随着信息技术的发展,大数据(big data),“深度学习”(deep learning)的兴起,人们似乎看到了希望,进而认为完全图灵测试将最大程度的成为可能。事实真的如此吗?以自动驾驶汽车为例,根据国外一项统计数据显示:每行驶一百万英里,传统汽车的事故率为1.9%,自动驾驶汽车为9.1%;传统汽车造成的受伤率为0.77%,自动驾驶汽车为3.29%;传统汽车造成的死亡率为0.01%,自动驾驶汽车为0。[9]See Brandon Schoettle and Michael Sivak, A PrelIminary Analysis Of Real-World Crashes Involving Self-Driving Vehicles, available at: https://pdfs.semanticscholar.org/0c0d/9cf05025a885c0c55c99fec862860410db3c.pdf?ga=2.29548223.147122049.1571967505-514633799.1571967505, last access on 10 December 2019.由此可知,“人工智能时代”,智能机器之表现并不如预想的完美。

(二)人工智能嵌入司法审判的运作逻辑

人工智能嵌入司法审判的运作逻辑可分为两种:其一,运用符号学知识将法律文本编写入计算机程序,对于可直接适用法律的问题,直接遵循法律裁判,此种逻辑类似于语法的浅层结构;其二,对于尚需裁量解释的案件,通过智能算法对先前的法律适用不断进行整合、分析、学习,随之抽象出核心观点并将其教义化设定为大前提作为裁判依据,此种类似于语义的深层结构。

1.人工智能嵌入司法审判的浅层结构

法律适用并非必然涉及价值判断,对于简单案件的裁判一般直接沿着“事实——法律”的涵摄路径展开,该类案件一般事实清楚、案情简单,其间没有复杂的法条竞合,法律解释等。例如2019年民事诉讼重大改革中规定,基层法院标的额5万元以下的实行一审终审。此种裁判方式类似于“条件(法律)—行为(裁判)”的算法运作结构,即根据某一事实是否符合某一法律规定,进而做出相应的裁判。基于此,程序人员通过对审判逻辑的抽象建模,将既定的法律文本运用符号学知识编入程序,运用数字扫描、关键词提取、法条自动匹配以及类案的自由裁量系统等技术最终通过人工智能生成裁判文书。

2.人工智能嵌入司法审判的深层结构

法律适用不仅有法条的独立适用还有复杂的体系解释,文义解释以及相应的法理遵循。司法实践中,对于复杂案件的裁判可能会涉及到个案中复杂法律关系的认定,同案同判的公平正义,更可能需要对法律条文进行解释适用。目前,人工智能仍停留在“弱人工智能”阶段,对于复杂案件的智能审判是以“最大合理性”框架进行建模,即运用深度学习系统对大量司法数据进行训练,并通过调整自己的参数最终提高预测的可靠性。随之,忽略深度学习结果的真伪性将其作为大前提进行类型化适用,此种模型构建的逻辑有二:其一,假定类案中裁判都是正确的,因而得出的结论也应该是正确的;其二,认为机器学习工具提供了一种可能性,即基于比人类能够处理和操作的多得多的数据,做出更准确、更快的决策。[10]See Ashley Deeks, The Judicial Demand For Explainable Artificial Intelligence, 7 Columbia Law Review (2019), p.1831.

二、人工智能嵌入司法审判的困境

从应然层面上看,人工智能嵌入司法审的确可实现审判形式的智能化,审判过程的效率化,审判结果的公正化;但是从实然层面上看,司法逻辑并不当然可通过算法逻辑进行准确表达,因为法律体系范围广泛、形式多样,所以在这一领域进行公理化是个有难度的冒险活动,[11]参见[德]乌尔里希·克卢格:《法律逻辑》,雷磊译,法律出版社2016年版,第262页。同时,基于个案事实不一,如何能保证机器智能识别进而对案件做妥适的评价?如何基于法理以保证法律的解释化适用?换言之,符号主义必然无法完成类脑智能的目标而被连接主义和行为主义取代。[12]参见林艳:“人工智能的符号主义纲领及其困境”,载《求索》2019年第6期,第189页。因此,对于人工智能的嵌入困境需基于技术与理念双层维度展开。

(一)人工智能嵌入司法审判的技术困境

公平正义是司法的基石,司法是否公正,在一定程度上取决于审判方式和诉讼规则的构建,这是一个非常重要的内在逻辑起点。人工智能嵌入司法审判的技术困境集中体现为涉及疑难案件时运用大数据进行的深度学习,因智能技术的固有属性,其嵌入司法审判时必然会带来规则映射的断裂。

1.大数据

作为保障人工智能推理正确性的知识前提,如何抓取系统所需的知识一直是阻碍人工智能发展的症结,而在这个加速数字化和先进的大数据分析的时代,多数人坚信:利用高质量的数据和洞察力将使创新的研究方法和管理方法成为可能。[13]See Stefan Cremer and Claudia Loebbecke, Artificial Intelligence Imagery Analysis Fostering Big Data Analytics, 11 Future Internet (2019), p.1.目前,各种软计算、机器学习、和其他技术在人工智能应用方面一直都是利用索引来满足要求其数据需求,但是移动设备和云应用产生的数据量、速度和多样性的爆炸性增长,使得有效的数据存储和管理解决方案并不能满足数据量不断增加的异构数据的需求。[14]See Abdullah Gani and Aisha Siddiqa, A survey on indexing techniques for big data: taxonomy and performance evaluation, 46 Knowledge and Information Systems (2016), p.241.而作为系统所赖以行为的知识,本身应是有限的,当系统不具备此种知识时,系统可否做出正确的反应?换言之,是否对于任意一种数据均可以通过索引技术进行索引以满足其知识的饱和供给?因此,基于知识之特征、类型的多样性,应摒弃人工智能“万能论”思想,可将知识分为非人工智能索引信息、人工智能索引信息和协作人工智能索引信息,对于非人工智能索引信息,不应有人工智能介入空间;对于协作人工智能索引信息,人工智能仅应部分介入;对于人工智能索引信息,方可突出其独立价值。

2.深度学习

学习新知识是人类的主要特征之一,包括行为主义、社会认知、语境和发展理论等,由于人类具有各种非同质性的学习方式,因此可将学习分为两种:(1)直接学习,即通过直接教学进行学习;(2)自主学习,即通过人对直接学习结果的重新组合进行学习。[15]See Dianyu Z, English learning strategies and autonomous learning, 1 Foreign Lang Educ.(2005), p.12.学习同样在自主agent[16]See Dorigo M and Colombetti M, Robot shaping: Developing autonomous agents through learning, 71 Artif.Intell (1994), p.321.的发展中也起着至关重要的作用,目前,深度学习已经取得了极大的成功,并被广泛应用于人工智能的几乎每一个领域,尤其是在其取得了令人自豪的计算围棋记录之后。[17]See Yankang Jing and Yuemin Bian, Deep Learning for Drug Design: an Artificial Intelligence Paradigm for Drug Discovery in the Big Data Era, 20 The AAPS Journal (2018), p.1.就人工智能的演变而言,直接学习对应的是弱人工智能模式,而自主学习对应的是强人工智能模式。人类知识积累的主要方法是自主学习,因此,如果计算机能够进行类似于人类的自主学习,它们也将能够像人类那样自主积累知识。[18]See McGrath R.G, Exploratory learning, innovative capacity, and managerial oversight, 44 Acad Manag (2001), p.118.然而,计算机却不能积累超过其给定程序设计的额外知识,为了使计算机积累更多的知识,额外的程序编码是必要的,[19]See InHyo Joseph Yun and Dooseok Lee, Not Deep Learning but Autonomous Learning of Open Innovation for Sustainable Artificial Intelligence, 8 Sustainability (2016), p.9.因此智能算法的编写便构成深度学习的基础。梳理人之学习逻辑,人类认知过程中的学习是由直接学习和自主学习的循环构成,在这个学习过程中,已被证实的知识和假设的知识分别转化为确认的信息和非确认的信息,并将两者之间的边界相对设定,使其能够循环。[20]See Corbett A.T and Anderson J.R, Knowledge tracing: Modeling the acquisition of procedural knowledge, 4 User Mode User Adapt (1994), p.253.“已证实的知识”是通过各种方式和渠道直接从外部环境输入的知识,通过直接学习而建立起来并将已证实的知识与人类意识相结合;“假设性知识”是在自主学习的过程中,通过对这些信息的各种重新组合而获得,这种假设性的知识被转化为“非确认信息”,通过环境与人的相互作用产生一定的分支。[21]See Polanyi M, Personal Knowledge: Towards a Post-Critical Philosophy, University of Chicago Press, 2012, p.125.由此可知,自主学习是人类之认知和元认知能力发展而来的功能:(1)处理、计划和调节学习活动;(2)控制和调节情感和动机。[22]See Kessler G and Bikowski D, Developing collaborative autonomous learning abilities in computer mediated language learning: Attention to meaning among students in wiki space, 23 Comput Assist Lang Learn (2010), p.41.然而,即使是深度学习,计算机所积累的知识或信息也仅限于以程序形式输入的已确认的知识,这些程序是通过直接学习内部完成的,即直接编码过程。换言之,即使现在计算机已经可以通过深度学习分层训练模型和自我编码解码校验方式等自主提取分析数据,例如2011年“谷歌大脑”研究计划中机器成功的形成了对一只猫的印象,[23]参见万赟:“从图灵测试到深度学习:人工智能60年”,载《科技导报》2016年第7期,第27页。但是其仍旧缺乏类似于人类在社会交互关系中所进行的自主学习过程。

(二)人工智能嵌入司法审判的话语冲突

司法本质上是一种争端解决机制,任何争端解决机制的系统设计都有其逻辑起点。司法审判以公平正义理念为逻辑起点,遵循个案中规范的张力平衡适用;人工智能以“最大合理性”为规则编写的逻辑起点,遵循个案中适用的最优状态,人工智能嵌入司法审判的话语冲突可具体为以下几个方面。

1.算法“技术评价”与司法“价值判断”

作为一种技术规范,算法编写以数理逻辑为基础,其追求的是算法运作的流畅性,效率性,即在最优前提下保证逻辑的对应性契合,对于事实与规范的判定注重形式公平;但司法实践不仅需注重法律条款的正确适用,更涉及到复杂的价值判断与法理遵循。因此,司法领域的固有属性和独特需求使得人工智能嵌入司法审判时对技术的专业性和精确度有着极高的要求,[24]参见刘艳红:“大数据时代审判体系和审判能力现代化的理论基础与实践展开”,载《安徽大学学报(哲学社会科学版)》2019年第3期,第97页。例如,刑事证据中证明力的判断一般遵循自由心证原则,具体涉及到证据的真实性、关联性判断,而区别于法律推理明确的前提和结构,证明力的判断并无确切的法律依据,其是一种主观性较强的理性判断。从一定程度上来说,虽然人工智能与司法审判具有同样的规则运作逻辑,即:只要能厘清人类智能所遵循的功能原理就可以通过形式化的符号来描述人类智能的认知过程。但不容忽略的是,两者的逻辑起点却大相径庭,算法本质上来说是基于语法,语义,语境的唯一确定性,在忽略歧义的前提下,进而保证结论的正确性,其只是一种技术性的运作过程,其间没有价值判断。但司法审判中,不仅会涉及到体系解释,学理解释,文义解释等,更涉及到法理与情理的考量,例如司法审判中,不仅会涉及到法律的正确适用问题还会通过法律解释兼顾社会影响。

2.算法“刚性”有限适用与司法“柔性”周延涵摄

算法通过模拟人之认知过程,遵循逻辑推理规则运用符号学知识编写程序并最终形成类人脑的运作系统,因此有人认为:“在本质上,人类就是一台智能机器,是一台计算机”。[25]See Haugeland J, AI: The Very Idea, Massachusetts, MIT Press, 1985, p.2.可事实真是如此吗?一方面,科技的进步虽已使机器可以自主学习,但机器的自主学习,自我革新,自我升级仍属于技术性范畴,对于情感、假定、直觉和想象等其他基本的思维形式,其仍无法应对。另一方面,算法运作更倾向于独立思维,而缺乏交互的关系思维,人类的推理不应是脱离语境的独立结构,正如笛卡尔所言:“即便会有智能机器与人类相似并尽可能在道德层面可行的范围内仿效我们,但它们仍然并不是真正的人”。法律的适用过程也就是法规范通过逻辑演绎适用于个案的过程,即将个案事实涵摄入法。[26]参见刘风景:“关系思维的法学意义”,载《法商研究》2019年第5期,第127页。法律涵摄内在包含两者方式,其一为法律规范与法律事实直接契合;其二为法律规范通过解释以契合法律事实。当智能算法嵌入司法审判时,其运作逻辑同样可分为两种层次:其一是忽略语义障碍,以法的一般性规则为基础,智能识别法律关系,实现两者契合,在理想层面上,此时算法确实可对事实进行有效的回应,但却呈现出一种孤立、机械性;但当算法嵌入到特殊性规则时,通过深度学习在一定程度上其也可实现部分案件的裁判,可涉及到复杂的法理解释,法律常识,法律术语时,智能算法则会表现得相当乏力,出现涵摄不周延的现象。与之相反,司法审判却可通过多种关系思维关系的转换,运用多种解释方法,不仅可突破复杂法律关系与思维关系机械性映射障碍,实现事实认定从“模糊抽象”到“明确具体”的突破;更可以增强法律规范的张力,实现其“柔性”涵摄。

3.算法“隐蔽运作”与司法“公开透明”

算法依附于程序借助计算机而内在运作,因而具有高度隐蔽性,同时由于缺乏外在的透明度,对应的约束追责机制以及监督制约机制导致的算法偏见、算法控制等各种算法异化现象屡见不鲜。人工智能话语下,编程者将同一类问题的处理过程进行数据分割,模型选择,模型训练进而模式化称之为算法,[27]参见刘友华:“算法偏见及其规制路径研究”,载《法学杂志》2019年第6期,第60页。基于问题解决方案的多样性,同一问题的解决算法并不是唯一的,但最终的模式设计将由计算机工程师所决定。毫无疑问,在这一背景之下,设计者的偏好或目的将会导致计算机程序产生某种偏见,例如性别歧视、种族歧视以及各种损害公私权益的算法偏见,但即便这种程序设计有明显的不合理,因其为内在隐蔽运作,也很难被非专业人士所知悉。相反,司法审判中整个审判过程能以直接,公开、公正的样态展现在当事人面前并接受其监督来保证过程、根据及其理由方面的公开透明。[28]参见陈瑞华:“司法权的性质——以刑事司法为范例的分析”,载《法学研究》2000年第5期,第40页。此外,司法审判作为一种法律文化,有其自身的文化意蕴,无论是法庭布置、服饰还是司法的仪式性都表征着其固有的庄严性、权威性与严肃性。[29]参见王禄生:“司法大数据与人工智能技术应用的风险及伦理规制”,载《法商研究》2019年第2期,第108页。将“数据审判”模式嵌入传统的“法官审判”模式时,大数据的样本选取,裁判观点的提取,程序的遵循度都处于一种隐蔽的状态,当事人很难就可能发生的侵害行为进行救济。同时,数据审判时,当时人的参与感,庭审话语权,审判的威严性以及当事人的内在诉求都无法有效的得到满足,司法的定争止纷、惩戒威慑以及保障救济之权能将其进一步弱化。

4.算法“标准论证”与审判“相当论证”

司法审中证明标准多样且刑事诉讼与民事诉讼又有本质差异,对于不同民事案件不仅存在“高度可能性”标准,同样也有“排除合理怀疑”的标准。作为案件定性的依据,算法对于证明标准问题存在明显的适应性不足,算法是将某一种运作过程固化并进行程序化的智能设计,其在保证标准统一的同时也不可避免的陷入到适用困境。一方面,智能机器通过对“先例”裁判文书的深度学习,虽然可以在数字量化方面有客观的评价但是对于实体定性的证明标准方面仍无法有效回应,例如,故意杀人罪中,故意包括直接故意与间接故意,对于间接故意的认定不仅涉及到行为人的危害程度,行为人的主观过错,还涉及到是否为正当防卫,是否为紧急避险等一系列问题,这些问题的判断不仅需要考虑人之生活经验、生理本能、主观认识,还应综合考虑刑事政策,[30]参见周详、李耀:“正当防卫司法纠偏的刑事政策视角”,载《河北法学》2019年第9期,第40页。社会影响以及所采用的权利论视角等多方面因素,例如,于欢案、昆山龙哥砍人案等。另一方面,对于不同证明标准本身的边界,智能算法无法应对,民事诉讼中对于一般案件的证明标准只需达到高度可能性,而对于欺诈、胁迫、恶意串通以及口头遗嘱或赠与事实所采用的排除合理怀疑标准,但两者适用标准选择问题以及具体证明时所涉及的程度问题,智能算法显然无法有效解决,即使可以通过大数据对先例裁判进行深度挖掘,但也很难以一种标尺化的方式实现裁判正义。

三、人工智能嵌入司法审判的路径

算法对于司法之话语冲突、异化风险、伦理障碍等多重困境,当两者深度融合时应以比例原则为纲要并对算法的编写、运作以及结果进行多维度透视。

(一)前提维度:从“技术理念”向“法律理念”转变

目前,人工智能的开发和利用已进入爆炸式发展阶段,但对于算法之设计理念,伦理遵循,法律规制等方面仍处于空白。2017年欧盟《向欧洲委员会提出的关于涉及机器人民事法律规则的提案》中规定了研发者的行为规范包括尊重包容、问责追责、隐私保护、效益最大、危害最小等内容,2018年欧盟《人工智能开发和适用伦理指南》规定欧洲人工智能联盟需在数据、算法、技术等方面共同遵守该指南;同时日本也对人工智能之开发应用提出相应的要求,即,以人为本,防范风险,技术中立以及灵活变通。[31]参见季卫东:“人工智能开发的理念、法律以及政策”,载《东方法学》2019年第5期,第8页。算法之技术理念追求的是最大合理性下,算法编写的最优性以及程序运作的安全稳定性,但程序人员对法律背后目标的明确表示还很匮乏,例如目的、政策、利益、价值;此外对法律结构的分析以及对法律内容的研究匮乏。[32]See Vytautas Čyras, On formalisation of the goal concept in law, 20 Engineering Applications of Artificial Intelligence.(2006), p.601.与之相反,法律不仅追求的是法之稳定性,可预测性,同时也包括法律适用的实质公平以及人文关怀。算法偏见或称算法歧视可内在分为两种情形:一种为算法编写的歧视,例如Northpointe开发的COMPAS罪犯再犯预测系统蕴含着对黑人的歧视;一种为算法运作过程中的歧视,例如基于数据选取,模型训练而产生的病毒性歧视。[33]See Anupam Chander, The Racist Algorithm, 115 Mich.L.Rev.( 2017), p.1036.因此,在人工智能嵌入司法审判时,算法编写应明确算法编程者之法律责任,首先应改变价值选取顺位,算法编写不应简单的以技术思维抽象出最优架构,而应向法律思维转变更多关注司法适用的人文关怀,无论是大数据的过滤选取,还是模型的架构都应尊重人格伦理,坚持公开、透明理念避免人之合法权益受损。[34]山本龍彦, 『AIと個人の尊重、プライバシー』(日本経済新聞出版社、2018年)59-119頁“参照”。其次,辩证对待技术中立观点,明晰政府及其程序人员之社会责任,引入监管与评估机制,明确界定追责与免责之边界,同时强化伦理观念,将道德内化于算法设计,增强算法设计者之法律思维。

(二)过程维度:秉持“部分融入”观,切分司法运作过程

人工智能与法学的研究领域相遇并融合到人工智能与法学的跨学科研究领域中并不是巧合。因为这两个领域都使用形式方法,在AI中,有软件、逻辑与统计;在法律中有法规、程序和机构。但算法运作具有机械性,当涉及到价值判断、价值选择、法理表达时则会出现适用乏力。司法审判时,并非每一个环节均会涉及到价值判断,法律解释,法理考量,因此对于价值无涉的环节均可有其适用的余地,突出其独立价值;而对于需进行价值判断的部分不应突出其独立价值,此时其可作为一种案件裁判的辅助检视工具。

具体而言,需基于比例原则切分司法运作过程,坚持效率与公平并举,警惕技术异化,避免算法造法之风险。第一,诉讼前:对于各种诉讼文书,例如答辩状,起诉状等均可通过数字系统进行传递,对于是否符合起诉条件,诉讼材料是否齐全,人工智能可借助语音识别与图像识别技术,将相关信息迅速进行电子化处理并做出判断以突出其效率性。第二,诉讼中:一方面,对于简单的案件,例如适用简易程序案件,小额诉讼案件、涉及数额裁量以及无需进行价值判断案件,法律解释适用无涉的普通案件等,此时因为标的额多数较小、案情简单,可通过人工智能进行裁判;另一方面,对于复杂的诉讼案件,仍应以法官审判为主,审判人员可以通过人工智能进行案件模拟审判,运用大数据避免出现同案不同判的对应性偏差;此外法官也可借助人工智能系统,缩短对于法律法规、司法解释、同类案件等信息的检索时间,从而提高审判效率。[35]参见涂永前、于涵:“司法审判中人工智能的介入式演进”,载《西南政法大学学报》2018年第3期,第50页。第三,判决做出前:通过人工智能可建立法官案件裁判的预警评估机制,对法官之裁判做预警审核,以一种“二次审核”的方式,确保法官之裁判公正正义;同时基于算法编程的多样性,对于运用人工智能独立审判的案件也可编写一套路径不同的审判系统,因为AI司法必然要将有利和不利、加重或减轻责任的事实转化为可替换、梯度性处理数据的计算参数,法院可基于此进行交叉检验,[36]参见李飞:“人工智能与司法的裁判及解释”,载《法律科学(西北政法大学学报)》2018年第5期,第36页。确保人工智能作出更审慎公正的裁判。

(三)结果维度:工具价值优先,遵循“人工+人工智能”结合

人工智能和机器人技术的持久创新提供了预期的计算机意识,感知力和理性能力,但人工智能之于司法审判不应冠以“万能论”,因此在两者深度融合时应坚持工具价值优先,坚持“人工+人工智能”的组合。目前人工智能仍处于巨大技术瓶颈,而算法编写又是建立在回避技术盲区基础上的有限理性,但并不能由此否定人工智能部分已成熟的技术优势。人工智能嵌入司法审判的最大困境在于,前者对于人类主观意识影响的社会文化和意识领域的各类问题仍是无法应对,[37]参见吴月辉:“人工智能会取代人类吗”,载《人民日报》2017年7月7日。也即复杂的法理于情理以及法律推理问题,而这一部分恰是法官审判能动性的独特表现。自1970年代起,人工智能与法律交互关系的研究一直在进行,例如,如何进行文本挖掘和案例自动摘要,如何开发支持论证的工具,如何开发基于案例推理技术的量刑工具以及如何将AI应用于法律证据的研究,如何将其应用于打击犯罪和犯罪的识别工具等[38]See Ephraim Nissan, Digital technologies and artificial intelligence’s present and foreseeable impact on lawyering, judging, policing and law enforcement, 32 AI and Society (2017), p.441.,遗憾的是,虽然计算机储存以及信息开发技术突飞猛进,但对上述问题似乎正日益滑向“不可知论”。[39]参见刘艳红:“人工智能法学研究的反智化批判”,载《东方法学》2019年第5期,第119页。人工智能本质上仍是一种算法,而人类思维中除了算法之外,社会思维、形象思维、灵感等占了大多数,但恰恰在这一方面人类自己都尚不清楚其运作机制,又如何能实现人工智能的模拟?[40]参见纵博:“人工智能在刑事证据判断中的运用问题探析”,载《法律科学(西北政法大学学报)》2019年第1期,第65页。同时,国外研究表明法官的情绪很大程度上会影响司法审判,它由四种基本类型构成—愤怒、恐惧、厌恶和同情。愤怒和厌恶源于对不公正的蔑视,这种蔑视会激发人们的直觉,而这种直觉总是倾向于刑事判决;另一方面,恐惧和同情会引起对误判的关切,促使法官进行分析性思考,从而得出更富有同情心的裁决。[41]See Kim and Hyum Seok, Judge’s emotion during trial and judicial decision-making processes, Korean Lawyers Association Journal (2019), p.254.因此,人工智能与司法审判应是相辅相成,相得益彰的关系,个案适用中的自由裁量、利益平衡以及对公平的判断,智能算法显然无法应对,而对于人工智能独特的中立价值又是司法正义所追寻的,例如:上海市高院的智能辅助办案系统、[42]参见王建、闫帅:“贵州开启大数据办案新模式”,载《民主与法治周刊》2017年5月15日。贵州检察院的证据标准系统、[43]参见严剑漪:“揭秘“206”:法院未来的人工智能图景—上海刑事案件智能辅助办案系统164天研发实录”,载《人民法治》2018年第2期,第40页。以及例如:法律推理系统、司法裁量系统、信息检索系统、法律知识与概念分析系统、证据标准系统等。基于此,从部分的角度看,人工智能有其固有的工具价值可以促进效率,公正统一适用;但是从整体看,人工智能也并不当然无法独立承担案件审判,只是应区分是否会涉及到价值判断,如果仅有法律适用问题,其仍可独立适用,反之便应突出其工具价值。

结 语

人工智能和控制论的持续发展为理性和有意识的机器人提供了越来越近的可能性。在某种意义上,本文之论述似有“泼凉水”之嫌,但通过对算法逻辑的细致梳理,可得出算法并非万能之结论。目前,在这一领域的研究中,压倒一切的优势集中在人机交互上,并没有充分考虑未来人工智能共同交流的道德必然性,同样也没有解决机器人间交互的道德本质。概言之,人工智能应以是否涉及价值判断为标准作为其嵌入司法审判之边界,并以“工具价值”为主,“独立价值”为辅作为其嵌入理念,在嵌入过程中应摒弃盛行的“学术泡沫”研究思路,回归到司法的具体应用问题,不应只追求效率而忽略实质公平。具体而言:需从“技术理念”向“法律理念”转变,代码编写、模型建构应融入法律思维;秉持人工智能“部分融入”观,以是否需价值判断为节点切分司法审判运作过程;明确算法“工具价值”的逻辑前提,司法审判应遵循“人工+人工智能”的结合。

猜你喜欢

审判司法人工智能
制定法解释中的司法自由裁量权
司法所悉心调解 垫付款有了着落
2019:人工智能
非正式司法的悖谬
人工智能与就业
“五个到位”推动未成年人案件审判试点工作
数读人工智能
裕仁天皇如何逃过审判
下一幕,人工智能!
消失中的审判