APP下载

人工智能对法律的挑战
——以法律推理与裁量模型为研究中心

2019-01-26孙卓婷

政法学刊 2019年3期
关键词:人工智能人类法律

孙卓婷

(华东政法大学 国际法学院,上海 200050)

一、人工智能与法的相结合

AI的全称Artificial Intelligence,即中文中所称的“人工智能”。近年来随着人工智能大举进入人类的现实生活,其项下的多个垂直领域都兴起了相应的研究热潮,法律自然也不例外。许多法科类院校纷纷设立人工智能与法律研究点,如西南政法大学设立了人工智能法学院及法律研究院,浙江大学借助其强势的理工科背景,成立了互联网法律研究中心,并于2018年起拟招收“互联网法学”、“大数据、人工智能与智慧司法”等多个法律与人工智能交叉领域的博士后研究人员,拟从事研究工作,并且待遇优厚。①详见浙江大学光华法学院官网博士后招募信息http://www.ghls.zju.edu.cn/ghlscn/2018/0606/c13584a1105633/page.htm,2019-05-28。那人工智能与法律的结合真的可行么?两者可以结合到什么程度?两者的结合会使两个学科得到共同的发展与进步么?这些都是这个时代最新,且由于尚未有定论而需要我们学者努力探寻的问题。

(一)人工智能对法律行业的冲击

从问题的产生来看,不乏有人会提出如下两个问题:“法律必须与人工智能相结合么?是否可以保持法律的原生态而使其独善其身呢?”其实在笔者看来,此处的结合与其说是一种人为的选择更不如说是一种历史发展的必然趋势。古往今来,像法律和医学的从业者其需要经过长期的专业训练以及大量阅历、学识的积累,故而两行业的从业者在社会薪酬、待遇方面也往往较为可观。但是在AI浪潮强势袭来的背景下,法律人如果仍然想关上自己所不熟悉的大门,努力用自己所熟悉的概念和思维框架来限定技术革新正在带来的各种新的可能性的话,用郑戈教授的话来说,“这种努力更像是螳臂当车”。[1] 28-29

郑戈教授曾在其《人工智能与法律的未来》一文中提到“人工智能的迅猛发展不仅仅是一个科学技术领域的新现象,它正在迅速改变人类社会的经济形态、社会交往模式和政治-法律结构。”[2] 11-15诚然,法律工作中包含有大量重复、琐碎的工作,尽管这些工作可能构不成法律工作的主体,但却往往成为法律工作的必要前提,而人类引以为傲的信息检索、分析能力,在AI面前往往显得脆弱不堪。

2018年2月的一则新闻轰动了国内外媒体界,专门从事法律人工智能产品开发的Law Geex公司与斯坦福、杜克和南加州大学的法学教授们合作进行了一项新的研究,让20名有经验的律师与训练好的法律智能算法竞赛,在四小时之内审查五份保密协议,找出包括保密关系、保密范围、仲裁、赔偿在内的30个法律问题点,以界定法律问题的准确和明晰程度作为得分点。人类律师平均花费92分钟完成了任务,准确率是85%,而人工智能系统仅用了26秒就完成任务,准确率高达95%。事实上,这已经不是第一次人类在法律技能竞赛中败给AI了。2017年11月,剑桥大学法学院的学生们组织一次人—机法律竞赛,由112位自愿报名参赛的律师和开发法律人工智能产品的新创企业Case Crunch的一款产品进行比赛,比赛内容是预测金融申诉专员(Financial Ombudsman)对付款保障保险(PPI)不当销售申诉实际案例的裁断,结果人工智能产品的预测准确率高达86.6%,而人类律师的预测准确率只有62.3%。

今天,科技的变革显得尤其具有“一去不复返”的特点。当我们习惯了坐高铁、用手机的生活方式以后往往就很难再回到坐马车跑长途和写信的时代。同样,面临在各种技能上有巨大优势的AI,法律人如果不做好提前应对的准备无疑是会被科技和时代所淘汰的。

(二)人工智能在法律领域的现实应用

从现实层面来看,人工智能在法律界的运用似乎远超普通人的设想。国内知名的大成律师事务所在2016年就创建了自己的人工智能实验室Nextlaw Labs,并与IBM公司的认知技术平台沃森(Watson)合作开发了法律人工智能产品ROSS。包括达维律师事务所(Davis, Polk & Wardwell)在内的许多大型律师事务所已经设置了一种新的职位:首席知识官(Chief Knowledge Officer,CKO)或首席技术官,带领一个团队专门从事本所的数据库建设和人工智能产品投资、开发和调配。这表明一种新的法律职业——法律知识工程师——正在兴起。关于人工智能产品在法律领域的现实应用,从整体趋势上看,与传统的法律界相比,人们对于律师信息归类以及法律检索相关的要求会在将来大幅度降低,因为这些工作的可替代性或者说人力做起来远不如AI来得更全面、准确。这也预示着未来在律师以及社会的其他行业都会更加注重人与人之间的沟通。

从现实的工作内容来看,AI也相继在证据搜集、合同撰写、诉讼管理等方面崭露头角。从法律文件审阅自动化的角度来看,无论是调查取证、尽职调查,还是合同分析、合规审查,都需要对法律文件进行审查、分析和研究。而将AI运用于这一领域将能够显著提升法律人的工作效率。德勤(Deloitte)借助机器学习的合同分析系统Kira Systems,只要15分钟就可以读完原本需要人类律师花费12个小时才能审阅完的合同。①详见观察者新闻https://www.guancha.cn/economy/2016_03_10_353535.shtml,2019-05-28.美国Casetext公司开发的案件分析研究助理CARA可以帮助律师和企业法律顾问完成从判例、法规分析到陪审员选择直到法庭辩论文书生成的一系列任务。②详见Venture Beat 官网https://venturebeat.com/2017/03/22/casetext-raises-12-million-for-legal-research-assistantcara/,2019-05-28.

从上述例子均能看到,正如人工智能巨头企业依图科技的标语所言“未来已来”,在新时代新科技的浪潮下,如若再墨守成规,对于每个行业都无异于是作茧自缚的。

(三)法律与人工智能相结合的理想状态

不得不承认,越来越多的人已经认识到,法律未来的发展与走向是势必离不开与人工智能的结合的,但此种结合能应用到什么程度?或者说其间会带来的难点和挑战是什么?以及人类会否因其不当运用而自食恶果?这些问题无一不扣动学者们的心弦。有关于人工智能与法律结合的可行性以及程度分析笔者会在本文的接下来部分进行具体论述,此处仅对法律与AI结合的前景做些宏观性的展望。

从上文的介绍中我们可以看出,AI对于法律工作中的数据收集与处理部分而言是显然能够胜任的,甚至完全超过人类的能力,但是我们设想的AI或者说未来势必发展起来的强AI的远景实际上远不局限于此。

AI的全称是Artificial Intelligence,即中文中所称的“人工智能”,那何以能称其为“智能”呢?笔者认为对于所谓“智能”较为通俗的解释,其实就是指其可以像人类那样思考,或者说起码“表现得像是人类在思考”。此处我们不用图灵测验或中文屋理论探究大脑运作的实质,但究其含义,AI所表现出的,或是能承担的工作任务应远不如“数据处理”那么简单,有关于“数据归类、检索”一类的工作职能其实也称不上本文所探讨的真正的“智能”范畴。那么,我们究竟能否用人工智能做进一步的案件推理甚至是断案呢?

在笔者看来,要使AI真正掌管“断案大权”,这种设想无论是从技术上还是法理上甚至在人类伦理上都是站不住脚的,起码从现在的情况来看很有很大一段的距离要走。AI与法律结合的理想状态在笔者看来应为一种“辅助审判”的工作模式,而远非任由AI掌握人类的“生杀大权”。

首先从案件的公正审理角度来说,如果AI日后真的能发展到强AI的阶段,进而由其全权掌控案子的走向而人类不加监管的话,毫无疑问会产生人类学上的危机。司法作为公平正义的最后一道防线,掌管着人类的生、死、自由、名誉。在当今尚且由人类主导审判的司法社会,人们对于错案、冤案的容忍度都是极为有限的。如若真的来到由机器人掌管人类司法命运的那一天,人类毫无疑问会有深刻的不安全感。其次从判案的本质来说,一个案件的判决,本就可以说没有“绝对意义”上的“正确处理”可言,人类允许类似案件存在一定幅度以内的不同处理,但人工智能是否可以做到这种考量(亦或称量化)?如若真的做到了这种考量,是否意味着一个新的物种的诞生(毕竟这种考量不是由简单的数据分析可以直接得出的)?一系列的问题表明这都不是人类社会所期待的AI能够达到的理想状态,尽管起码从现阶段的科技、语义学、大脑生物学研究水平而言,AI本质上也还达不到这一点。

由于AI与法律的结合事实上会涉及到与其他诸学科的交叉研究。在此由于篇幅有限不作过多展开,本文是篇法学论文,下文将从法律推理与裁量模型的角度出发,探讨AI在法律领域适用的可行性与挑战难点。

二、从法律推理看人工智能对法律的挑战

技术是否真的能够取代人类推理,这是颇有争议的。一般认为,法律推理在本质上往往是动态的和或然性的,法律逻辑建立在“缺省推理”(default reasoning)的基础上,而后者严重依赖于新证据出现之时的修正或对旧证据的重新分析。

(一)法律推理的形式主义与现实主义之争

法律推理是一个世界性的法学难题。美国法学家孙斯坦说:“几乎在每个国家法律推理似乎都是深不可测、神秘莫测而且是极其复杂的。有时它又似乎根本不是一种推理形式。”[3] 1如果回顾法律理论的传统,分处法律推理理论坐标之两端的形式主义与现实主义所争议之核心问题,不过是法律规则到底如何影响法律推理的结果。其中,形式主义主张法律规则唯一性地决定法律裁判的结果;而现实主义对此则持保留态度,转而认为法律规则之外的因素才是真正决定裁判结果的关键。[4] 3-6下面,简单介绍这两种观点并讨论其分别会对AI在法律上的运用产生怎样的影响。

1. 法律形式主义的观点

尽管随着时代的发展,现在主张法律形式主义的声音已较过去少了很多,一些学者也持了相对中庸的观点,即“准形式主义”。然而不得不承认的是,法律形式主义为人工智能法律系统的诞生奠定了理论基础。

有过一般法理学学习经验的学生都知道,法律推理最主要的是三段论,即“大前提——小前提——结论”的结构。大前提是已有的法律规定,比如刑法规定“盗窃信用卡并使用的,以盗窃罪定罪处罚”,而小前提是事实上“你盗窃信用卡并使用了”,那么结论就是“你就构成盗窃罪”。得出这一步之后,再套用盗窃罪的法律规定,结合你盗窃罪的法律事实,再次运用三段论的手法,予以最终的定罪量刑。

18-19世纪的法律形式主义强调法律推理的形式方面,认为将法律化成简单的几何公式是完全有可能的。这种以简·奥斯汀为代表的英国分析法学的传统,主张“法律推理应该依据客观事实、明确的规则以及逻辑去解决一切为法律所要求的具体行为。假如法律能如此运作,那么无论谁作裁决,法律推理都会导向同样的裁决。”[5] 3换言之,机器只要遵守法律推理的逻辑,也可以得出和法官一样的判决结果。在分析法学家看来,所谓“法治”就是要求结论必须是大前提与小前提的逻辑必然结果。[6] 292

不可否认,以上这种观点从逻辑上听起来似乎显得“有理有据”,且使得判案可以像计算机器那样得出“唯一正确”的答案。然而人世间的爱恨纠葛真的可以简单地得出唯一正确的答案么?对于这种形式主义的裁判理论,早在上个世纪,自由法学家比埃利希就将其称为“自动售货机”理论,且该种“自动售货机”理论也常受到其他法学家的诟病。事实上,在人类历史上,也的确产生过由于借用该种理论模式,而生成了许多看似合乎逻辑而实际上却令人啼笑皆非的判案结果。人们也在一次又一次的实践中认识到,形式推理忽略了法官的主观能动性和法律推理的灵活性,简单的逻辑推理并不能给人类带来公正的判决。

2. 法律现实主义的观点

现实主义推理又称实践主义推理,霍姆斯大法官曾指出:“法律的生命不在于逻辑而在于经验。”[7] 478的确,人是社会中的人,案件也是社会中的案件。正如张保生教授所言:“法官在实际的审判中,并不是机械地遵循规律,特别是在遇到复杂案件时,往往需要作出某种价值选择。而一旦面临价值问题,法律形式主义的决定论便立即陷入困境,显出其僵化性的致命弱点。”[8]法律现实主义对法官主观能动性和法律推理灵活性的强调,促使人工智能研究从模拟法律推理的外在逻辑形式进一步转向探求法官的内在思维结构。

其实法律现实主义的观点从法律用语本身的角度探究也可见一斑。首先,法律条文本身具有不全满性,法律条文无疑是有限的,其不可能包含现实中的所有情况,否则也不利于其适应性。其次,对于同一个条文的解释,往往会存在不同的角度,法理学上将其称之为解释的方法,比如文义解释、体系解释或历史解释等。然而极尽解释方法的所能,很多时候我们仍然不能给真实的案件找到合适的大前提,或者说在将“事实”这个小前提运用于大前提的框架下时会让我们感到手足无措,不知从何做起。更多时候,当法律条文无法满足我们“找法”的要求时,我们需要调用法律原则以填补现存法律的空白,而对于法律原则的适用往往要求我们掌握法律的立法环境、背景、目的等,不是单纯地依靠解释原则文字本身就能实现的,这也就自然落入到了法律现实主义的范畴。

除此之外,一个案件的判决往往还涉及到社会因素、道德因素等综合情况的考量。例如同样是杀人,同样是具有杀人故意且具有明确法律条文的前提下,我们仍然不能保证对相似案件绝对做类似处理,即便在定性上都属于故意杀人或都属于正当防卫,面对具体的情节、情境的不同法官还是非常有可能基于其裁量权做出不同的判决。正如同世界上没有两片相同的树叶,世界上也没有两件相同的案子。①2018年热火的龙哥案在这里也是一个典型,在龙哥案之前,类似的由于受威胁虐待导致的“激情杀人”几乎均未被定性为“正当防卫”。

(一)价值判断是否是法律推理的灵魂

由上分析可知,法律实践主义引出了一个较为深刻的问题,即司法裁判的本质是逻辑推理还是价值判断?其实法律推理之所以不同于一般推理的原因之一就是该种推理须置身于“法律”的大环境下。而法律社会毕竟是人的社会,而人类社会的判断标准并不唯一,很多时候亦会存在无解或多解的情况。

从知识论的角度看,单纯的形式逻辑并不能产生知识。在康德的知性理论中归纳了十二种知性的范畴[9] 71-72,人类具有这些普遍的认识能力,并认为事实认定问题,其实是先天知性能力对于外在世界“杂多”的“统合”问题。此外,在康德看来,先验超越于经验,但是先验又必须运用于经验,否则就不是知识,“但对于人类知性来说,这个行动却不可避免地是第一原理,乃至于它丝毫也不能理解别的可能的知性,不论是本身可以直观的那种知性,还是那种即使拥有感性直观但确实不同于空间和时间中那样的感性直观作为基础的知性。”[9] 71-72

以上说法可能显得较为抽象,在此可以用梁慧星教授的一句话来做下知识的类比,梁教授认为“法官活动的逻辑不属于认识思维的逻辑,而属于‘情动思维的逻辑’,其理想不在于各种思维结果的真实性,而在于思维结果的生活价值或利益价值。”[10]或者换一种更好理解的表述即:“人类的生存与生活都离不开社会”。社会性永远是人类的第一属性,社会中的判断必然会运用到价值判断,而该种判断往往受社会共同价值观、自身价值观衡量、善恶是非观等多重因素影响,仅凭人类现阶段的科学技术水平尚不能真正探讨其自身运作原理。

笔者以为,法律推理所要实现的目标必然不是像数学几何公式一般的绝对真理(尚不讨论绝对真理是否真的存在),法律推理中所显示出来的相对真理和价值才是人类孜孜以寻的宝藏。而价值判断在法官判案的过程中更并非一种抽象的原则使其可以毫无忌惮地加以使用,相反该种精神价值本身就体现在了现有的条文当中,法官对于现下条文规则的适用,实则就是在通过一个个个案正义的实现,以追寻法律真理的过程。同时,也正是由于法律本身的不圆满性以及人类自身的不完美性,导致了法律的修订,以及蕴含在法律条文中的精神也会随着时代的变换而更新。

(三)AI在法律推理实践中遇到的困境

陈炳祥博士在《人工智能改变世界工业4.0时代的商业新引擎》一书中写道:“与围棋相比,城市交通管理类问题要复杂的多。围棋的数据结构是固定的、统一的,而城市拥堵状况等社会生活中的很多数据结构却是非结构性的、不统一的。”[11] 113而相比于城市拥堵管理问题,法律推理的过程则显得更具思辨性和精细化。

1. 语义学带来的困境

对于计算机科学来说,“语义”是指用户对于那些用来描述现实世界的计算机表示(即符号)的解释,也就是用户用来联系计算机表示和现实世界的桥梁和渠道。然而,从最基础的语义学角度出发,作为向AI传导案件的第一步,也即法律推理的根基阶段,现实的操作似乎总显得不那么简单。

语言作为人类几十万年进化过程中智慧的结晶,具有博大精深的特点。我们且不考虑“情境”和“暗示”等深层语义学内容中的“信号”对于一句话的影响,即便是单纯从文字层面进行分析,就会存在不同语法结构理解下的分歧(如“一般人都喜欢电视剧”)。而现实的法律世界却从不会因为这种低级别的错误存在而给予任何可商榷的余地。

波尔舍(Poscher)在寻找为什么人们很难对法律解释进行预见的原因时认为,“法律不可能比暧昧的生活本身更具体”,并认为,作为“法律边缘现象”的复杂案件即“疑难案件”不可能具有可预测的机械判断或者法律决定,而是依赖于决策者。[12] 82-95即其认为,哪怕是最为精妙的法律,也很难真正描述清现实生活中活生生的案例,更何况从“语言”变为“法律”的阶段本就不是一个一蹴而就的过程。

事实上,在“理解”案情的初步阶段,我们不但需要通过基础的语义学明白句子本身的含义,更需要同时运用语用学(语用学从语言使用者角度出发,借助语境开展意义研究,是对传统语义学的发展和补充)在不同的情境下对案情做出合理的解释判断。比如像很多语用学教材中会举的例子,从“大家开始唱生日歌,甲开心地吹灭了蜡烛”这句话里我们可以轻松地推断出现场放有一个蛋糕。此类在我们人类思维看来几乎不用一秒就可以得出的结论对于计算机而言却成为了一场灾难。由此可见,光是向AI“输入”信息的起始阶段,就存在着很严峻的挑战,更不用说在整个法律推理的过程当中对于“语句的理解”可以说是不计其数的。

2.缺省推理带来的法哲学困境

法律推理不同于一般线性推理的一大重要原因就在于其思维往往是辩证的,其基于规则和案例的推理往往是非单调的,或者用在逻辑学中常听到的——法律逻辑是建立在“缺省推理”(default reasoning)的基础之上。

缺省推理又称默认推理,它是在知识不完全的情况下作出的推理,且非常依赖于新证据出现之时的修正或对旧证据的重新分析,非常符合法律断案者的逻辑论证过程。故难怪有学者将裁判一个案件称之为“一场复杂的试错游戏”“一种实验式的法形成机制”。[13] 91

此种“试错”机制,很有特点地体现了人类思维的辩证性,机器尚不能做至此。司法审判中法官的思维在不变(法律规定)与变(客观事实)中来回穿梭,在规则的理解、选择与应用上,法官往往需要反复思考、衡量各种利弊,甚至受新证据的影响而打破重来,最终得出一个不但符合法理,也符合情理的裁判结果。也即郑戈教授所言的“在相关事实和基于规范文本的秩序标准之间保持‘目光之往返流转’。”[14] 66-85事实上,计算机可以模仿科学家的推理和计算,却很难模拟儿童的日常行为,更不用说成年人的更为复杂的社会行为。[15]笔者在此且不论述人类科技是否能到达强AI时代,但我们的确可以基于上述缺省推理的概念得出一些较为实证化的结论。

学界向来不乏对于法律实践中“同案不同判”现象的批评,亦有学者一直寄希望于到AI法官审理案件的那一天可以出现“同案同判”的绝对公正局面。事实上,此种想法笔者以为本身就是存在逻辑和现实层面的不科学性的。

正如世界上没有两片相同的树叶,世界上本也没有两件相同的案件。无论是演绎推理还是归纳推理,人类通过判案最终要追寻的始终是法律的公平正义。而法律的进步经过长期以来的论证必然是呈“螺旋式”上升的,黑格尔的“三一式”哲学理论(即肯定——否定——否定之否定)可以很好地说明这一点。而对于个案而言,试图通过“有限的”证据推理得出“可能的”裁判,其过程本身就是非单调的。故而事实上,在人类社会之中,存在“类似案件不同处理”的阶段才是正常也是更具非凡意义的。

诚如张保生教授所言“电脑所推出的法律结论不可能像人那样,在考虑具体案件细微差别和外界环境变化因素的基础上作出具有弹性的判断。”[16] 385故而本质上笔者始终以为,那种试图通过人工智能实现“同案同判”,而不经过“反复”、“往返”过程的想法其实是一种企图直线达到人类真理的妄想,而这一“拔苗助长”过程所导致的结果也必然会偏离人类社会应有的预期。人类之所以彰显其与其他生物的不同很重要的一点就在于其思考,而这种思考的过程之复杂人类自己尚远不能知晓,顿悟、灵感、共鸣等种种复杂的情感共同作用于人类的选择,而逻辑在有些时候反倒显得不是那么重要。且不说人类自己尚且不能保证自己能做出正确推断,即便AI真的做到了,最终的判断权也应该在人类手中,所谓的判断是否“合理”最终也应该由人类作出最后的决断。

三、从裁量模型看人工智能对法律的挑战

(一)法律的算法

“法律的算法”一词在中国提的比较多的是郑戈教授,笔者认为利用该词可以更深刻地解释将AI用于判案的裁量模型的本质,即将法律算法化。我们现在讨论将AI运用于判案,其实就是以人工智能的认识论为前提的,而人工智能的认识论基础其实即“认知可计算化”。当我们用“法律的算法”一词时,我们更多时候是在讨论,法律人的推理和判断在多大程度上能被算法所取代?或者说,法律职业在多大程度上能够被算法所取代?然而,法律究竟可以被“算法化”么?

1. 法律算法化的前提条件

之前我们在法律推理层面已经解释过“语义学”在法律裁判之中的重要性,而在算法层面其实存在同样的问题。郑戈教授认为,计算机可以处理问题必须满足三个条件:1)这个问题必须可以用形式语言(理想状态是数学)来表述;2)针对这个问题必须存在一个算法,即程序化的指令集;3)这个算法必须是可编程的。[14] 66-85事实上,当讨论“法律算法化”时,单是对于“将问题用语言表述”这一首要条件而言,要将其实现就有较大的难度,且严重依赖于语义学领域的进一步发展。

在我们用计算机来进行知识处理(比如将法律编写成算法)的时候,由于面对的问题非常复杂,就需要对知识进行符号化处理,然后用指称和解释的方法来保持和恢复计算结果的语义。[17] 819-825然而这其中确是存在一个悖论的,即符号本身是否能代表知识,而知识本身又是否能等同于经验?如果法官用以判案的本身就是经验而不是运用知识,那么通过向AI输入“符号”的举动本身就是错的,更不用期待这种错误的开始能够生产出正确的结果。毕竟“知识本身便已经不是经验本身,而知识的符号化表示是对表示的表示,对符号的再符号化,其间流失的意义很难被完全恢复过来。但是,不经过这样的处理,法律推理和法律决策的过程就无法实现自动化/人工智能化。”[14] 66-85

在理想状态下,法律是用经验浸润过的逻辑,也是用逻辑规整过的经验,但现实的法律世界存在大量未经逻辑规整的经验,也存在许多未经经验浸润的逻辑。法律的算法化其实是在倒逼法律人更加精准和体系化地表述法律知识,然而这种倒逼相应地需要催生除法律以及人工智能以外的其他学科的飞速发展,正如之前所提到的有待语义学、信息学以及脑科学等一系列学科的进一步提高。

2. 法律算法化的可控性

此次,我们假设第一个问题中讨论的“法律可以被算法化”的前提条件可以成立,那么法律被算法化之后的可控性是怎样的呢?司法由于作为保护人类公平正义的最后一道防线,如果真的让算法用于定夺我们的生杀大权,那其中的风险控制因素显然将成为我们不得不探讨的一个话题。

(1)技术层面的可控性

事实上,人工智能给人类带来的影响是方方面面的,哪怕不是将其直接运用于案件的审理与裁判,就其简单的适用于生活来看,都面临数据或算法出错的重大危险。在此,我们仅通过自动驾驶汽车的案例,试分析AI在具体应用于生活的过程中,其风险究竟是否可控。毕竟相较于复杂的判案而言,无人驾驶技术中涉及到的不确定因素会显得相对较小些。

早在2018年年初,据BBC网站报道:“美国亚利桑那州一名49岁女性过马路时被Uber自动驾驶汽车撞倒,随后确认死亡。”据悉,这起事件是自动驾驶汽车全球首例致死事故。据该报道,致命事故发生后,Uber方面表示将暂停所有北美城市的自动驾驶汽车测试。①详见人民网新闻http://auto.people.com.cn/n1/2018/1027/c1005-30366202.html,2019-05-28.其实这早已不是自动驾驶界发生的第一次案例了,早在2016年1月,一位23岁男青年驾驶着自己的特斯拉轿车在京港澳高速河北邯郸段公路行驶,未能及时躲避前方的道路清扫车而发生追尾,事故导致该名车主身亡。历时一年多,特斯拉公司最终在大量的证据面前,终于被迫承认车辆在案发时处于自动驾驶状态。②详见搜狐新闻http://www.sohu.com/a/224833828_99958864,2019-05-28.

事实上,无人驾驶可谓是现在无论技术界还是投资界都极力热捧的领域,其实际应用也较早地踏入人类现实生活,进入市场,是属于较被人们所看好的AI实践领域。相比于存在各种不确定因素的法律裁判而言,无人驾驶的前景似乎显得更为清晰。目前,包括福特、通用和特斯拉在内的汽车公司都在大力投资研发自动驾驶汽车。这种汽车被视为汽车行业的未来,并被认为可以减少交通事故。然而事实果真如此么?

驾驶相比于判案而言,其所拥有的一个共同特点就是两者都会面临“风险的不可预测性”,甚至说无人驾驶的风险相对于法律世界中五彩斑斓的案件情况而言尚且显得“不那么复杂”。但尽管如此,你依旧无法预测你在驾车时前方何种角度会冲出来一种什么样的生物,后方或者斜后方会否突然倒下一棵树木或者出现洪水地震、车辆拥堵,这些情况对于我们人类而言可能是见怪不怪的,但是对于机器来说每一种情况对其而言都是一种新的数据处理。尽管现在不少媒体称其结合了智能算法、传感器和执行器,是一种有“感知”能力、“判断”能力和“执行”能力的智能产品,甚至声称要大大减少目前全球每年100多万起交通事故,而“将人类赶出驾驶座”。但现实情况无不向我们显示着,人类离造出有“感知”、“判断”能力的新物种尚有较远的距离。

(2)算法源头上的可控性

在走访相关企业的过程中笔者了解到,哪怕事实上真的可以缔造出一个“完美”的程序,其潜在的风险也是很大的,其带来的祸患甚至完全可能超过其给人类带来的益处。哪怕算法在技术层面可控了,在“人”的层面依旧存在很大的隐患。当BAT巨头(百度、阿里、腾讯)掌握了你的所有数据,开发并使用这样一套“算法”的时候,你很难保证甚至说几乎不能保证他们不会在技术上设置对自己有利的程序。而由于掌握技术的只有很少一部分人,即便将程序代码公开,大部分人可能也会饶无兴致,毕竟现在电子化设备的一切已经让我们享受惯了“拿来主义”与“坐享其成”。事实上,这也是为什么全国,乃至全世界都在AI相关领域极力增大投入,进行科学研发的重要原因之一,谁掌握了核心科技,谁就能成为产业甚至时代的领跑者。

举例而言,阿里作为杭州的首要互联网科技巨头,其不但在AI算法界的投入巨大,并且与各大高校、各大法院的合作研究项目也较为众多。阿里近两年来较为集中地投资了AI领域,其投资包括商汤科技、旷视科技、寒武纪、杭州中天微等多个AI巨头企业,包含但不限于视觉处理、终端AI处理器以及AI芯片在内的多个项目。在相信司法公正、司法信任度日益增强的今天,我们期待看到更多有社会责任感的企业投身于相关学科甚至跨学科的研究当中,进而为人类社会的日益进步献一份力。然而同时不得不考虑的一点即是,类似这样的科技巨头的存在是否会从程序上进而实质上影响到法律的公正审理?由于阿里官方并不公开其每年涉诉以及胜诉率的情况,故而笔者在此不进行定量分析。不过此种安全隐患诚然是做为法律工作者的我们所不能忽视的。

事实上,近年来,且不说科技巨头,只要是稍有名气的互联网企业都在抓住这波AI的热潮,想趁目前局势还尚未明朗时能在相关行业市场拔得头筹从而占领先机。如果真当相关企业研发出了司法裁判的AI系统之后,他们会从技术层面开始动手。而到那时,在失去了程序上的制约后,其他不懂这套裁判规则的政府、企业以及个人几乎很难在算法与程序层面对案件审判进行有效监管。

笔者赞同也看好科技与法律的相结合能够碰撞出更多人类智慧的火花从而更好地服务于人类社会,但同时从人类“社会化”以及“趋利性”的天性来看,此种来自算法源头的隐患实在不容忽视。这也反过来激励着法律学界需要在AI尚未完全应用于真实社会实践之前提前介入AI的世界,同时与相关行政执法部门提前进行沟通交流、合力研究,以期作出一套科学、合理的AI监管制度。

(二)基于大数据的深度学习

对于机器的学习而言,其本身是通过基于对大量数据的掌握而“习得”相关知识的,数据作为机器学习模型的一种必要也十分关键的前提。在大数据的背景下,我们仿佛成为一个透明人,各种消费记录、浏览界面、出行记录使得我们在所谓的“云端”面前展露无遗。我们因此成为“物联网”时代的“量化自我”(quantified self)或“可测度的自我”(measurable self)。[18] 61

1. 深度学习模式

在中国,诸多法律人工智能项目以中国裁判文书网的数据库为大数据进行AI的深度学习训练。西方比较有名的法律人工智能机器人ROSS平台的研究2014年始于多伦多大学,先是进行十个月的破产法学习后,他获得了Baker&Hostetler律师事务所的工作,之后IBM将继续教授ROSS不同领域的法律,以便其在多个法律领域进行工作。

诚然,相比于人类而言,AI的学习能力远远高于人类。人类已经研究围棋几千年了,然而人工智能却告诉我们,我们甚至连其表皮都没揭开。在法律界,往往较为年长的律师比初出茅庐的新律师更受青睐,其原因就在于老律师“经历”“学习”的案子比青年律师多。从英美法的判例研究角度而言,学法者也正是通过对于一个接一个案子的理解、记忆,储备起自己庞大的知识库,进而得以运用到实际生活之中,从这点来看,AI通过对于案例库的学习的确和人类对于法律的学习有着异曲同工之妙。

截止笔者截稿前(2019年5月28日),中国裁判文书网上的文书有近六千九百万篇①详见中国裁判文书网http://wenshu.court.gov.cn/,2019-05-28.,可想而知,如果单纯要靠人力哪怕阅读其六点九万分之一(1000篇)都是有困难的。而此刻AI的价值即得到彰显,AI利用其神经网络以及蒙特卡洛算法,可以不断进行案例、法规、司法解释等的“学习”。这些数据确实具有较大的价值,对于司法管理、司法公开、法律教学科研以及相关的法律创业项目而言,均是一座巨大的宝矿。[19] 18-26

2. 大数据深度学习的弊端

尽管上文中我们对于AI一直在用“学习”二字,但通过有关法律推理章节的论证以及我们自己的现实体会不难发现,人类特有的“学习”其实并非那么简单,人类的学习本质上似乎也并非通过盲目的以“量”取胜。从目前看来法律人工智能基于大数据深度学习起码存在如下缺陷:

(1)样本参考量本身存在缺陷

首先我们要清楚,法律调整的是社会关系,这是司法判案或从事其他司法活动所要确立的一个总的目标。而如若不能理解社会的关系以及人类社会的各种行为,初出茅庐的AI就会有点像刚走出象牙塔的大学生,带着丰厚的法学知识,却对社会认知不够,在一些案件中就很可能作出比较符合规则或逻辑却不能够为社会所接受的裁判。[19] 18-26而之前所说的这些人与人之间的交往包括眼神沟通、默契的产生等,都是很难通过数据录入的方式录入数据库进而让人工智能进行学习的,这从样本参考量的本身来说,本身就是缺失的,在现实上也是较难操作的。

事实上,对于一个案子的真正学习,如果不了解当时的法律文化、社会背景以及新出台的法律政策等,光靠对于书面的判决文书的阅读,是很难理解到案件判决的核心与精神的。而如若想要AI“学习”从案件“诞生”到“截止”阶段的所有法律文书(包括各种证据、询问笔录等),此类文件非但数量巨大,且在采集程序上也时常存在瑕疵,内容上更会难免前后矛盾,让AI基于此类“混乱”的文书内容作出“合理”的判断的确尚不现实。其次,有过判案经历或者了解司法审判的人就容易发现,其实很多时候法官出于案件的原因,也可能是由于如今案件数量大幅暴涨的原因,法官们的判决书中的说理部分往往较为简洁,甚至很多时候隐藏了能证明自己判案思路的一些真实想法。如此看来,这些所谓作为AI学习基础的库存知识尚且不一定是真正判案的依据和法理,更如何期待AI通过对于这些数据的整理得出正确的结论呢?

(2)对于新形势的适应能力不佳

通过对之前内容的阐述,我们也不难发现,其实AI是很难具有“创新”的精神的。且不说案例库本身的内容是否足以成为AI学习的前提,即便拥有了正确完备的数据库,由于法律的社会性和实践性极强,AI也很难应对多姿多彩、复杂多变的社会生活。

作为司法考试常规重点的“高空坠物”与“宠物咬人”案件,相信大家都不会感到陌生,甚至能较为清晰地分析出此类侵权案件中的责任划分和举证归属问题。但是一旦当情形融合了二者的因素,变为“高空坠狗”,即便是仅对于责任主体的认定就会引发大面积的讨论与争议。可想而知,人类自身尚且如此,更不用说让机械化的AI来进行分析判断了。

然而,此类“高空坠狗”案件并非基于命题人杜撰,事实上,现实社会的情况远比考题中令人拍案称奇的案例复杂。面对纷繁的法律事件,不同主体之间的关系错综复杂,即便是人类自身有时也很难做出一种确信无疑的裁定,只能说是在缺省推理的基础上兼之以社会、个人的正义情感等因素,做出的一个看似符合逻辑与社会公平正义的决断。而此种决断,诚如之前所言,是人类“三一式”进程当中不可避免的。由此可见,面对法律世界中出现的种种新局面、新现象,人类自己的“适应”能力尚且在不断的试错过程中成长与改进,而当AI面临这些“新形势”时,势必会陷入一种“无法可依”也“无从下手”的尴尬局面。

四、科技与法律的未来命运

经过了前文的大篇幅讨论,我们能对AI与法律的未来发展作出一个合理的展望。其实在现有体系框架下探讨AI与法的问题之所以困难,很大程度上是因为我们在此之前从未碰到过这样的情况,没有人知道AI会怎么发展,发展到什么程度,如何影响我们。目前唯一能确定的只是道路上会充满质疑声,因为没有人知道正确答案。其实讨论AI与法律的未来也是同样的道理,目前阶段的AI只在较浅层次的阶段为人们运用于法律行业,例如法律检索与数据分析,至于是否能有更进一步的发展,一切更像是在摸着石头过河。

然而研究此类课题又不得不说是非常具有意义的,毕竟对于方法论上的探讨时常能起到好的指引作用,也能开拓人们的思维,同时为后期可能遭遇的风险作出提早的预防。在本文的最后,笔者拟用郑戈教授的一句话作为结尾:“人必须是算法的立法者和控制者,法律的算法与算法的法律不应成为一个闭环,它们中间必须有人作为起点和终点。要将社会生活的复杂事实带入一定的法秩序,规范塑造者需要在相关事实和基于规范文本的秩序标准之间保持‘目光之往返流转’。能够做到这一点的只有训练有素的法律人。”[14] 85因此,在这一波人工智能热潮中,我们不应该被所谓“深度学习”的神话冲昏头脑,事实上,从2018年各产业对人工智能领域的“一哄而上”到2019年的“徐匡迪之问”,无不揭示出人工智能领域现实操作层面的诸多不足。科技远非虚无和妄想,如何发现现阶段的不足,并做好基础学科的研究与融合工作,是一个务实且不盲从的学者该做的事。

猜你喜欢

人工智能人类法律
人类能否一觉到未来?
法律解释与自然法
人类第一杀手
1100亿个人类的清明
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!
让人死亡的法律
“互助献血”质疑声背后的法律困惑