APP下载

刑事司法中的人工智能应用探究

2022-03-04熊秋红

上海政法学院学报 2022年6期
关键词:量刑司法人工智能

熊秋红

人类社会发展以科技创新为引擎,经历了从农业社会、工业社会到信息社会的变迁,而信息社会以互联网、大数据、人工智能等为主要特征。关于人工智能一词,通常的理解是“透过程式设计及建置,使电脑有类似于人们的知识及反应,做到理解人们的表达、学习、推论及解决问题,以及记忆”①参见李荣耕:《初探刑事程序法的人工智慧应用——以犯罪热区为例》,载刘静怡主编:《人工智慧相关法律议题刍议》,元照出版有限公司2020年版,第122 页。。人工智能有一般人工智能(强人工智能)和狭义人工智能(弱人工智能)之分。一般人工智能是指一个计算机系统在所有领域都表现出人的或超人的智力,它能将一个领域的知识转移到另一个领域,这在短期内尚难实现。迄今为止,人类在人工智能方面取得的所有成就均属于狭义人工智能范畴。狭义人工智能不涉及全意识(即与人类相当的智力),但它能够通过提高工作效率和自动化,对社会产生巨大影响。人工智能经历了基于规则的系统、机器学习和深度学习三个发展阶段。②参见熊秋红:《人工智能在刑事证明中的应用》,《当代法学》2020年第3 期。人工智能作为新一轮科技革命和产业变革的核心力量,正在推动传统产业升级换代,并在教育、医疗、养老、环境保护、城市运行等诸多领域发挥积极作用,并因此可能剧烈改变人类的经济、社会和文化生活方式。在刑事司法领域,由于人工智能可以在短时间内分析及处理大量的资料信息,因而被运用于犯罪预测、犯罪侦查和犯罪预防;运用于预测个体是否会再次犯罪、是否会在开庭日出庭等的可能性,从而影响关于保释和缓刑的决定;运用于分析量刑总体态势,从而影响检察官和法官关于量刑的决定;运用于评估罪犯的风险等级,从而影响关于假释和矫正措施的决定。可以预见,未来人工智能在刑事司法中的应用范围将会逐渐扩大。刑事诉讼立法应当如何回应人工智能的运用,就成为一个亟待研究的问题。从技术发展与法律的关系来看,法律往往落后于技术发展,但另一方面,技术又是在法律的框架下发展的,有时法律会限制技术的发展,反过来,技术发展成为推动法律发展的源动力。在世界范围内,关于人工智能的法律规制在数据治理、算法治理和应用系统治理层面,均形成了较为广泛的共识。从司法人工智能开发与法律规制的关系上看,欧盟与美国采取的政策有所不同,欧盟以统一立法、强调安全、事先规制为特点,美国则以逐步立法、强调开放、事后救济为特点。在我国,对于人工智能在刑事司法中的应用,起初存在较大分歧,但近些年来在国家人工智能发展战略的推动下获得了突飞猛进的发展。有学者①参见李训虎:《刑事司法人工智能的包容性规制》,《中国社会科学》2021年第2 期。据此认为,对刑事司法人工智能的规制,与欧盟的严格监管模式和美国的渐进规制模式相比,我国采取了发展优位的模式,使得人工智能在刑事司法领域的应用走在世界前列。此外,认为欧美国家司法实务机关对于人工智能在刑事司法领域的应用,普遍持相对保守的态度,而我国则采取了积极研发的态度。在世界各国,人工智能在刑事司法中的应用状况究竟如何,人工智能在刑事司法中的应用带来了哪些争议问题,对人工智能在刑事司法中的应用应当如何进行规制,本文就上述问题进行探讨。

一、人工智能在刑事司法中的应用状况

从人工智能的起源来看,1950年,英国电脑科学家图灵(Turing)在《计算机器与智能》一文中,提出著名的图灵测试,测试电脑是否可以和人类一样展露出智力的行为。②See Alan M.Turing,“Computing Machinery and Intelligence”,59 MIND 433,433-460(1950).1956年,麦卡锡、明斯基等科学家在美国达特茅斯学院开会研讨“如何用机器模拟人的智能”,首次提出了“人工智能”的概念,人工智能学科由此诞生。③参见谭铁牛:《人工智能的历史、现状和未来》,《求是》2019年第4 期。当前,随着人工智能技术的快速发展,各国均在通过创新工具建构智能管控体系,设计全方位整合式服务方案,结合相关资源在不同领域提高效能,同时完备人工智能法制,用更有效的方式推进社会治理和智慧治理。弗兰克·帕斯奎尔(Frank Pasquale)④Frank Pasquale,“A Rule of Persons,Not Machine: The Limits of Legal Automation”,87 Geo.Wash.L.Rev.1 (2019),https://papers.ssrn.com/sol3/papers.cfm?abstract_ id=3135549,accessed by Oct.10,2022.曾指出,已取代法律人任务的人工智能系统应该受到约束,相反地,在法治理念下我们应该发展辅助性的智能系统。早在20世纪80年代,资讯科技已开始应用于刑事司法,进入21世纪之后,各种自动化或人工智能技术的应用更为深入,人工智能兼具大数据和机器学习两大技术特色。从世界范围内来看,目前刑事司法领域的人工智能应用,主要集中在侦查、保释、暂缓起诉、量刑、假释或监所的矫治及管理等领域。在我国台湾地区,人工智能在刑事司法领域的应用包括犯罪人危险评估、犯罪空间制图、大数据智能管控对策、高风险再犯征兆的辅助判断、建立信心指数与预警机制、分析犯罪人有关行踪轨迹、违规模式和犯罪热点等资讯的大数据预测系统等。①参见蔡清祥:《人工智慧与法务》,载张丽卿主编:《人工智慧与法律冲突》,元照出版有限公司2020年版,第7 页。而在我国大陆,由于“上海刑事案件智能辅助办案系统”(简称“206 工程”或“206 系统”)、贵阳政法大学数据办案系统的研发,人工智能在刑事司法中有了比其他国家和地区更为广泛的应用。

(一)犯罪预测

早期的数据预测,采用的统计技术较为传统,且资料限制较多,当运用在刑事司法领域时,常存在样本数量不足或集中在特定案件等局限,加上研究方法也可能有瑕疵,导致无法全面推广应用,对刑事政策制定以及个案决策的助益也相对有限。现在的数据预测,采用更精密的多变量统计技术,并且重视统计效度,强调长期观察现象变动,将早期数据预测中存在的缺陷逐一改善。再者,当前的资讯呈现巨量、迅速、多元的特征,面对大数据时代,传统的资料分析方法必然难以应付,人工智能的勃兴,恰可解决这些问题,提供更有意义的数据预测。这不仅能对刑事司法实务提供帮助,更可能从中获得意想不到的发现。②参见王纪轩:《人工智慧于司法实务的应用》,载张丽卿主编:《人工智慧与法律冲突》,元照出版有限公司2020年版,第132 页。

相关研究③参见李荣耕:《初探刑事程序法的人工智慧应用——以犯罪热区为例》,载刘静怡主编:《人工智慧相关法律议题刍议》,元照出版有限公司2020年版,第124 页。表明,利用人工智能分析大量的既有信息,如犯罪记录、报案资料、经济数据、地理资料等,可以进行以下四种类型的犯罪预测:(1)预测犯罪可能发生的地点及时间;(2)预测可能进行犯罪的人;(3)预测可能成为犯罪者的特征;(4)预测可能成为被害者之人。在美国,警察在执法中有时会使用软件和算法(如纽约市警察局1994年起使用的COMPSTAT 系统、2011年加州圣塔克鲁兹市警察局采用的Predpol 系统),预测犯罪可能发生的时间、地点,锁定“犯罪热区”,从而使警方能够合理配置警力资源。④参见萧奕弘:《AI 是否会让刑事司法更公平》,载张丽卿主编:《人工智慧与法律挑战》,元照出版有限公司2021年版,第678 页。警察还可从个案的行踪记录建构犯罪地理图像,分析哪些地点是受监控个案最常出现的群聚位置、何时是犯罪热门时段,因此,加强警察巡逻以预防犯罪。从2012年起,帕兰提尔(Palantir)科技公司与纽奥良警方建立合作关系,追踪帮派成员的关系及犯罪记录、社交网站,预测可能的犯罪地点,让警察机关锁定高度风险者。⑤同注①,第679 页。

为了有效地打击毒品犯罪,我国台湾地区司法部门运用资料探勘与社会网络分析技术,结合观护体系的无毒防护温暖关怀计划,以及警察机关对各地社区大楼建立毒情通报及协助机制,并纳入社区管理委员会和保全系统,分别从案件资料及社区通报等各项资讯,分析毒品施用者群聚分布情形,针对疑似高风险再犯族群进行介入,对社区型毒贩实施打击,有效地掌握了毒品有关人口,降低了毒品的蔓延。建立毒品犯罪者资料库之后,警察和检察官只要登录该资料库平台,输入欲查询对象的特征,如人名、车牌号码、电话号码等,资料库就可以进行对比分析。该系统探讨了毒品施用者与暴力犯罪的关联性,整合相关系统资料库进行研究,以巨量资料分析及多目标决策等方法论技术,寻找毒品施用者及暴力犯罪之再犯因子及高风险行为预测指标,协助有关人员建立决策分析支援模式,发挥犯罪风险管理效能,可用于犯罪预防措施的采用、毒品施用者及暴力犯罪者的社区处遇等。①参见蔡清祥:《人工智慧与法务》,载张丽卿主编:《人工智慧与法律冲突》,元照出版有限公司2020年版,第5-6 页。

(二)犯罪侦查

人工智能在刑事侦查中起着情报智能收集、情报数据智能研判、证据智能获取、犯罪嫌疑人智能拘捕等作用,具有风险防控提前化、信息渠道多元化、数据采集精确化、刑事证明精细化等特点。在企业涉嫌金融犯罪等案件中,警察和检察官可以借助人工智能,快速取得与本案相关的证据。如果某地区发生刑事案件,可以通过分析该地区在过去特定期间曾经出现过的个案行踪轨迹,过滤出可能的犯罪嫌疑人,判断该个案中犯罪嫌疑人在场或不在场。若犯罪嫌疑人、被告人、罪犯逃亡,人工智能技术可以提供助力。人工智能的视觉资料处理系统可以准确地进行人脸识别,建构更全面的监控系统,具有人工智能技术支持的监控系统可以瞬间在影像内发现逃亡人员的脸型或车牌,并且找出资料库中逃亡人员的相关资料,再佐以地图技术,迅速判断逃亡人员的踪迹。如我国的天网监控系统,建立了庞大的人脸识别系统,在司法实践中,采用人像比对系统、车辆比对识别系统、超级搜索、标签画像等技术认定并抓获了大量的犯罪嫌疑人和在逃犯。②参见梁坤、周韬:《当前人工智能侦查的应用困境及突破进路》,《山东警察学院学报》2018年第3 期。2017年,我国台湾地区警察部门称,“行动警察M-Police”可通过人脸识别系统,寻找通缉犯、确认酒驾肇事者的身份。③参见王纪轩:《人工智慧于司法实务的应用》,载张丽卿主编:《人工智慧与法律冲突》,元照出版有限公司2020年版,第142 页。

在德国,联邦刑警局在20世纪70年代开展了“网格式侦查”,并为《德国刑事诉讼法》第98a条所规定。就网格式侦查而言,资讯学者在分析前所拟的分析框架全然依程式而运作,其结果之出现与否,属于一种必然的现象。《德国刑事诉讼法》第100g 条关于联络资讯侦查的规定,其背后需要运用数据剖析技术,除非运用相关预测性分析,否则不可能有效达到该条第1 项所要求的“对犯罪嫌疑人所在地之调查”。为此,系统必须依高度或然率提出相关预测,即不可能提出单一的必然结果。例如,当警方不知犯罪嫌疑人为何人,但似乎可以确定犯罪嫌疑人以假名承租某大都市的公寓,所以将该都市中的所有承租人资料与其他官方资料(如出生登记、驾照等)加以对比,且依此排除不可能为犯罪嫌疑人的人群。在这种数位侦查中,大量数据的运用,越来越容易使得分析系统首先将所有民众的资讯当作母数,然后在此潜在犯罪嫌疑人的大众中找出真正的嫌疑人。④参见葛祥林:《数位化、大数据和人工智慧对刑事诉讼的冲击》,载张丽卿主编:《人工智慧与法律冲突》,元照出版有限公司2020年版,第219-223 页。

(三)辅助审前羁押与保释

在刑事司法中,人工智能可以作为风险评估工具,用于辅助审前程序中关于羁押与保释、附条件不起诉或暂缓起诉等决策。在美国,有一半以上的州采用COMPAS、PSA、LSI-R 三种主要的风险评估软件来辅助保释、量刑和假释。实践中,这些模型首先会根据与不特定被评估者个人的历史数据来作出风险评估。随后,这些模型会针对被评估者个人提出一系列的问题,并从评估者个人回答或是从其犯罪记录中提取答案,问题的答案会进一步和历史数据进行比对。⑤参见李本:《美国司法实践中的人工智能:问题与挑战》,《中国法律评论》2018年第2 期。许多州将人工智能作为保释程序中的风险评估工具,包括对公共安全的风险和不出庭的可能性,而非被告人是否有能力缴纳一定数量的保释金。新泽西州的公共安全风险评估工具使用了9 个因素来确定再犯可能性,这些因素包括:逮捕时的年龄;暴力犯罪;犯重罪时还面临另一指控;被告人被指控行为不检点或犯有其他轻罪;被告人曾经犯重罪;被告人曾犯扰乱治安者的犯罪;以前的暴力犯罪;过去2年曾缺席审前程序;过去2年以上曾缺席审前程序;曾被判处监禁刑。①See Benoit Dupont et al.,“Artificial Intelligence in the Context of Crime and Criminal Justice: A Report for the Korean Institute of Criminology”,December,2018,pp.121-124,http://www.cicc-iccc.org/public/media/files/prod/publication_files/Artificial-Intelligence-in-the-Context-of-Crime-and-Criminal-Justice_KICICCC_2019.pdf,accessed by May 1,2022.根据其风险高低,作出羁押或保释决定。2009年,美国司法部发布了一份名为《联邦法院审判前风险评估:为扩大羁押替代手段之行使》的文件,该文件从统计学和技术意义上确定了相关预测因子,用来判断对被告采取保释的社会危险性程度及其司法完整性影响。②参见江溯:《大数据在刑事司法体系中的应用及其问题》,载张丽卿主编:《人工智慧与法律挑战》,元照出版有限公司2021年版,第587 页。

(四)辅助量刑

量刑可以说是刑事审判程序中最为困难的工作,量刑偏差和量刑不均衡是长期存在的全球性问题。运用人工智能辅助量刑,越来越成为各国共同的趋势。在澳大利亚新南威尔士州,自2003年以来,司法委员会和量刑委员会建立了完善的“量刑资讯系统”,后又发展为“量刑资讯研究系统”,被誉为世界上最详尽、最复杂且最精密的司法资讯研究系统。所有的法律图书、法律条文及案例(5 000 万个案例)均收集在内。该系统利用科技资讯,提供给法官大量的前案资讯,包括刑罚统计资料库、裁判资料库、个案摘要资料库、量刑原则与实务资料库、当地量刑设施资料库、进阶记录资料库、电子法官手册资料库、立法资料库等。该系统透过个别犯罪“量刑趋势”的分析,提供有关类似案件的最高和最低的量刑规定,让法官从保证量刑一致性的角度考虑,尽量选择该资料库提供的平均值。早期只有法官可以免费使用该系统,后来立法要求提供分享,公设辩护人及法律援助律师也可免费使用,至于一般从业人员,则需付费。律师、检察官可将查询所得资料作为法庭上量刑辩论的重要根据。该系统现已成为法庭审判的重要辅助工具,对法官量刑和检察官上诉都产生了某种程度的影响。③参见郭豫珍:《量刑与刑量——量刑辅助制度的全观微视》,元照出版有限公司2013年版,第46-56 页。

在荷兰,早在20世纪90年代,检察总署就开发了以规则为主的求刑决策支持系统。该系统提供检察官具体求刑的量刑建议,检察官只须回答有关个案犯罪事实与情况的特定问题,例如,偷窃金钱的数额、武器的使用、对被害人使用暴力等,系统就会将答案转换成检察官具体求刑的点数与百分比,检察官基于合理的理由才能偏离该系统输出的结论。由于意识到法官量刑不能过度依赖公诉政策,因此,后来又发展了“法官与检察官量刑系统”,但法官不被强制要求使用该系统,该系统可以为法官处理个案提供相关的资料。④同注③,第71-73 页。

美国1998年开发的“COMPAS”⑤该软件的全称为“Correctional Offender Management Profiling for Alternative Sanctions”,可译为“罪犯矫正替代性制裁分析管理系统”。软件,基于被告人或罪犯对137 个问题的回答进行预测,以此评估其再犯风险。该软件被美国不少州采用。有研究①See Benoit Dupont et al.,“Artificial Intelligence in the Context of Crime and Criminal Justice: A Report for the Korean Institute of Criminology”,December,2018,pp.129-131,http://www.cicc-iccc.org/public/media/files/prod/publication_files/Artificial-Intelligence-in-the-Context-of-Crime-and-Criminal-Justice_KICICCC_2019.pdf,accessed by May 1,2022.表明,该软件的总体再犯预测准确率为65.1%。在“威斯康星州诉卢米斯案”②See State of Wisconsin v.Eric L.Loomis,2016 Wis.68,881 N.W.2d.749(2016).中,威斯康星州惩戒署提供了一份包括“COMPAS 风险评估”在内的判刑前调查报告,法庭在量刑判决中提到了“COMPAS 评估”,并部分地依据这一评估,判处卢米斯6年有期徒刑和5年的延期监督。卢米斯向初审法院提出了动议,认为法院依据“COMPAS 评估”对其加以判处侵犯了其正当程序权利。初审法院驳回了卢米斯的动议;威斯康星州上诉法院和最高法院维持了原判。法院所持理由主要包括:在评测中所用信息的准确性已经得到了验证;评估报告不是作出决定的唯一依据;法院即使考虑了“COMPAS 评估”的因素,仍然足以进行个别化裁判,因为法官有相应的辨别力和必要的信息。③参见朱体正:《人工智能辅助刑事裁判的不确定性风险及其防范——美国威斯康星州诉卢米斯案的启示》,《浙江社会科学》2018年第6 期。

在我国,早在20世纪80年代末,就有学者④参见赵廷光:《论“电脑量刑”的基本原理》,《湖北警官学院学报》2007年第2 期。开始研究量刑公正与人工智能的结合问题,并于1993年完成了人工智能软件“辅助量刑系统”的研制。2006年3月,山东省淄博市淄川区人民法院在量刑规范化改革中推出了与高科技公司联合研制的电脑量刑软件⑤参见郭新磊:《淄博电脑量刑挑战自由裁量权》,《民主与法治时报》2006年9月11日。,实现了对人工智能在法院量刑中的运用。地方司法机关研发的量刑辅助系统,还包括广州市人民法院的智审辅助量刑裁决系统、海南省人民法院的量刑规范化智能辅助系统、南京市人民法院的同案不同判预警系统⑥参见潘庸鲁:《人工智能介入司法领域路径分析》,《东方法学》2018年第3 期。、江苏省苏州工业园区人民检察院的量刑建议辅助系统⑦参见《苏州:开发辅助软件系统规范量刑建议工作》,http://www.paxm.xm.gov.cn/tszs/201301/t20130125_612631.htm,2022年10月2日访问。、重庆市检察机关的量刑建议辅助系统等。⑧参见李立峰:《运行升级版量刑建议辅助系统》,《检察日报》2019年12月27日。

在我国台湾地区,司法部门自2011年2月开始进行资讯化量刑改革至2013年5月,相继完成了“妨害性自主罪量刑资讯系统”“不能安全驾驶罪量刑资讯系统”“枪炮弹药刀械管制条例案件量刑资讯系统”等,供法官量刑时参考使用。法官在实际量刑时,只要按其所审理案件的犯罪类别,进入相关的量刑资讯系统,参酌审理所得资料,依系统设定的因子,检索相同或类似案件的量刑情形,勾选相关栏位,量刑资讯系统就会自动将具备相同量刑因子的相同或类似案件搜出,并同时显示这些案件判刑的主刑概率、最重刑度、最低刑度、各别主刑平均刑度及量刑分布。⑨参见郭豫珍:《量刑与刑量——量刑辅助制度的全观微视》,元照出版有限公司2013年版,第133 页,第139 页。2018年,又正式启用“量刑趋势建议系统”,能够针对妨害性自主罪、杀人及伤害致死罪、盗窃罪、抢夺罪、强盗罪、电信欺诈罪、不能安全驾驶罪及枪炮案件等类型案件,为法官量刑提供参考,也开放给检辩双方及民众查询使用。当前的“量刑趋势建议系统”尚处于初步阶段,主要是将量刑资讯系统中的判决资料,透过统计回归方法,分析各种犯罪的刑度,以及各种量刑因子对于刑度之影响力的大小,再邀请专家与民间组织调整而成。⑩参见王纪轩:《人工智慧于司法实务的应用》,载张丽卿主编:《人工智慧与法律冲突》,元照出版有限公司2020年版,第130 页。虽然该系统并不直接提供所拟判决的结果,更不直接指示量刑权的运作,该系统产生的建议,对法官并无实质约束力。但是,只要法官愿意使用该量刑系统,仍然能够起到提醒作用,避免对于类似案件产生过度的量刑差异。

(五)辅助假释与矫正

在刑罚执行方面,可以结合人工智能的数据预测,从服刑人、其家庭及社会等相关因素切入,探讨再犯危险因子,预测其再犯可能性,通过建立再犯风险评估指标体系,综合评估服刑人的表现、社会危险性、再社会化可能性等,避免仅凭司法工作人员的主观经验进行是否予以假释的判断。在监禁刑执行中,通过评估罪犯的风险等级,从而对不同级别的罪犯实施监控力度不同的管理,针对罪犯的需求制定相应的矫治方案。在美国,联邦民政事务总署根据大约10 万名罪犯的数据,编制了一套风险精算工具“定罪后风险评估系统”,其中包括风险评估标准和需求评估标准,以此确定对罪犯采取的具体矫正措施。①参见江溯:《大数据在刑事司法体系中的应用及其问题》,载张丽卿主编:《人工智慧与法律挑战》,元照出版有限公司2021年版,第589 页。2019年1月,我国台湾地区法务矫正部门提出了“智慧监狱建置计划”,其中有智慧卡片整合、智慧安全监控、智慧健康照护、行动接见、矫正机关智慧管理、智慧自营作业等系统。该计划希望运用人工智能,辅之以其他科技(如远距离通信科技),能够在有限的监所人力资源下,提升监所管教效能以及受刑人权利。例如:正在服刑的罪犯可以与远地和行动不便的家属以视频方式会见;罪犯可以在线购物;远距离监控服刑;等等。②参见王纪轩:《人工智慧于司法实务的应用》,载张丽卿主编:《人工智慧与法律冲突》,元照出版有限公司2020年版,第131 页。

(六)其他领域的应用

在我国,最高人民检察院2017年编制的《检察大数据行动指南(2017—2020年)》指出,要扩展检察大数据应用体系,支撑检察职能作用发挥,包括:运用大数据技术,为审查逮捕、侦查活动监督、立案监督案件办理通过智能辅助;运用大数据技术统一证据审查标准,智能生成法律文书,智能辅助量刑建议,智能辅助刑事审判监督;运用大数据分析技术,建立数学分析模型,实现刑罚变更执行监督和羁押必要性审查评估,实现对社区矫正人员脱管漏管行为及时发现,实现对刑事财产执行案件有效监督;以及推进大数据在刑事申诉检察、死刑复核法律监督、未成年人检察、国际司法合作等领域的应用。2017年4月,最高人民法院发布的《关于加快建设智慧法院的意见》指出,“支持办案人员最大限度地减轻非审判性事务负担,充分运用外包服务方式,建立先进的电子卷宗随案同步生成技术保障和运行保障机制,为案件信息智能化应用提供必要前提;不断提高法律文书自动生成、智能纠错及法言智能推送能力,庭审语音同步转录、辅助信息智能生成及实时推送能力,基于电子卷宗的文字识别、语义分析和案情理解能力,为辅助法官办案、提高审判质效提供有力支持;深挖法律知识资源潜力,提高海量案件案情理解深度学习能力,基于案件事实、争议焦点、法律适用类脑智能推理,满足办案人员对法律、案例、专业知识的精准化需求,促进法官类案同判和量刑规范化”。为了配合以审判为中心的刑事诉讼制度改革,政法机关研发了一些综合性的办案辅助系统,如贵阳市政法大数据办案系统、上海刑事案件人工智能辅助办案系统(简称“206 工程”或“206 系统”)。上海刑事案件智能辅助办案系统设计了24 项功能,包括:(1)证据标准、证据规则指引;(2)单一证据校验;(3)逮捕条件审查;(4)证据链和全案证据审查判断;(5)社会危险性评估;(6)电子卷宗移送;(7)庭前会议;(8)类案推送;(9)量刑参考;(10)知识索引;(11)文书生成;(12)办案程序监督;(13)非法言词证据排除;(14)庭审实质化;(15)案件评议;(16)减刑假释案件办理;(17)刑罚执行状况监督;(18)简易速裁案件办理;(19)赃款、赃物管理;(20)要素式讯问;(21)全程录音录像;(22)法律服务办案辅助;(23)刑罚执行衔接;(24)特殊人群衔接。该系统包括以下大数据资源库:证据标准库1 039 项、案例库25 635 个、裁判文书库2 210 万篇、法律法规库146万条、办案业务文件库1 107 件。①参见崔亚东:《司法科技梦:上海刑事案件智能辅助办案系统的实践与思考》,《人民法治》2018年第18 期。该系统的研发实现了公检法司办理刑事案件网上运行、互联互通、数据共享,并且系统以大数据为依托、多项功能集成,全面地推进了人工智能在刑事司法中的应用。在我国,除了犯罪预测与侦查,辅助保释、量刑、假释和矫正之外,人工智能的应用还包括其他一些领域,如证据审查判断、文书生成、诉讼监督等。

二、在刑事司法中应用人工智能引发的争论

人工智能在刑事司法中具有广阔的应用前景,利用人工智能辅助司法人员办案,日益成为一种世界性的趋势。关于人工智能在刑事司法中的应用,除了既有的应用之外,未来可能的应用也被纳入讨论之列。例如,关于即时、完整制作笔录。刑事诉讼中的各种笔录,如警询笔录、侦讯笔录、庭审笔录等,过去依赖书记员制作,有可能因书记员优秀既快又好,也有可能因书记员记录速度慢遗漏部分内容,还可能出现错别字。通过人工智能语音识别系统,可以快速且正确地制作笔录,提高刑事诉讼活动的效率。随着人工智能翻译能力持续优化,当有外国人是当事人或者证人时,人工智能系统也可以提供翻译。再如,为当事人提供法律帮助。如Law4TW 创建的“自助法律文件”,可以利用人工智能系统,协助当事人制作法律文书。关于法律问题的咨询,透过人工智能资料分析能力汇整丰富的案例资料,也可以达成。当事人要找律师,可以借助人工智能的协助,去寻找合适的律师。如我国台湾地区2012年问世的评律网,系利用“司法院”公开的裁判书为资料库,再透过大量裁判书找到律师姓名,再统计、分析该律师的业务状况,执业年资、过去承办案件的受判决数及裁判内容,承办案件类型的百分比,以及其他资讯等,协助当事人寻找合适的律师。未来人工智能视听辨识技术还可能用于对证人证言真假的判断。证人出庭作证,可能因算计、情绪,或因记忆力、感官能力等限制,导致证言真假难辨。人工智慧技术可用于对证人证言真假的辅助判断,通过对证人的表情、声色、语调等,进行收集、推论、判读,进而推断证言真假的可能性程度。②参见王纪轩:《人工智慧于司法实务的应用》,载张丽卿主编:《人工智慧与法律冲突》,元照出版有限公司2020年版,第135-138 页。

基于人工智能强大的数据搜集和分析能力,该技术对于刑事政策的制定者、对于计算机和数据科学家而言,无疑是一个具有吸引力的工具。从其他国家和地区的讨论情况看,赞成者一般认为,人工智能的使用具有以下优势:其一,有助于减少案件积压。面对法院普遍存在的诉讼爆炸、案件积压问题,人工智能高效的运算、决策能力可以使大量事实清楚、情节简单的案件得到迅速处理。通过减少案件积压,实际上减少了当事人因为诉讼拖延而遭受的不公正待遇。其二,有助于限制人为的偏见。人工智能不会被主观情感所左右,可以提供一个用来减少人为偏见的客观标尺,有利于案件得到客观公正的处理。其三,人工智能具有科学性和专业性,操作起来也方便快捷,是一个有利于提高司法人员办案质效的科技手段。反对者则认为,人工智能技术介入和引导刑事司法可能因为使用了不可靠的数据,从而给刑事司法中的当事人造成伤害。除非保释程序和量刑程序存在明显缺陷、除非能够肯定使用这些风险评估工具的效率和准确性超过了其潜在的危害,方可考虑使用这些工具,否则,应当限制使用这些工具。①See Benoit Dupont et al.,“Artificial Intelligence in the Context of Crime and Criminal Justice: A Report for the Korean Institute of Criminology”,December,2018,pp.133-137,http://www.cicc-iccc.org/public/media/files/prod/publication_files/Artificial-Intelligence-in-the-Context-of-Crime-and-Criminal-Justice_KICICCC_2019.pdf,accessed by May 1,2022.人工智能的使用将会带来以下问题:其一,准确性问题。有学者通过实证研究证明人工智能及其算法并不能很好地预测未来的暴力犯罪。部分学者认为人工智能及其算法在风险预测领域并不优于其他方法。许多学者认为,量刑模型在适用于被告人个体时会出现偏差,而且一些纳入模型的因素带有内在的偏见;这些模型可能在预估某一群体的累犯风险时相对可靠,但对于某一个人的累犯风险预测却会失准。此外,依靠算法来进行决策使量刑在很大程度上取决于对被告人累犯风险的评估,将累犯风险变成量刑中的主导因素,甚至是唯一因素。其二,公平性问题。预测评估时会参考被告人及其亲属的生活环境、受教育程度、收入情况、违法记录等因素,形成对贫困者的压制。相关设计还可能引发种族偏见和歧视风险。其三,透明度问题。负责设计算法的公司拒绝公开它们的算法所考量的因素,被告人无法知晓这些算法究竟是如何设计的。在美国,目前针对法律程序中算法的使用,几乎不存在任何规则或者标准,因而在一定程度上形成了“黑箱”。其四,权利保障问题。警方使用的预测模型将会令传统的“罪后出警”向“罪前出警”转变,将普通公民转变成嫌疑犯,违反无罪推定原则;同时预测型出警还会助长种族歧视的风险。算法量刑侵犯了量刑个别化的权利,算法模型是依据经验法则建立的,长期使用人工智能会导致法官过度重视“专家”的经验证据,而忽视个案中的自由裁量。②参见李本:《美国司法实践中的人工智能:问题与挑战》,《中国法律评论》2018年第2 期。

对于人工智能在刑事司法中的应用,我国理论界和实务界总体上持乐观态度。主要原因在于在刑事司法中使用人工智能具有以下几方面的优势:其一,有利于打击犯罪。当前,犯罪动态化、智能化、科技化特征显著,犯罪空间拉大、犯罪链条拉长、犯罪动机增强,人工智能的使用是应对新形势下犯罪态势的战略选择,有利于实现对犯罪的专业化、精准化打击,抢占与犯罪作斗争的制高点。借助大数据相关性原则,能够对案与人、案与物等立体式的连结点进行信息收集,全方位、多角度地思考分析案情,以此搜寻破案线索、清理破案思路、划定侦查范围、有效配置警力。如2015年,江苏省检察机关侦查中运用“两化”(侦查信息化、装备现代化)手段辅助侦破的案件占全部案件总数的91.8%,办案效率大幅提升,充分体现了“智慧侦查”的威力。③参见赵志刚、金鸿浩:《智慧检务初论》,中国检察出版社2017年版,第415 页。其二,有利于“同案同判”。党的十八大以来的司法责任制改革导致案件处理权限下放,加大了同案不同判的风险,因此,法院系统实行了强制性的类案检索制度,通过技术手段防止法官滥用自由裁量权。通过制定证据标准指引,明确各类案件的证据规则,有利于统一证据标准,规范办案行为,保证办案质量。如贵州刑事司法大数据系统试运行6 个月,审结了151 起试点案件,运用大数据分析系统作智能辅助分析,判决结果偏离度均为零或者在合理数值区间,保证了同案同判,实现了量刑均衡,且一审服判率达到93.38%,与同期审结未纳入试点范围的其他案件服判率相比高出8.15%。①参见潘庸鲁:《人工智能介入司法领域路径分析》,《东方法学》2018年第3 期。其三,有利于提高诉讼效率。从我国人民法院近年来的审判数据看:2018年,审结一审刑事案件119.8 万件,判处罪犯142.9 万人;2019年,审结一审刑事案件129.7 万件,判处罪犯166 万人;2020年,审结一审刑事案件111.6 万件,判处罪犯152.7 万人;2021年,审结一审刑事案件125.6 万件,判处罪犯171.5 万人。②参见最高人民法院2019年、2020年、2021年工作报告。刑事案件数量总体在高位运行。人工智能的运用可以缓解“案多人少”的矛盾。刑事案件人工智能技术辅助办案,可以大大减少检察官和法官阅卷和梳理证据的时间,案卷越多、证据越复杂的案件,运用该系统办案的优势体现得越明显。③参见崔亚东:《人工智能与司法现代化》,上海人民出版社2019年版,第190 页。在海南,截至2017年12月,25 家人民法院的307 位刑事法官使用智能量刑系统生成量刑表1423 份,智能生成法律文书1 072 份,其中判决书773 份,其他文书299 份。使用该系统后,法官办理量刑规范化案件的时间减少约50%,制作裁判文书的时间缩短约70%,制作程序性法律文书的时间减少近90%,大幅度减轻了法官量刑办案的工作量。④同注①。

部分学者对人工智能介入刑事司法持保留甚至反对立场,认为人工智能的介入会带来以下弊端:其一,导致司法人员机械司法。“诉讼主体所需求的正义是个别正义、实质正义和温度正义,而人工智能只能提供一般、机械和毫无情感的正义。”⑤同注①。在挤压法官自由裁量权的基础上追求同案同判,本质上是以“机械正义”取代“个案正义”,倡导量刑科技化而通过精密的科技程序去运算结果,机械地追求量刑结果的整齐划一而达至同案同判,这些都不具有正当性。⑥参见倪震:《量刑改革中“机械正义”之纠正——兼论人工智能运用的边界及前景》,《江西社会科学》2018年第2 期。其二,背离司法的亲历性原则。亲历性是传统司法的重要特征,并在一定程度上支撑起刑事司法裁判过程的正当性。人工智能的介入造成了法官审判、算法裁判的局面,弱化了司法的亲历性,不利于庭审实质化。其三,造成冤假错案,破坏司法公正。借助人工智能进行裁判,造成对证据的采信、事实的认定和法律的适用都无法进行充分说理,导致本身就非常弱化的司法推理与法律论证技术更是无从谈起;算法黑箱导致公众对司法裁判的不信任、不接受。在这种情况下,容易造成冤假错案。⑦参见马啸、狄小华:《人工智能背景下刑事错案悖论及消解》,《湖湘论坛》2019年第2 期。其四,侵犯公民的隐私权。人工智能的运用以大数据为依托,在收集大量数据的过程中,有可能侵犯公民的隐私权。其五,有劳民伤财之嫌。花费巨额费用来研发和适用智能算法是否有必要,存在疑问。对于简易案件而言,虽然案件要素较易结构化,但完备的上诉程序以及极低的错判率,使得无须花费巨额费用来研发和适用智能量刑算法;而对于复杂案件而言,复杂的事实判断和价值判断使得人工智能在这些案件中的使用并不具备优势。人工智能的引入,不仅会改变司法人员的办案模式,而且增加了司法人员的工作负担。其六,模糊司法责任。人工智能的介入导致司法人员的主体地位受到冲击,法治主义演化为技治主义,与此同时,承担司法责任的主体应为司法人员还是机器变得晦暗不明;人工智能的普遍使用,最终将会使算法取代司法人员的主体地位,并且使审级制度名存实亡。

关于人工智能在刑事司法中的应用,存在着积极主义和消极主义两种不同立场。持积极主义立场者更多地看到了使用人工智能带来的增强打击犯罪的能力、提高司法效率、贯彻客观主义等好处;而持消极主义立场者往往固守传统的法律理念及其制度文化,对于刑事司法中的自动化决策抱有相当程度的忧虑,一方面担心冲击司法人员的主体地位,另一方面怀疑自动化决策的准确性、公正性以及研发成本与收益是否成正比问题。对于政策制定者而言,前者产生了“鼓励创新”模式,后者产生了“预警原则模式”。有学者①参见李训虎:《刑事司法人工智能的包容性规制》,《中国社会科学》2021年第2 期。试图调和这两种不同的立场,提出了“刑事司法人工智能的包容性规制”的主张。人工智能的发展以及在刑事司法中的应用已是大势所趋,现阶段各国在刑事司法领域应用人工智能的范围和程度存在较大差异,但未来人工智能极有可能在刑事司法中扮演不可小觑的角色,同时将会浮现各种各样的法律问题。

三、人工智能对刑事司法制度带来的冲击和挑战

国内外学术界和实务界围绕人工智能在刑事司法中的应用所引发的争论,其原因在于人工智能的应用对于社会的基本规范体系及其道德基础带来了极大的冲击和挑战。一方面,科技革命迫使我们反思既有的规范体系及其指导性价值;另一方面,对于新技术的应用又需放在既有的价值和规范体系下进行审视,并在必要时对新技术的使用从伦理和法律规范的层面进行限制。概而言之,人工智能对刑事司法制度带来的冲击和挑战主要在于合法性、公正性、民主性、有效性、伦理性等五个方面的问题。

(一)合法性问题

法律发展滞后于技术发展导致司法实务中人工智能的应用面临“合法性赤字”或者合法性质疑。在许多国家和地区,现行刑事诉讼法尚未对人工智能的应用进行规制,而通过解释既有法条容纳人工智能的应用容易产生合法性争议。例如,德国联邦刑警局在20世纪70年代开展了“网格式侦查”,并为《德国刑事诉讼法》第98a 条所规定。就网格式侦查而言,资讯学者在分析前所拟的分析框架时全然依程式而运作,其结果出现与否属于一种必然的现象。《德国刑事诉讼法》第100g 条关于联络资讯侦查的规定,其背后需要运用数据剖析技术,除非运用相关预测性分析,否则不可能有效达到该条第1 项所要求的“对犯罪嫌疑人所在地之调查”。为此,系统必须依高度或然率提出相关预测,即不可能提出单一的必然结果。传统的搜查方式停留在单向设定的形式逻辑层次,甚至部分必须以人工方法加以进行,但已经干预到无数非犯罪者的个人资讯。在一定条件之下,虽然侦查单位知道,具体犯罪嫌疑人的人数极少,但为了确定该嫌疑人为何人,仍然可以将社会大众当作非特定嫌疑人的侦查对象,这种数位化侦查是否侵犯宪法规定的公民资讯自主权,部分学者表示疑虑。但德国联邦宪法法院并没有宣告《德国刑事诉讼法》第98a 条违宪,甚至将该条规定作为审查类似侦查行为合宪性的标准。其中的理由为对比例原则的维护,即国家可以公众安全等受高度威胁为由,对个人资讯自主权进行干预。在运用大数据的数位化侦查与宪法基本权的保护之间形成了一定程度的冲突。目前,德国尚未确立对数据进行综合分析的规范,导致一些问题不明确,如当侦查部门对犯罪嫌疑人的电话进行定位时,是否可以将该定位记录与犯罪嫌疑人的脸书资料或其他社群媒体上所“公布”的资料加以对比?是否可以基于社群媒体上所留下的记录进行犯罪嫌疑人的心理分析及沟通对象的数据剖析?法律规定缺位造成了司法机关对数位侦查行为合法性的疑虑。①参见葛祥林:《数位化、大数据和人工智慧对刑事诉讼的冲击》,载张丽卿主编:《人工智慧与法律冲突》,元照出版有限公司2020年版,第219-237 页。

(二)公正性问题

鉴于公正性是司法制度的本质特征,因此公正性问题成为人工智能应用于刑事司法时的核心争议。将人工智能技术用于犯罪预测和侦查,导致侦查模式从回应式侦查走向预防性侦查,警方对犯罪的应对主动化和长效化,警方在获得犯罪预测结果后对“犯罪热区”进行特别干预,部署警力定向打击某类犯罪。一旦将某一区域划为“犯罪热区”,警察会更倾向于在该区域发动拦停、盘查,甚至采取逮捕等强制性措施,并且自觉或不自觉地降低证明标准,这样居住在该区域的居民,其人身自由和隐私权等更易受到限制或者侵害。在司法实践中,以行为人为中心进行犯罪预防和侦查,通过大数据分析,锁定高危犯罪人员,提前预防其可能实施的犯罪。警方通过收集个人各方面的信息,如犯罪前科、帮派成员情况、假释情况、社会关系、社交媒体通信记录、就业状况、是否有吸毒史和酗酒史、家庭稳定状况等,将大量个人信息输入智能系统,便可测算出其对社会的可能威胁程度。人工智能系统依靠大数据和算法运行所产生的结果,可能固化甚至放大不平等的风险。有研究②See Melissa Hamilton,“The Biased Algorithm: Evidence of Disparate Impact om Hispanics”,56(4) Am.Crim L.Rev.1553 (2019).指出:人工智能风险评估工具在刑事司法中运用时,往往不成比例地高估来自少数族群的个人犯罪再犯率。加拿大最高法院在Ewert v.Canada 一案③See Ewert v.Canada.2018 SCC 30,[2018] 2 SCR 165.中认定,依据多数族群数据所开发验证的风险评估测试,已对原住居民背景的被告产生族群偏见和不公平待遇。在欠缺情境知识、事先告知、同意后使用以及其他正当程序机制保障的情况下,大数据侦查可能产生较大的侵害公民隐私权的风险。如广泛使用的人脸识别技术,系统中所储存的大量影像存在确认当事人同意之困难、影像资料利用之不透明、当事人未预期资料被收集、敏感性资料附带取得等问题造成了公民隐私权被侵犯的风险。

(三)民主性问题

人工智能在刑事司法中的应用是否符合法治社会的民主性要求,主要在于其是否具有透明性与可问责性。人工智能应用中的“法律黑匣子”和“技术黑匣子”对刑事司法的透明性和可问责性带来了巨大的挑战。人类心灵活动本身就具有复杂性和不透明性,而这正是人工智能所模仿的对象。算法比司法人员自由裁量具有更为不透明的特性导致对于司法决策的监督和审查变得更加困难。人工智能的自动化特征,通常使受其影响者难以觉察和知悉,即使某种程度可以被觉察和知悉,人工智能系统决策的过程与方法,也往往缺乏详细的说明,其决策过程和结果是否公平,难以进行监督和审查。大数据侦查通过相关性原理进行分析和预测,难以对其中的因果关系进行具体说明。从目前的情况看,法院往往无法评价人工智能风险评估工具的可信赖性和完整性,也难以探究如何给予风险评分以及衡量不同因子的权重。应用人工智能系统决策可能出错,一旦出错,算法的责任难以追查、人的责任难以归咎。由于并无做成决策的相关记录可供核查,当事人缺乏充足的资料重建决策过程,因此难以判断决策是否错误。人工智能应用中的这种不透明和追责难,可能掏空正当法律程序所保护的价值。

(四)有效性问题

如果在刑事司法中通过人工智能作出的决定,可以避免司法人员的偏见,在公正性方面明显优于人类判断的结果,那么,人工智能的使用无疑就具有可接受性。但是,对此问题尚无明确的答案。在美国,在刑事司法实践中所使用的风险评估工具,目前,尚不清楚其评估准确率是否超过了刑事法官的平均准确率。一些州的数据表明,算法在减少被羁押率方面确实有一定的作用。有学者①参见李本:《美国司法实践中的人工智能:问题与挑战》,《中国法律评论》2018年第2 期。对此提出质疑:在保释和量刑程序中需要人工智能技术来帮助法官吗?如果说法官所作出的保释和量刑决策存在着一定程度的不准确现象,那么,这种不准确是否造成了对刑事司法制度或者对社会公众的伤害?由于对这些问题无法作出具体的、可测量的回答,因此,难以评估在刑事司法中使用人工智能是否具有迫切性。人工智能系统以实然面的统计资料为基础,对于应然面的社会期待往往难以纳入其中,就量刑辅助系统而言,在保障量刑的一贯性和一致性方面具有助益,但在保障量刑适当性方面却存在局限。如果在过去的司法实践中存在量刑普遍偏低或普遍偏高的现象,人工智能系统提供给法官的量刑参考数据,可能背离国民的法律情感,从而误导法官量刑。被告人在接受法院审判时,希望法院能够重新检视其行为,决定罪责相当的刑罚,而不是用过去的群体资料或印象作为判断的依据。基于过去的信息、案件事实和法律见解认定现在的案件,由于案件千差万别,可能产生量刑失当问题。

(五)伦理性问题

人工智能自始就是一个哲学问题,机器学习对人的自由意志提出了挑战。在应用人工智能的过程中,机器的拟人化与人性的机器化或自然化双轨并行,人工与“真正的智慧”——心灵之间的差异日渐模糊,长此以往,人类治理是否会被机器治理所取代,这是人工智能在开发和应用中的隐忧和伦理争议。将人工智能应用于刑事司法中,需要解决诉讼主体对于人工智能系统中的自主学习有多大的决定能力、对于人工智能系统产生的结果有多大的控制能力等问题。为了确保人类的情感与尊严,将刑事司法的决策权完全交给机器,这是不能接受的,目前多是将人工智能作为刑事司法中的辅助性工具加以使用,并未产生取代人类决策的危机,现在的关键问题是要解决司法人员应当如何与机器进行合作的问题,即人机如何协同的问题。

四、刑事司法中应用人工智能的原则与基本要求

人工智能对于法治的影响可谓喜忧参半。一方面,人工智能带来的可预见性、可度量性和高效率,有利于促进法治;另一方面,使用人工智能带来了各种可测和不可测的风险。为了防范人工智能所带来的风险,安全和以人为本成为两项最为重要的伦理原则。2018年,欧盟成立了由52 名专家组成的“欧盟人工智能高级专家组”,该专家组在2019年发布了关于《可信赖人工智能伦理准则》,其中“可信赖的人工智能”包括三个要素:合法;在道德上可接受;强大。在以人为本方面,主要体现为保障公民的七项基本权利,即享有最低生活水平的权利、自主的自我发展权利、不受极度痛苦的权利、维护最低限度隐私的权利、心理和精神完整的权利、法律上基本的平等权、最低程度的受尊重权利。根据尊重人类自主、避免危害、公平、可解释性等伦理原则,提出了七项基本要求,包括:人权机构和监督;技术的稳健性和安全性;隐私和资料管理;透明度;多样性、非歧视性和公平性;社会和环境福祉;问责制。①参见[德]Eric Hilgendorg:《数位化及虚拟化的挑战——〈欧盟可信赖人工智慧伦理规则〉》,陈俊榕译,载张丽卿主编:《人工智慧与法律挑战》,元照出版有限公司2021年版,第46-49 页。上述原则和基本要求理应适用于刑事司法中人工智能的应用场景。

我国采取发展优先的立场积极推进人工智能在刑事司法中的应用,因此,出现了人工智能使用泛化的局面,但从司法实践中的实际运用来看,在大数据侦查、辅助量刑等领域相对深入,在其他领域的运用尚处于浅表的层次。由于在刑事司法中使用人工智能尚未形成成熟的经验,相关研究也只是初步展开,目前对此进行专门立法、系统立法尚为时过早。即便在人工智能使用相对深入的领域,人工智能多是作为一种辅助性工具加以使用,相应降低了对其进行立法规制的必要性和紧迫性。目前人工智能技术尚处于快速发展中,具有变动性、高度复杂性与不确定性,相应增加了对刑事司法中使用人工智能进行法律规制的难度。更为紧迫的是对刑事司法中人工智能的应用提供方向性指导。

首先,应当认识到,在刑事司法这一特殊的领域,人工智能的应用具有较大的局限性。以量刑智能辅助系统为例,设计科学的量刑智能辅助系统存在不少困难。其一是案件信息数字化、结构化之困难。如:诸多非言词的量刑证据无法进行结构化处理和量化赋值评估;虽然对客观证据可以进行代码式处理,但对案件背后的情景或天理人情难以顾及;司法的地区差异导致同样的量刑情节难以给予同样的量化赋值评价,而算法模型往往立足于从全国范围进行数字提取与建模。其二是案件信息数字化转换存在技术障碍。人工智能开发者与司法实践者之间存在专业上的鸿沟,刑事案件包含诸多的法定量刑情节、酌定量刑情节,尤其是酌定量刑情节千差万别,对类案比对系统的数据提取构成了挑战;即使相同或相似的案情,还要考虑被告人的人身危险性、主观恶性、认罪悔罪态度、退赃退赔、被害人的态度、案件所引起的社情民意等诸多因素,这些因素导致完全的类型化难以实现。这是导致司法实践中类案比对系统识别率偏低的主要原因。其三是刑罚适用统一化与个别化的矛盾难以调和。量刑公正、量刑均衡、量刑合理、量刑效率是量刑制度所欲达到的理想目标,但这四者之间并非完全一致,人工智能的介入或许有助于量刑均衡、量刑效率目标的实现,但可能与量刑公正、量刑合理之间产生冲突,这种既面对过去、又面向未来的量刑活动充满复杂的价值判断和选择,人工智能的介入可能带来弱化各种因素综合考量、各种利益综合平衡的风险。这就决定了量刑智能辅助系统只能起辅助作用,而无法取代法官、检察官的量刑判断。

其次,对于刑事司法中人工智能应用的规制应当从数据治理、算法治理和应用系统治理三个基本层面展开。从数据治理的角度看,应当保障资料的全面性、准确性以及合法性。资料的全面性和准确性是人工智能系统进行正确判断的前提。量刑智能辅助系统,涉及对过去判决书中的相关数据的提取,但并非所有量刑信息都体现在判决书之中。如果提取的量刑信息不完整,判断结果就有可能失准。应当要求法官将完整的量刑判断信息记录在判决书中,以便让机器全面学习;为了保障信息的全面性和准确性,输入量刑智能辅助系统的数据,除了来自判决书以外,还应从案卷中的录音录像、各种笔录、诉讼文书等中提取相关信息;在录入计算机系统前,应当对所有数据进行检验核查,去除包含历史偏见或者可能造成歧视的变量。在运用大数据进行犯罪预测和侦查时,对于调取个人信息,应当遵循目的正当性、相关性、比例性、个人参与等原则,应当保障资料主体的知情权、接近使用权、更正权、被遗忘权、限制处理权、资料可携带权、解释权以及免受完全自动化处理决策的权利。从算法治理的角度看,应当保障算法的科学性、透明性和公正性。目前,机器学习这种前沿技术的适用仍然存在着某种不确定性,因为它是从动态环境下收集的有限数据中归纳出结论。在刑事司法中运用人工智能,是在一个高度非结构化的情况下,试图通过应用程序作出预测,这种预测是否具有可靠性值得警惕。刑事司法系统需要稳健、可靠、失败率极低的技术工具,因此,如何提高算法的科学性是其中的关键问题。如果刑事司法透过人工智能算法协助决策,就必须让被告人知道机器是如何作出决策的,什么样的因子在决策中有影响力,影响的程度如何。应当以“可了解和可理解的人工智能”作为设计和选择算法时的努力目标,应当让人工智能算法的过程与结果可以让人类解读。人工智能系统往往由司法机构和掌握人工智能技术的公司合作开发,负责研发的公司可能基于市场原因,希望对算法保密。但是,在刑事司法中,为了防止侵犯人权,应当保持司法透明度。如此一来,不愿公开算法与要求公开算法之间就产生了严重冲突。对此冲突的处理,应当以保障人权为重,要求研发公司公开算法。在算法形成过程中,应当关注犯罪嫌疑人、被告人及其辩护律师的需求,维护被追诉方的合法权益;在使用前,应当对自变量进行彻底审查,防止一些与被告人、被害人的身份、社会经济地位相关的变量在使用时导致对当事人的偏见;被告方有权对算法进行检查。从应用系统治理的角度看,应当保障应用系统的安全性、有效性和诉讼主体使用应用系统的平等性。脆弱性是人工智能系统的一个关键特征,在大多数情况下人工智能系统能够在非常狭窄的任务上胜过人类,但是,也可能在看似微小的细节上轰然失败,因为分析的某个数据细节干扰了其内在逻辑。人工智能系统发生故障可能造成对犯罪嫌疑人、被告人、被害人的伤害,因此应当对人工智能在刑事司法中的运用持谨慎态度,时刻关注其可能产生的风险,并制定人工智能风险评估工具的具体标准。在应用系统使用过程中,应当保障当事人具有表达意见、有效参与的权利,如扩大专家辅助人制度的使用范围,确保应用系统所产生的结果受到检验和审查。应用系统依赖过去决策未来,过去的资料可能成为正确决策的障碍,也可能因不断累积而造成偏见。要透过个案,对于应用系统决策的正确性进行检视,防止系统性的偏见以及产生新的弱势群体。在使用刑事司法人工智能系统时,应当保障当事人新的程序权利(即数位权利①2013年,一群关注隐私权议题的专家发起《世界数位权利宣言倡议行动》,促进对数位权利的承认和保障。参见林勤富、李怡俐:《人工智慧时代下的国际人权法——规范与制度的韧性探索与再建构》,载李建良主编:《法律思维与制度的智慧转型》,元照出版有限公司2020年版,第454 页。),规定国家专门机关新的积极义务,促进诉讼各方对人工智能系统的平等应用;应当提高应用系统的透明度和沟通能力,以便能够理解和控制其决策;应当建立应用系统决策出错的救济机制和责任追究机制,应当重视人类思维与人工智能算法之间的差异,采取更为细致的方法回应人工智能系统决策中的可问责性问题。

最后,应当坚守司法人员在刑事司法中的主导地位,实行规则指导与智能辅助相结合。人工智能的介入使得刑事司法在法治主义之上叠加了“技治主义”,无论是法治主义还是技治主义,都不应当动摇司法人员的主导地位。法官裁判结果可以接受算法裁判结果的检验,但算法裁判不能取代法官裁判。司法人员不能以人工智能的运用推卸司法责任,人工智能只是辅助手段,真正在刑事司法中起主导作用以及决定案件最终处理结果的还应当是司法人员。每个案件、每个被追诉人均有差异,用过去的资料预测未来,仅能作为参考,不能直接决定案件处理的结果,犯罪嫌疑人、被告人的刑事责任最终仍然需要由警察、检察官、法官综合各种因素后审慎判断。在刑事司法中解释和运用法律包含着价值判断,应当由具有同理心的司法人员完成,而不能完全诉诸技术理性。人工智能的科学性为可能隐藏的价值偏见披上了合理正确的外衣,应当防止司法人员对机器结果准确性的盲目信任,使其放弃对结果的审查和质疑。司法人员在规则指导与智能辅助下决策,要兼顾实然与应然,通过人工智能系统立足实然,通过规则指导纠正实然中的执法偏差,并且回应社会公众对合理执法、公正司法的期待。

五、结 语

人工智能在刑事司法中的应用已经是不可逆转的大趋势,其正在经历由浅入深、由窄到宽的发展过程。在瞬息万变的数字时代,刑事诉讼理念和制度发展应当与时俱进。刑事司法中所开发的人工智能应用系统基于系统论、控制论以及信息理论的理论成果,采用数学模型的统计技巧和信息科技,集法律规定与专家经验、案例分析于一体,具有增进效能、避免错误、减少成本等益处,但也存在新的人权保障风险,在科技化与自动化、数字化与虚拟化的趋势下,正当法律程序原则实质转化为“科技正当程序”。②参见刘静怡:《网路时代的隐私保护困境》,元照出版有限公司2021年版,第367 页。在人工智能时代,仍然应当保有对人类的友善性,维护人的尊严,为此,应当创新治理方式,防止自动化决策的偏见和错误,建立新的人权保障标准,并对现有法律制度进行开创性的解释和发展。

基于人工智能运用于刑事司法可能产生的风险以及人工智能介入刑事诉讼本身所具有的局限性,在使用人工智能时应当保障数据的全面性、准确性以及合法性,保障算法的科学性、透明性和公正性,保障应用系统的安全性、有效性和诉讼主体使用应用系统的平等性,并且坚守司法人员在刑事司法中的主导地位,做到人工智能介入有限、运用有度、辅助有力。与其他国家和地区对于人工智能技术的有限使用相比,我国刑事司法领域的人工智能应用在发展规划上呈现无限扩张的态势,人工智能的泛化使用可能招致在技术的稳健性和安全性、过程和结果的可解释性、应用系统使用的平等权等方面的质疑,从而难以构建可信赖的人工智能应用体制机制。

由于人工智能在刑事司法中的应用涉及法律问题和技术问题,因此,对其进行规则治理应当同时从法律和技术层面展开,人工智能应用系统的研发和有关的规则制定应当由法律专家和技术专家共同组成的专家咨询委员会进行审查。人工智能的应用应当趋利避害、扬长避短,妥善处理安全与自由、公正与效率、实然与应然的关系,达致多元法律价值的平衡和兼顾。在研发和运用人工智能的过程中,应当注重对其公平性的全过程检视、保障受人工智能决策影响的当事人可以适时更正不当或错误的自动决策结果;受到人工智能系统决策影响的当事人应当具有要求解释的权利;在人工智能系统的有效性存疑的情况下,受到人工智能系统决策影响的当事人应当享有“退出的权利”,选择只接受单纯的人为决策。对于人工智能在普通案件和简易轻微案件中的使用,应当有所区别。例如,对于量刑因子复杂多样的案件,法官使用人工智能系统辅助量刑,操作较为简便,可根据应用系统所显示的结果进行上下微调;对于简单轻微案件,进入量刑智能辅助系统查阅量刑状况,反而耗时费事,不如制作简单轻微案件量刑参考表,更为实用。①参见郭豫珍:《量刑与刑量——量刑辅助制度的全观微视》,元照出版有限公司2013年版,第135-136 页。

在我国,人工智能在刑事司法中的应用从粗放式发展走向精细化规制,将是数字时代刑事法治发展的必由之路。从明确原则和基本要求,到完善相关立法,刑事司法人工智能治理的法治化还有很长的路要走。在此过程中,如何让人工智能的应用使刑事司法更公正、更有效率,是刑事司法人工智能法制建设的基本价值追求。

猜你喜欢

量刑司法人工智能
刑事程序法向度的量刑规范化研究
制定法解释中的司法自由裁量权
司法所悉心调解 垫付款有了着落
2019:人工智能
非正式司法的悖谬
人工智能与就业
数读人工智能
下一幕,人工智能!
论自首在量刑中的适用
限于亲友“低吸高贷”行为的司法认定