APP下载

生成式人工智能赋能行政裁量研究:构造、风险与策略

2023-04-17刘光宇

南海法学 2023年6期
关键词:裁量行政人工智能

刘光宇

(山东司法警官职业学院,山东 济南 250299)

引言

2022 年底以来,美国OpenAI 公司发布的智能机器ChatGPT 在全世界广受热议,这款用户交互式的智能应用程序已成为历史上用户增长速度最快的消费级应用,其代表的生成式人工智能被认为将给人类的生产生活方式带来重要变革。比尔·盖茨(Bill Gates)认为ChatGPT是“1980年以来最具革命性的科技进步”。探索新型人工智能的应用场景,既是拥抱创新的价值取向体现,更是落实国家战略的要求。习近平总书记指出:“中国高度重视创新发展,把新一代人工智能作为推动科技跨越发展、产业优化升级、生产力整体跃升的驱动力量,努力实现高质量发展。”中共中央、国务院印发的《法治政府建设实施纲要(2021—2025年)》指出,要坚持运用人工智能等技术手段促进依法行政……大力提升法治政府建设数字化水平。从行政法学角度看,人工智能赋能政府行政活动被称为“自动化行政”,是指行政程序中特定环节或所有环节由人工智能代为处理,而无须人工的个别介入,从而实现部分或全部无人化的行政活动。①“交通违法自动抓拍”“健康码”等技术的应用已令世人初见自动化行政的端倪,而以“无人干预自动审批”为代表的应用场景的出现更使得人们得以窥见人工智能驱动行政行为的应用潜力。囿于技术发展水平,实现“有裁量能力的完全自动化行政”只能停留在理论层面。以ChatGPT 为代表的生成式人工智能具有更强大的学习能力和更准确的输出结果,这为其赋能行政裁量这一“行政法上最基本、最难以把握,也是最富有魅力的概念之一”①王贵松:《行政裁量的内在构造》,《法学家》2009年第2期,第31页。提供了巨大前景诱惑和遐想空间。

然而,ChatGPT 可能给现行法律秩序带来的风险与隐忧也一直为业界和学术界所热议。2023年7月13日,国家互联网信息办公室等7部门正式公布《生成式人工智能服务管理暂行办法》②国家互联网信息办公室:《生成式人工智能服务管理暂行办法》,载中央网信办官网:http://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm,最后访问时间:2023年7月19日。,对生成式人工智能的应用作出了初步规制。包括埃隆·马斯克(Elon Musk)在内的1800 多位首席执行官和1500 多位教授联署发表公开信,呼吁所有实验室“立即停止训练比ChatGPT4.0 还要强大的AI系统至少6个月,从而让实验室和独立专家在此期间能够共同开发和实施一套共享的安全协议”③Futureoflifeinsistute,PauseGiantAIExperiments《AnOpenLetter》,https://futureoflife.org/open-letter/pause-gi-ant-aiexperiments,最后访问时间:2023年7月9日。;“算法黑箱”“算法歧视”等应用风险对公民基本权利产生的负面影响亦长久以来为行政法学界所担忧。由此,本文将从规范角度讨论生成式人工智能实现全自动行政裁量的可行性,并在此基础上探析生成式人工智能对现行法律秩序产生的风险与隐忧,并试论可以采取的解决策略,以期从行政法学角度为生成式人工智能赋能行政裁量提供理论回应。

一、生成式人工智能赋能行政裁量可行性的算法和规范解构

根据《生成式人工智能服务管理暂行办法》的定义,生成式人工智能技术,是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术,ChatGPT 即为这一技术的典型代表。行政裁量则是行政法的核心问题。“行政法的精髓在于裁量。”④杨建顺:《行政规制与权利保障》,中国人民大学出版社,2007,第1页。人工智能赋能政府行政活动被称为“自动化行政”,指行政程序中特定环节或所有环节由人工智能代为处理,而无须人工的个别介入,从而实现部分或全部无人化的行政活动。⑤马颜昕:《自动化行政的分级与法律控制变革》,《行政法学研究》2019年第1期,第82页。基于海外学者将行政活动解构为“观测、分析和行动”的观点,国内学者将自动化行政进一步细化为自动化辅助行政、部分自动化行政、无裁量能力的完全自动化行政、有裁量能力的完全自动化行政。⑥马颜昕:《自动化行政的分级与法律控制变革》,《行政法学研究》2019年第1期,第83页。在现实应用场景中,深圳上线的应届生落户“秒批”系统已初具裁量特征。在该系统中,相对人自行提交申请信息,系统自动核查材料并比对信息,如材料完整、信息正确,即可自动作出行政审批,这种审批是羁束性的,并无裁量空间,因而属于无裁量能力的完全自动化行政。有学者认为,行政裁量完全自动化在理论上无从证立,应定位于辅助功能。⑦查云飞:《行政裁量自动化的学理基础与功能定位》,《行政法学研究》2021年第3期,第114页。ChatGPT 及其代表的人工智能技术为突破这一技术和理论藩篱提供了可能,下文将从技术和规范两个维度解构其可行性。

(一)技术维度

ChatGPT是以大型语言模型(Large Language Model)为支撑,综合运用人工智能算法、大数据处理技术、云计算技术和自动化运维技术等形成的自然语言处理机器学习系统,其可以通过对数据的学习来提炼信息、预测趋势,进而生成不同于学习样本的新内容。在模型上,ChatGPT 使用人类反馈强化学习(Reward Learningfor Human Feedback)方式进行训练,通过人类提问机器回答、机器提问人类回答并不断迭代的方式,让模型逐渐具有对生成答案的评判能力①OpenAI:“Introducing ChatGPT”,载OpenAI网https://openai.com/blog/chatgpt/,最后访问时间:2023年7月26日。,具体训练方法可以大致分为三步:首先,使用监督微调方式(Supervised Fine-tuning)训练初始模型,即“预训练语言模型”,由人类AI训练员扮演用户和AI双方进行对话,并将这个新的对话数据集与InstructGPT数据集混合,使得ChatGPT 的预训练语言模型成为对话格式;其次,使用初始模型产生的数据训练打分模型(Reward Model),其目标是评估模型的输出是否符合人类的要求。通过随机选择一条初始模型的输入信息和几个生成结果,让人类AI训练员根据人类的满意程度对它们从好到坏进行排名,从而实现对打分模型的训练;最后,在使用打分模型的基础上,使用近端策略优化这一强化学习算法(Proximal Policy Optimization)来微调模型。在多次迭代后形成ChatGPT 的最终模型。通过迭代式地更新打分模型和策略模型,让打分模型对模型输出质量的评估愈加精确,策略模型的输出不断与初始模型拉开差距,使输出文本愈符合人类的需求和认知。②朱光辉、王喜文:《ChatGPT 的运行模式、关键技术及未来图景》,《新疆师范大学学报(哲学社会科学版)》2023年第4期,第117页。由此,通过“模型+算法”,生成式人工智能在技术上实现了人类偏好的自主强化训练和语言结果的界面友好输出,为最终实现可达成法律目的的裁量功能提供了技术铺垫。

(二)规范维度

一般认为,行政裁量是指行政主体在适用法律作出决定和采取行动时所享有的自由判断的空间。③王贵松:《行政裁量的内在构造》,《法学家》2009年第2期,第31页。从法律规范的逻辑构成上来看,行政裁量的法律规范可以描述为:如果存在T1的情形,行政机关可采取措施R1、R2。情形T1 属于法律要件,措施R1、R2 属于法律效果。简单地说,要件裁量是指行政主体在认定有待适用的法律要件时享有判断的空间;效果裁量是指行政主体认定法律要件之后在选择行为的效果上享有裁量的自由,两者同时存在。行政主体适用法律规范的基本顺序为认定案件事实、解释法律要件、将案件事实带入法律要件,这一过程又被称为“涵摄”,至此,法律要件的判断结束。行政主体可以根据前述判断的结果,作出是否采取措施的决定。如果决定采取措施,则进一步需要确定采取何种措施、何时采取、采用哪种方式和程序,以上判断构成效果裁量。

一条完整的法律规范可以拆分为若干T1和S1、S2,将其作为对话的两端输入预训练语言模型,生成的结果数据即可用于训练打分模型。在打分模型训练中,通过对法律规范中可以采取的措施,如处罚的措施、数额、幅度等进行人类偏好排序,可初步筛选出裁量结果。随着涵摄的不断进行,不确定概念、特殊因素等T1 会不断叠加,打分模型可以不断训练排列符合法律规范目的的处理结果,借助强化学习进行语言学习优化,实现对法律规范和裁量空间的自我训练和裁量基准的自我学习,最终实现对S1、S2的精准筛选、输出结果。

综上所述,在以大型语言模型为基底的生成式人工智能技术支持下,行政裁量空间中普遍存在的不确定概念和特殊因素得以被纳入训练。强大算力的支撑将让每一次涵摄过程成为不断趋近人类偏好的训练过程,从而最终实现裁量结果的准确生成,让实现法律意义上的“有裁量能力的完全自动化行政”成为可能。

二、生成式人工智能赋能行政裁量的风险和隐忧

ChatGPT 的输出结果本质上是基于对语料的学习而生成的“易于看懂”的数据,表现出的结果正确和情感倾向是人类单方面的设定。换句话说,生成式人工智能本身并不知道输出结果的意义和价值所在,自然缺乏自主意识和人类情感。使用“无情”的工具进行“温情”的裁量,后果直接作用于相对人,本身就是一项大胆的尝试。因此,在探索技术可行性的同时,理应对其保持足够的慎重和戒备。与现有自动化行政应用场景相比,生成式人工智能赋能行政裁量会给现行行政法秩序带来特有的冲突与风险,在算法、数据和结果上尤为突出和紧迫。

(一)算法自身应用风险与公民基本权利的冲突

由于算法可能作为商业秘密受保护而不公开,即便公开,算法模型原理也不易被公众所了解,对其运作机理、技术路径、裁量依据的理解和观察需要极高的知识门槛,再加上数据输入和输出的环节中存在的数据收集由于公共利益豁免知情同意规则而不透明、数据分析结果与决策之间的转换不公布等问题,①张凌寒:《算法自动化决策与行政正当程序制度的冲突与调和》,《东方法学》2020年第6期,第9页。算法面临无法透明化的难题,即“算法黑箱”。生成式人工智能凭借“黑箱”中的算法做出行政裁量,对公众实体权利产生影响,这与“公开、透明、公众参与”的行政公开原则背道而驰,导致公民监督权的缺位,进而可能引发行政权力的滥用,损害相对人合法权利。除此之外,“算法歧视”的存在也会与公民平等权发生冲突。算法歧视往往是无意识的,但产生的后果可能会导致基于种族、性别、年龄等特征的不公正。实践中,算法歧视主要表现为偏见代理的算法歧视、特征选择的算法歧视和大数据杀熟三种基本形态。②郑智航、徐昭曦:《大数据时代算法歧视的法律规制与司法审查——以美国法律实践为例》,《比较法研究》2019年第4期,第112—113页。在第一种形态的算法歧视中,输入端的训练数据本身并无歧视性,但输出结果存在歧视性,如在贷款违约预测算法中,在输入端排除种族因素后,输出结果依然存在基于种族区别之外因素的贷款违约率。③Gillis,T.B.and Spiess,J.L.,“Bigdata and discrimination”,The University of Chicago Law Review,NO.2(2019):459-488.第二种形态中的原始数据本身并不是中立的,历史、文化、社会结构等方面的相关信息在数据采集和处理过程中不经意地被植入到训练数据集之中④陈潭、刘璇:《智能政务ChatGPT化的前景与隐忧》,《电子政务》2023年第4期,第40页。,即“偏见进,偏见出”。“如果我们将黑人比白人更容易被逮捕作为初始数据来预测逮捕率,那么预测结果将是逮捕更频繁地发生在黑人身上而不是白人身上。”⑤Mayson,S.G.,“2019.Biasin,biasout”,The Yale Law Journal,NO.2(2019):2218-2300.第三种形态则是针对新老用户采取差异对待,多体现在价格区别对待和特定推送中。将具有歧视性特征的算法应用于行政裁量,将导致裁量结果的歧视性,造成特定人群因种族、肤色、国籍、宗教、性别、残疾等受到不平等对待,损害公民平等权利。平等对待、不歧视相对人是公民在“法律面前一律平等”的宪法原则在行政法领域的具体体现。“算法歧视”的存在,将使得自动化行政裁量违背行政公平这一基本原则。

(二)海量数据需求与公民个人信息安全的冲突

生成式人工智能的训练和运行需要海量数据,将引发数据安全与公民隐私权保护的隐忧。据公开资料,ChatGPT 使用了约45TB 的互联网公开数据和数字书籍文档以训练其语言模型。①陈潭、刘璇:《智能政务ChatGPT化的前景与隐忧》,《电子政务》2023年第4期,第37页。其采用的预训练模型无须人工介入、监督,这使得其得以自动爬取互联网上的数据资源,可能会获取来源为非法的数据信息,侵犯他人的隐私。②邓建鹏、朱怿成:《ChatGPT 模型的法律风险及应对之策》,《新疆师范大学学报(哲学社会科学版)》2023 年第5期,第94页。庞大的数据规模自然面临着合法性和安全性的担忧和审视。以ChatGPT 为代表的生成式人工智能赋能行政裁量,需要海量个案和裁量基准进行涵摄预训练,在生成式人工智投入使用后的行政许可、行政处罚等具体裁量场景中,每一次裁量都会将行政相对人的个人隐私数据纳入生成式人工智语料数据库,由此产生的公民个人信息安全隐忧将更为严重。数据一旦被泄露和滥用,将会对公民个人信息权益、隐私权造成难以估量的损害,甚至损伤政府公信力,引发社会动荡。总之,生成式人工智能本身面临的数据安全风险,在生成式人工智能介入行政裁量后将被无限放大,产生的后果将更加严重和难以消除。

(三)裁量结果的即时生成与公民程序性权利的冲突

生成式人工智能赋能的自动化行政具有即时性,将大大压缩公民程序性权利信息的加工处理时间,活动在系统内部瞬间完成,活动的程序、步骤和方式无法分离,所有信息与内容糅杂进既定的算法之中得出结果。③张凌寒:《算法自动化决策与行政正当程序制度的冲突与调和》,《东方法学》2020年第6期,第9页。瞬间生成的自动化行政裁量结果直接作用于行政相对人,将会损害行政相对人陈述、申辩以及说明理由等程序性权利,实质上免除了行政机关解释说明的义务,将相对人置于“孤立无援”的境地,在没有补充程序或人工干预的情况下,相对人对于裁量结果只能接受或不接受。即时性同时意味着在相同时长内做出的裁量行为将会更多,如发生大规模系统错误,波及范围会更广,导致信息数据收集、处理的错误风险扩大化。由于先前的行政裁量活动往往是后续行政行为的基础,前一阶段自动化行政错误的存在将连带后续过程发生错误,对行政相对人的正当权利造成延迟性破坏,极端不利于相对人的信赖利益保护。加之自动化行政裁量的纠错机制尚不明确,裁量行为做出后救济渠道不畅、责任尚未厘清,行政活动的程序正义会受到较大损害。

三、生成式人工智能赋能行政裁量风险的防范路径探索

如前所述,生成式人工智能赋能行政裁量在算法、数据和结果三个维度上会给现有行政法秩序带来隐患。厘定生成式人工智能赋能下的行政裁量在政府行政活动中的地位和立场,是一切风险防范路径选择的思考起点。有学者对完全自动化裁量持批判态度,认为自动化裁量只能定位于为行政机关提供决策或行动方面的辅助,而非代替人类自行决断。④查云飞:《行政裁量自动化的学理基础与功能定位》,《行政法学研究》2021年第3期,第114页。亦有学者在接受算法独立裁量可行性的基础上认为由于算法“仍无法将同理心、道德感、意志等人类独有的特征进行编码转换至算法决策中,因此,占据主体地位的只能是具有上述人类独有特征的行政机关(行政主体)”⑤陈飏、裴亚楠:《论自动化行政中算法决策应用风险及其防范路径》,《西南民族大学学报》(人文社会科学版)2021年第1期,第79页。。由此可见,鲜明地确立“人”,即行政机关和行政相对人的主体地位,是包括生成式人工智能在内的自动化技术得以进入行政法空间的通道,这也意味着被以行政法角度观察的技术只能具有工具属性,居于从属地位。明确这一立场,才能确立人对生成式人工智能赋能下的行政裁量后果具有接管、变更、补救的权限,从而对具体风险进行拆解与补漏。

(一)算法维度上的风险防范路径

提高算法透明度和公开度是消解“算法黑箱”影响、保障公民知情权的最直接途径。“公开”包含两个层面的含义:一是确保相对人知晓对其作出行政裁量的是生成式人工智能,同时保障其应用选择权,二是提升算法透明度。前者要求行政机关在使用生成式人工智能进行行政裁量时要明确告知相对人,并且保留相对人拒绝使用的权利和进行人工裁量的通道。只有相对人在明确同意使用生成式人工智能进行裁量的情况下,方可进行全自动行政裁量。“相对人明知且同意”应当作为全自动化行政裁量的前提要件,这既是行政程序“参与”原则基本要求,更是以人为中心的“人工智能—行政裁量”关系基本立场的题中应有之义。出于对裁量系统安全、商业秘密保护与民众可接受度的考量,若要提升算法的透明度不应当简单地披露运行代码与运算过程,而是提升其可解释性。对于提高可解释性,学界普遍认为许可机关应在允许范围内,以适当方式公示自动化许可算法的基本原理、目的意图和主要运行机制,解释自动化算法的目的、逻辑、公式、考量因素及比重、被代码化的法律和数据等。①唐曼:《自动化行政许可审查的法律控制》,《现代法学》2022年第6期,第100页。行政主体应当最大限度地就算法本身向公众作出说明,最大限度帮助公众了解算法运作原理,确保公众便捷获取相关技术解释。有学者另辟蹊径,跳出算法解释本身,从提升民众认可度的角度考量破解“算法黑箱”的路径。②王宾:《自动化行政中算法的法律控制》,《财经法学》2023第1期,第72页。医药卫生领域知识的高度专业性令民众难以得知疾病治疗的原理和操作规程,具有“黑箱”性质,但仍普遍获得民众信任。受此启发,在算法上,还可以通过开发普遍认可的专业考核和认证机制等衡量技术水准的证明形式,使得公众即便无法获知技术信息,也能对其建立信任,也能够严格保护行政相对人利益,建立完备的救济及损害归责机制以及负担风险的方式,在解释算法本身之外,提高民众信任度,双管齐下,最大限度消弭“算法黑箱”的负面效应。

对于算法运行存在的歧视可能,要做好系统预审与事后救济。在具体的行政许可、处罚等裁量应用场景中,要明确系统上线前应做好预先调试与审查。审查内容既包括输入端数据的非歧视性,又包含输出结果的歧视可能性。对审查发现的歧视性输入端数据要及时清理,对歧视性输出结果要及时进行干预训练,尽可能在系统投入使用前排除歧视可能。对系统在具体应用场景中作出的歧视性裁量,要建立专门规定保障相对人权利的事后救济渠道,如提供陈述申辩的行政、司法制度安排等。

(二)数据维度上的风险防范路径

生成式人工智能预训练需要大量数据,行政裁量同样需要获取大量公民个人数据,这将使得数据安全成为其赋能行政裁量的核心风险点。为最大限度避免与公民隐私权的冲突,在微观上,数据的收集和使用要严格遵从比例原则;在具体应用场景中,生成式人工智能使用的应当是用于涵摄的关键语句片段,如行为、裁量基准、相关因素等,而非姓名、住址、身份证号码等隐私性身份信息。因此,在输入端要做好信息的筛选与过滤,确保生成式人工智能运算和存储的数据不构成识别性个人信息。在宏观上,行政法律规范要对生成式人工智能赋能下的行政裁量数据安全保护作出特别回应,明确政府监管、企业落实、个人守法的三方数据安全责任,完善数据泄露的责任追究及问责机制,如明确生成式人工智能行政裁量系统数据库信息泄露的党纪政纪责任,技术承包商及个人的民事、刑事责任等。畅通隐私权救济的行政、司法救济途径,确保数据存储安全有保障、泄露风险可控制、损害后果可救济。

(三)结果维度上的风险防范路径

一般来看,生成式人工智能作出的裁量结果生成即生效,但将大大限制相对人的陈述、申辩及救济权利。保障相对人的程序性权利,就要增大裁量结果生成与生效之间的回旋余地。因此,将通知与申辩环节作为结果生效的必经环节甚为必要。裁量结果作出后,应及时通知行政相对人,并告知其救济途径,必要时应设置专门的听证程序,以保证行政相对人能够充分表达自己的合理诉求。为保证权威性和有效性,申辩与救济程序应由人工完成,并且保有变更裁量结果的最高权限,司法的终局性介入空间也应当明确。值得注意的是,全自动行政裁量不会主动履行解释说明义务,而是由相对人在寻求申辩或救济时依申请作出,即当行政相对人对由机器作出的处罚决定不信任时,行政机关要向行政相对人进行解释说明,并保证个案公正。①马颜昕:《自动化行政方式下的行政处罚:挑战与回应》,《政治与法律》2020年第4期,第144页。这既是全自动行政裁量追求行政效率的价值目的所在,也是相对人在前置性选择自动化行政裁量时应当被明确告知和自愿接受的结果。为避免裁量即时性可能引发的错误导致更严重的后果,要有针对性地建立大数据监测预警机制,对同一时段超过安全阈值的投诉申辩作出及时反映,以便行政机关及时作出调整。同时行政机关扛起能动性责任,不得过度依赖自动化裁量,造成行政懈怠。

除程序性权利保障外,全自动行政裁量结果的责任承担机制尚不健全。为保障行政相对人的合法权益,应当明确行政机关的第一责任人责任。对于行政裁量相对人来说,其不应关心到底哪些主体介入了裁量过程,只需要明确裁量结果归因于行政机关,裁量产生的一切法律后果只作用于行政机关和行政相对人。至于处罚(裁量)错误到底归因于行政机关还是外部技术主体、行政机关如果承担了责任是否可以向技术主体追责的问题,其实并不属于行政处罚(裁量)关系中需要解决的问题。这一问题涉及的是技术主体与行政主体之间的技术法律服务,技术主体与行政主体之间有一种行政协议关系。②马颜昕:《自动化行政方式下的行政处罚:挑战与回应》,《政治与法律》2020年第4期,第147页。此种责任分担机制可以归纳为“政府对外承担责任、对内分配责任”。

结语

国务院《新一代人工智能发展规划》指出,要围绕行政管理等热点难点问题,促进人工智能技术应用的发展,推动社会治理现代化。人工智能赋能政务服务等社会治理场景将有利于提高行政效能、助力依法行政、推动效率与公平的兼顾统一。与人工智能在行政活动中只能发挥辅助性作用的主流观点不同,本文认为,以ChatGPT 为代表的生成式人工智能将在行政许可、行政处罚等核心裁量场景中发挥基石性作用,其大型预训练语言模型与法律规范、裁量基准以及裁量个案发生的语句结合将为真正实现有裁量能力的全自动行政提供技术可能。然而,与其他人工智能技术类似,生成式人工智能对具体行政行为场景的介入将在算法、数据、结果上对现有法律秩序造成冲击,对公民基本权利造成损害。应当在坚定重申人工智能的工具属性立场、明确行政机关与相对人的主体地位的基础之上,提升算法的透明度,严格进行系统预审,从而避免裁量的歧视性后果;严格限制公民数据采集与使用范围,聚集政府、企业、公民三方合力保证数据安全;明确裁量结果的救济途径和责任分担,保障公民的程序性权利,避免行政主体陷入技术发展导致的技术依赖和行政惰怠,最终实现技术与效率、公平与正义的良性互动。

猜你喜欢

裁量行政人工智能
行政学人
论行政自由裁量的“解释性控权”
Mesenchymal stromal cells as potential immunomodulatory players in severe acute respiratory distress syndrome induced by SARS-CoV-2 infection
行政调解的实践与探索
2019:人工智能
人工智能与就业
应如何确定行政处罚裁量基准
数读人工智能
下一幕,人工智能!
行政为先 GMC SAVANA