APP下载

算法行政的私营化及其公法规制

2023-01-12刘佳明

天津行政学院学报 2022年5期
关键词:程序设计程序行政

刘佳明

(浙江财经大学,浙江 杭州 310018)

在行政法学领域,有关算法的研究侧重于讨论算法决策与社会治理之间的内在联系,或认为随着算法不断融入社会治理领域,传统法律治理形式正面临着“革命性”挑战和转型升级的发展境遇[1],或认为在算法冲击之下,传统法律治理形式正逐渐丧失其独立于社会系统存在的功能正当性,甚至趋向“消亡”[2]。而在算法治理规制方法中,研究也主要主张运用传统行政法治的一般原理来对算法主体予以控制。这些观点对于研究和分析数字化背景下国家治理技术与价值维度的转型具有重要启发意义,但对于一些具有公共性质的决策算法,尤其是当这些算法的程序设计是由私营主体主导、控制之时,能否直接套用行政法治的一般原理来对其予以规制?如何规制?这些都值得去反思。而当不受监督、不对人民负责以及坚持利益至上的私营主体通过控制算法来摄取国家权力之时,更有可能引发算法寻租、算法滥用等社会问题。面对算法决策给传统治理模式带来的冲击,以及私营主体对公共算法程序的垄断和控制,我们需要理性分析算法行政过程中所面临的私营化问题,进而主张将算法程序的私营设计主体纳入公法的规范和限制范围之内。

一、算法行政私营化的表现形式

算法行政的出现与数字技术的进步密切相关。数字技术的进步以及数字化生活程度的提升,极大增强了以信息为基础的规制活动和处理复杂问题的能力。在数据挖掘技术的指导下,关于社会主体意图、倾向、偏好、风险和机会的概率知识,都由算法参与主导并执行。在此基础上,“算法行政”被认为是一种建立在自动收集、整理和分析大数据基础上的某种类型的规范性或政治理性,并以建模、预测和先发制人的方式来影响可能行为[3],即行政机关在借助算法对行政工作进行自动化处理的过程中,基于算法产生的权力机制而形成的一种全新社会治理模式。在这种特殊治理模式中,行政机关能够利用数据处理和深度学习的技术优势,不断提升自身决策能力和决策水平,以此来强化对社会的影响和控制。但是,作为一种新的社会治理形式,算法行政程序的设计理应由有权机关依据特定的职权进行,这种职权必须有直接或明确的法律授权或委托依据,其中既包括国家层面的行政主体,也包括地方层面的行政主体。但是,受制于算法技术的专业性和特殊性,算法行政往往由私营主体控制,从而导致算法行政产生了私营化的现象。

(一)算法程序的私营化

在人工智能算法与行政法治关系的研究中,一些学者很早就注意到了当下算法影子官僚的现象,并对其进行了专门的研究。算法影子官僚的产生与算法行政的私营化有关,私营主体可以通过控制公共算法程序的开发和设计而发展成为行政管理关系中的非正式官僚组织。换言之,从技术逻辑上分析,算法行政的应用与平台的应用具有紧密的联系,算法通过与大数据、互联网平台融合,从而实现与整个社会关系的融合。对于现代社会治理而言,平台作为私营主体,可以利用自身的资本优势和技术优势有针对性地收集各类用户数据,以此促进算法技术的不断成长,而拥有公共权力和公共资源的政府部门利用平台收集的数据和开发的应用程序,可以对社会实现精准化治理。二者的有效结合,能为平台嵌入公共治理领域提供极大便利。具体表现为:其一,平台能够为政府提供基础数字支持,政府借助平台可以提升国家权力的效能并延伸治理触角;其二,平台能够为政府使用的算法程序、架构设计等基础设施的建设创造技术物质条件。例如,中国平安集团开发的“智慧财政”一体化管理平台,充分运用信息化手段打造出符合现代化预算管理要求的财政全流程业务系统,可以大幅度提升政府的财政管理能力;在广东省数字政府的建设过程中,腾讯云帮助广东省发布了移动服务平台“粤省事”,为实现民生服务一站式办理提供了强大的技术支持[4]。这些都是私营主体参与算法程序设计的具体表现。

(二)算法决策的私营化

网络化、数字化的交流方式不仅在治理主体上改变了原先政府垄断国家权力的状况,使国家治理主体呈现多元化的发展趋势,还使社会运行机制和构成方式实现了从单一型向合作型的现代化方向转变。传统上,公共管理组织作为执行公共任务的专门主体,职责范围一般限于保障实施社会生活的正当行为规则以及向社会提供公共服务[5]。随着社会和市场的逐渐平台化,越来越多的社会交往与交易行为通过平台进行并在一定程度上受到平台的控制和约束。例如,平台虽由私人组织运营,却在事实上成为大众参与公共活动的重要场所,并与公共利益密切相关[6]。随着技术赋能和法定义务不断增加,平台不再是纯粹的信息传输管道,其实质功能已经发生变化。它不仅仅是普通意义上的私权利主体,而且是具有公共管理性质的私权力主体,并对社会个体施加不亚于国家权力机关的影响力和控制力。尤其是在人工智能算法时代,平台因高度聚合性和强自动化的经营特征,而能够辐射网络虚拟空间和现实物理空间,呈现出“去结构化”和“强组织化”叠加的特性[7](p.59)。例如,著作权领域法律的算法实施就为平台参与算法行政的应用提供了一个有益的观察视角,平台可以自发采用侵权检测算法规则,并通过确立新的立法原则来强化对在线用户分享内容的事前审查,从而对网络空间中著作权法的算法实施机制和规制的创新与发展形成激励作用[8]。

(三)算法规制的私法化

在算法行政的法律规制领域,有关算法程序的设计主体和使用主体尚未明确区分,同时也缺乏必要的公法规制手段对算法行政的私营主体予以规范和控制。例如,对于如何规制公共管理领域中的算法“黑箱”问题,主流观点提出的办法主要是算法解释、算法问责和算法信任,即将算法自动化决策和辅助决策都纳入可解释、可问责和可信任的情形之内,但是,可解释、可问责和可信任的主体仍然限于数据代理商或自动化决策算法公司等私营主体,而我国目前法律中有关规制算法主体行为的规定也主要散见于《刑法》《消费者权益保护法》《电子商务法》《网络安全法》《征信业条例》《网络交易管理办法》等相关法律条文中,其内容也主要侧重于对公民个人信息和个人隐私的保护。例如,我国《电子商务法》在规范电子商务平台的行为之时就专门将其作为一类独立主体,并对其系统地设定了相应的管理要求以防止“私权力”滥用。因此,面对智能时代自动化决策技术对国家治理和机制带来的巨大冲击,现行法律制度在规范和调整算法行政的私营主体上往往显得捉襟见肘,力不从心。尤其是缺乏一部专门化、精细化的规范和限制算法行政私营化、防止公民权利遭受不法侵害的法律,而一旦对算法行政程序设计的限制和约束不当,势必造成难以挽回的恶果。

二、算法行政私营化的问题

算法行政作为智能时代社会转型的客观产物,对推动国家治理转型升级具有重要的现实意义,但是,算法行政如同传统行政一样容易遭到滥用,并且算法行政的私营化程度越高,非权力化手段介入越强,其权力滥用的机会就越大。而在算法行政的私法规制关系中,完全的平等协商与意思自治只是一种理想状态。如果将公共关系的法律调整完全交给平等协商和意思自治,则被消灭的将不再是权威和规训本身,而是其赖以产生的社会关系[9]。由于算法程序的设计以及数据的收集往往都在平台上进行,而个体通常只关心手段和效用,无法解决社会内在的公平性和合理性问题,因此,作为私营主体的平台难以避免主观隐含的功利主义价值导向。而一旦对公民行为的控制和影响越来越多地需要借助于算法形式来予以表达之时,对算法技术的垄断控制将成为社会主体获取竞争优势的普遍特征,商业巨头、政府部门以及超级网络平台公司将成为获取算法工具的主要竞争主体。借助技术优势和平台优势,除了在引导舆论、妨碍竞争、破坏市场公平等私人领域造成影响之外,私营主体在行政法治领域所引发的社会问题尤为值得关注。

(一)算法程序设计的私营性容易诱发算法寻租

当前,算法与纷繁复杂的平台应用相结合,深入且广泛地融入我们的生活中并不断拓展,这些看似理性的算法却引发了一系列算法危机,“算法歧视”“算法合谋”“算法霸权”“算法黑箱”“算法短视”等问题层出不穷。私营主体作为非权威的权力与秩序组织,虽然能够将所掌握的技术知识、方法运用于算法决策或政府智能化决策平台、网络架构的基础设施建设之中,从而实现公共利益和个人利益双赢,但算法不等于抽象的数学,任何算法都包含着特定群体的价值判断,这种价值判断必然受到诸多现实利益的影响[10]。从算法运行的逻辑基础分析,几乎所有的算法行政都依托平台而展开,而算法的开发、运行和迭代,不可避免要涉及平台对用户数据的收集、加工与处理。由此可知,作为足以对社会主体行为进行引导和操纵的算法并非完全是中立、可信的,事实上,算法很有可能成为裹挟着资本甚至政治动机的私人利益工具。例如,公民在新闻信息获取环节便受制于平台的算法推荐机制,即公民可以看到的新闻内容要经过平台的筛选和过滤,而具有相似情感和价值倾向的公民又通过协同过滤算法机制聚集到了同一话语空间[11]。这些都可以被平台操纵并用于实现自己的商业目的。因此,在算法行政应用中,一旦对算法程序设计的监管不当,平台就可以在数据筛选和程序设计环节对算法决策的形成产生实质性影响,从而使行政行为偏离公共意志和公共利益的法治轨道。

(二)算法决策的功利主义价值导向容易产生社会偏见

随着技术的不断更新、迭代,对技术的崇拜使得理性越来越工具化,以效率与效益为追逐目标的功利主义价值导向使算法越来越成为人们获利的主要方式。尽管效率优先的价值选择是算法升级进化的重要助推力,但同时也会成为影响公共利益、侵害公民权利的关键性因素。因为假设算法主体是理性人并且总是偏好更高收益的结果,那么算法决策总是会采取严格占优策略且总是不选择任何劣势策略[12](p.11)。因此,算法虽然有助于提升社会治理效率并降低社会监管成本,但也不可避免地会复制并延续当前社会的既有格局与特征,人类社会既有的“数据鸿沟”可能导致部分人群的数据缺失,并使他们进一步被隔离在“算法社会”之外[13]。例如,在现实生活中,某些群体可能因其不同的身份而遭受到社会的不公平对待,那么将数据化分析作为“决策”考量因素的算法行政则会进一步加剧原有的不平等现象,从而引发偏见累积效应,并诱发“二阶性偏见”现象。

(三)算法规制的私法化难以有效调整公共关系

从调控方式来看,公法和私法虽然具有一定的相似性,但仍存在着本质上的不同。公法是关于私法之保障和职权运行的行为规范,调整的是不同主体之间的纵向法律关系,因而决定其采取的调控方式是以控制与被控制为主。相反,私法所调整的是平等主体之间的横向法律关系,因而决定其采用的调控方式是以协商和放任为主,而不是遵循控制与被控制的逻辑。如果采取协商和放任的方式来调控具有公共管理性质的算法行政,那么这种调控方式被证明在很多时候往往是无效的。因为,公法的首要目的是保障实施社会生活的正当行为规则。假如没有一个强调“服从”的权威机构来执法或者作为后盾,单纯依靠冲突当事人自己协商解决,无论是对整个社会的资源配置还是对当事人的福利来说都会是低效率的[14]。况且,在我国现行的法律制度体系之下,几乎所有的公法领域对正当程序都有明确的规定,并且对公共权力的行使和监督有着严格的程序限定。而在算法行政产生、运用的实践过程中,数据的收集、算法的设计、运营与部署都必然地会夹杂着平台的私意,这些都有可能侵犯公共秩序、私人权益以及第三方权益,而这种私意在很大程度上都不是公法规范所能容忍的。因此,当不受监督、不对人民负责、坚持利益至上的非政府主体掌握决策数据以及算法行政程序的设计和运行之时,人们便有理由怀疑其可责性[15](p.5)。这就表明如何在公法领域框架克服算法行政的私法化倾向,是一个需要被认真对待并亟待解决的现实问题。

三、算法行政私营化的公法规制

行政机关需要借助私营主体开发和设计的算法程序来实现政策制定与社会治理的公共目的,但是,在数据的收集、加工与处理以及算法程序的设计、开发和运行的过程中,算法行政的私营化发展难以避免。我们需要做的是尽可能地从公法的原理和价值角度对其进行有效规制,从而降低算法行政私营化带来的潜在风险。事实上,算法行政私营化问题所涉及的面向相当之多,因而,对其进行有效规制也是一项需要多领域、多层次通力合作的系统化工程。为了更好地实现私营主体的公共性,除了在最大程度上发挥好私法的功能之外,最终还是要从公法层面出发,通过科学建构防止私营主体滥用算法技术和算法权力的制度规范体系,更好地实现对算法行政的有效规制。当然,如何把公法的规范力适度地延伸到私法关系中,以调和现代社会管制与自治的矛盾,是对依赖体系思考而传统上又以公私法的区隔为基本体系架构的大陆法法系国家的一项重大考验[16]。

(一) 通过法律优先和法律保留限定算法行政的私营化范围

法律优先和法律保留原则作为依法行政的重要内容,决定了行政机关权力行使的边界和范围。随着社会的逐渐发展变化,民间组织参与公共管理的事务越来越多,与国家权力的联系也越来越紧密。因此,法律保留作为依法行政的核心内容逐渐扩展至私人领域,成为划分公共服务私营化的边界和范围,以及明晰政府和私人权责的一项重要原则。具体到算法行政领域则表现为:对于行政机关而言,哪些算法程序设计的环节应当由私营主体承担?私营主体是否受到公法规范的限制和约束?这些都在法律保留原则的讨论范围之内。

智能科技企业和平台公司在智能社会治理方面有其不可替代的内生动力和天然优势[17],作为现代算法技术的创造者和引领者,私营主体以其得天独厚的平台优势和技术优势成为推动数字社会转型升级的中坚力量。鉴于私营主体在算法行政中发挥着较为明显的作用,对算法行政的规制就不应当仅仅限于国家层面的公权力主体,同时也应包括社会层面的私权力主体。私营主体能够对公民施加不亚于政府的影响力和控制力,因而从法律层面对私营主体进行控制和约束也就显得更为重要。但是,算法行政涉及面广且关系复杂,在适用法律保留原则上需要根据私营主体在算法程序设计中所承担角色的不同予以明确区分。一方面,对于社会发展变化较快且需要国家快速应对的事项领域,私营主体相较于行政机关具有更强的专业性和快速反应能力,尤其是在人工智能技术得到广泛运用的当下,从算法的基础认知、实际运用再到反馈修正,需要跨学科知识和编码技术,这些事项因不具有规范的可能性应当被排除在法律保留的范围之外,应被纳入私法领域的规范范畴。例如,凡是在特别专业的事务领域,私营主体可以为算法程序设计相应的专业标准与技术规范,这些标准和规范对于算法程序的开发与运行而言,具有普遍的指导和强制作用。另一方面,即使私营主体在算法行政程序设计中发挥的作用比较明显,但对于一些涉及公民权利核心问题的重要事项,且只能由行政机关来履行算法程序设计的领域,仍应当由行政机关履行,这些事项具有规范的可能性,应当被纳入法律保留原则的范围之内,并被纳入公法领域的范畴。例如,在算法程序的设计过程中,一些核心数据的输入以及涉及公民个人权利、商业秘密和国家机密等重要程序的核心功能部分应当由行政机关控制产生,这些属于法律绝对保留的事项。而对于哪些算法程序的设计内容能够私营化,或者应当如何实行私营化,则必须由立法部门专门决定,其通过法律授权的方式来对算法行政私营化进行限制和约束,行政机关不能简单地通过制定法规条例的方式作出决定,从而擅自将算法行政程序的设计完全外包给私营主体或机构。因此,对社会整体福利或公民的实质权利产生比较广泛影响的算法程序设计,应当要用相对适用的法律进行绝对保留,以防止公权力行使主体权责的转移;而对于一些技术性、专业性较强的算法程序设计,应当要相对保留或将其排除在法律保留原则的适用范围之外。

(二)算法行政私营化的立法再规范

算法行政私营化的行政监管旨在从应然层面来探讨行政监管部门如何在具体的实践过程中规范私营主体的算法程序设计行为,而这不仅需要通过国家制定具体的法律法规来进行专门指引,还需要建立专业的算法规制主体来对程序设计进行审查,以确保私营主体的可问责性。

1.制定统一的算法私营化法典或公共算法程序设计管理法

事实上,无论是立法、司法还是执法层面,算法决策对社会的渗透和影响无处不在,其背后都会不自觉地触碰到私营主体利用算法技术俘获或强势入侵国家公权力的问题。面对私营主体通过代码和架构在算法行政程序设计中以直接或者间接方式渗透其价值偏好和利益选择,无论是行政法规还是部门规章可能对此都会招架不住,尤其是就算法行政这一新的治理机制而言,法律优先和法律保留原则作为对这一问题解决的首要原则,其有效性和实效性也就显得不容乐观,并值得商榷。对此,迫切需要对算法进行立法,尤其是针对行政管理领域中具有立法性质的公共决策算法进行立法,从而使算法行政的产生和运行以及相应的监督和管理机制得以有效形成。从制度层面来看,对算法行政私营化现象进行立法,首先需要立法机关制定一部统一的算法私营化法典。为保障私营主体参与算法行政程序设计的合法性和正当性,以及保证私营主体在参与算法程序设计过程中的公开透明,亟须在法典中明确私营主体参与算法行政程序设计的合法地位。一些涉及社会公共福利和公民权利等的重要核心程序的开发以及基础设施的部署应当严格规定由行政机关进行,而其他一般性事项则由私营主体进行。

此外,制定完备的算法私营化法典还需要立法机关制定一部专门的公共算法程序设计管理法,从而为算法行政的程序设计提供标准化的行为规范和操作指南。在美国,对公共决策算法的治理大量发生在州和地方政府一级,它们正积极通过立法来规范公共算法在各种社会治理场景中的应用。例如,佛罗里达州的iBud-get系统就是一种基于算法的服务,它允许残疾人选择对他们很重要的个性化服务,同时也帮助行政机关遵守相关联邦和州的法律,此外,针对其他算法程序设计和使用的规制还在一些判例当中得到明确确认[18]。在我国,目前规制算法程序设计的规定主要散见于一些行政法规或部门规章当中,如国务院1999年制定的《商用密码管理条例》、工信部的《移动智能终端应用软件预置和分发管理暂行规定》、住房和城乡建设部的《建筑智能化系统运行维护技术规范》和国家密码管理局的《密码模块安全检测要求》等。这些对算法程序的设计都有所涉及,但我国仍然缺少针对算法程序设计问题的专门性法律法规。制定一部统一的涉及公共算法程序设计问题的法律法规,不仅能够为算法行政程序的设计提供法律依据,同时还能够为全国各地算法行政程序的设计提供统一的性能标准、设计标准以及责任标准,保障程序设计遵循程序化、标准化的操作,从而达到规范算法在公共决策领域使用的预期效果。

即使在公共行政领域,由于算法在不同行政场景下所涉及的程序、架构、目的、风险以及影响范围都有所差异,一部统一的算法私营化法典或公共算法程序设计管理法,可能会与算法运行和应用的实际机理相悖,甚至在应对算法行政私营化问题上的作用十分有限。因此,无论是从节约治理成本还是从追求治理效果出发,抑或是从推动民主进程、转变治理思维以及保障基本人权的规范性要求出发,推动数字时代背景下国家治理的技术维度和价值维度的转变,除了需要强化制度构建和政府管制之外,还应当引导社会治理模式从单纯的政府监管向社会自治转变。通过重构国家与市民社会的关系,确立多元权利基础、公权力权威和良法之治,从而实现依法治国与市民社会理性规则秩序的契合[19]。

2.明确私营主体的公法责任

由于算法行政程序设计具有极端重要性,尤其是私营主体所设计的算法程序会对公民的权利义务产生实质性影响,建立专门的算法监督和算法问责机制是必不可少的。但是,现有法律制度使得私营主体利用算法设计开发的商业模式有监管套利之嫌,设计者往往以算法的发展和最终损害可能有多个潜在的责任方,以及设计行为是智力创造过程不应受到法律的规制为由,对算法的监管行为进行完美规避[20]。因此,基于我国目前缺乏一套有效的社会治理体系将算法违法的成本内部化,以及面对算法程序所带来的危害和算法归责上的困难,立法者需要在明晰算法系统的内部运行逻辑和外部作用方式基础之上来创新现有法律责任归责体系,创造出符合算法技术特征的责任规则,从而明确算法程序设计者和使用者之间的权责分工标准。

既然私营主体在事实上行使公共管理职权并提供公共服务,相应地也就应当积极履行应有的法律义务和承担公共责任,从而实现个人利益与公共利益的有机统一。而在算法责任问题的研究上,国内有研究者主张将算法责任视为一种严格责任,即“一旦算法在应用过程中产生任何风险或造成任何实际损害,算法的研发者和应用者都有义务承担算法责任,即便事先已取得利益相关者的知情同意或纯粹的技术缺陷也不足以阻却相关主体所应承担的算法责任”[7](p.65)。在算法责任的类型上,有学者根据现代政府治理所蕴含的权力关系、法律关系与道德关系,进一步主张将算法责任分为政治、法律与道德三种类型,其中算法的法律责任包括宪法、法律与行政法规等所明确确立的政治责任与道德责任,主要涉及治理部门内部的角色设置与责任分配[15](p.10)。而在对私营主体主观过错的认定上,还有学者认为通过设置算法评估制度和算法备案制度作为事前固定问责点,事后根据备案内容做出算法解释,并结合客观损害结果来对其予以归责[21]。这些为算法责任的研究提供了可供参考的经验。因此,通过对现行行政法律责任体系进行改革,将参与算法行政程序设计的私营主体扩充为行政责任主体的类型,并补充相应的算法责任内容,从而使私营主体在享有一定权力的同时又必须承担相应的公共责任,这既是规制算法行政私营化的应有之义,也是智能时代法律变革的必然趋势。

当然,虽然私营主体在算法行政产生过程中发挥着重要的作用,但考虑到其毕竟不是真正意义上的公共管理者,如果对其苛以过高的义务要求和责任负担,私营主体将不堪重负,这将会抑制私营主体参与算法行政程序设计的积极性,同时也可能会为掌握实质性决策权力的行政主体实施责任转移提供充分的借口和理由。故而,私营主体承担的责任应当被控制在必要的限度范围之内,算法行政责任的最终承担主体仍应以行政主体为主。

3.建立独立的算法审查规制主体

由于算法通常涉及的专业性知识较强,结构较为复杂,因而为了对算法程序的设计进行有效监管,并确保算法程序设计的法律责任能够落到实处,需要设立专业、独立的算法审查部门来对算法进行专门审查监管。来自美国公用事业规制的基本经验表明,“复杂的现代社会需要专业化的、独立的、灵活的和可持续的规制模式。大量的介乎于立法机关、司法机关和行政机关之间的独立管制机构的存在即是上述模式的典型特征”[22]。例如,在对算法的监管上,美国、英国等发达国家都设有专业、独立的审查机构。在美国,《算法问责法(草案)》将联邦贸易委员会(Federal Trade Commission,FTC)作为独立的算法监管机构,对自动化算法决策进行立法、监管以及采取强制措施[23]。此外,英国也设立了非政府部门公共机构英国信息专员办公室(Information Commissioner’s Office, ICO),其拥有独立的监督和审查,以及命令纠正错误行为和实施罚款的权力。就我国算法行政私法化问题的监管而言,可以在借鉴国外有效经验的基础之上,来创设符合我国国情的独立、专业的算法审查规制主体,从而强化对算法程序设计的监督和管理,并赋予其相应的国家权力。

为了保证算法审查部门的独立运行,算法审查规制主体应当包含以下特征:专业性,即算法审查机构的人员应当由包含不同学科知识背景的专家组成,以保证算法审查的专业化;独立性,即算法审查应当与政府部门和私营主体分离,不受其他部门的干涉,以确保审查结果的公正可靠;合法性,即算法审查规制主体的设立必须由法律授权产生,其职责范围由法律明确规定;公平性,即算法审查规制主体应当依照法定的要求和程序对算法进行审查,以确保审查结果的公平、正当。

(三)算法行政私营化的程序性要求

公共行政民营化成败的关键在于法律程序的公正与否,唯有通过正当的行政程序才能保障民营化的顺利推行[24]。无论是算法程序的设计主体还是使用主体,遵循程序正义是防止其以权谋私和滥用权力的有效举措,也是保障权力得以有效实施和运行的关键步骤。在美国,有研究者在顺应人工智能嵌入社会治理领域发展变化的需求之下,创造性地提出了“技术正当程序”的概念,并倡导人工智能的开发和运行要遵循透明性、准确性、问责制、参与性和公平性等基本原则[25]。这些建议对我国算法行政私营化的程序性规制具有重要的启发作用。具体而言,应从信息公开、招投标制度、听证、公众参与和专家辅助等方面来对算法行政私营化过程进行全面的规范和限制,并辅之以必要的算法解释权作为事后的权利救济和监督手段。

算法行政程序的设计事关公民的基本权利和社会公共利益,私营主体在设计算法程序之时,应当及时披露相关信息以确保算法程序设计的公开透明,尤其需要披露据以设计的相关算法规则,如正在优化的目标函数、用于优化的方法以及算法的输入变量以及源代码等,这些有利于公众及时了解算法程序设计的相关信息。而要克服私营化立项的随意性,算法程序的设计主体除了必须得到法律授权外,还必须严格执行招投标制度。此外,为了保证算法程序设计的民主性和科学性,对于一些涉及重大事项的算法程序设计,还需要广泛征求各方面意见,包括采取专家座谈会、听证会、论证会以及向社会公布算法程序、公开征求意见等多种形式,最终该算法程序才能进入正式设计过程。通过以上一些程序性规定对涉及公民重大权利事项的算法程序设计进行监督和限制,能够为公众参与算法程序设计的全过程提供必要的途径,并为其监督算法的立法性使用提供一种可能。

事实上,受制于公众知识和精力上的有限性,程序在规范和限制算法行政私营化的实践效果上并不明显,且容易遭受质疑。例如,早在纽约市的《算法问责法(草案)》中就有类似的专门规定,但在实践过程中,由于公众参与算法问责和算法设计的能力十分有限且激励不足,该规定最终流于形式。为此,可以通过引入“交流型专家”来协助公众审查和监督技术的内核部分,并对算法程序的设计提出专业性的意见和建议,从而保障公众的实质参与。当然,对于一些专业性较强的核心程序,即使专家,也难以知晓并参与到算法程序设计的全过程,因此,通过算法解释来强化公民对算法行政的事后监督以及权利补救,也不失为一条有效途径。但与一般算法解释要求不同的是,对算法行政的解释在程序上应当要求更高,并保证其能与传统行政中的信息公开、理由说明等法律制度保持衔接。

四、结语

随着现代计算机运算能力以“指数”级速度增长,人类社会正逐渐从信息时代迈向算法时代。在行政管理领域,从风险评估到行为识别,从公共安全到社会服务,由大量数据驱动的算法已经成为新型权力中介,或对人们的行为和表现进行预测和评估,或对各种资源和福利分配进行排序。这些决策与各种平台应用有机结合,不断颠覆人类的传统认知和现有的社会秩序格局[26]。在算法研究领域,研究者提出“算法法律化”“算法规则化”等诸多有价值的命题,并且提供了极富解释力的说明和严密的逻辑推理。不过,算法具有自己的特殊性,在不同社会层面,算法所呈现的面貌也有所不同。但是,在面对算法给传统社会秩序和法律秩序带来的深刻影响和冲击上,人们的认识具有重叠性,即如何将算法程序的设计和使用纳入法治轨道,并确保对算法的使用者和创造者进行有效规范,是亟待研究并予以解决的现实问题。而在涉及算法行政公共政策的制定过程中,需要广泛进行话题辩论,鼓励社会公众参与,在争议较大的核心问题上听取公众意见,充分保障公众在公共政策制定上的参与权与知情权[27]。

猜你喜欢

程序设计程序行政
行政学人
医学专业“Python程序设计”课程教学改革总结与思考
基于Visual Studio Code的C语言程序设计实践教学探索
给Windows添加程序快速切换栏
从细节入手,谈PLC程序设计技巧
试论我国未决羁押程序的立法完善
行政调解的实践与探索
“程序猿”的生活什么样
英国与欧盟正式启动“离婚”程序程序
高职高专院校C语言程序设计教学改革探索