APP下载

算法治理应聚焦解决的关键性问题

2022-05-13万方

理论探索 2022年2期
关键词:知情权算法

〔摘要〕我国个人信息主体的知情权体系并不包含对算法事后解释权的规定。事后的算法解释面临着从技术上难以获得、立法上的缺位及救济不显效等难题。在充分平衡个人信息主体权益与公共利益的基础上,清晰构建以事前告知及事后反对为框架的算法治理路径并辅之以事前的内部化算法影响评估与外部算法安全认证是我国算法治理的可行之道。

〔关键词〕算法,知情权,算法解释,算法治理,认证制度

〔中图分类号〕D913〔文献标识码〕A〔文章编号〕1004- 4175(2022)02-0121-08

〔基金项目〕国家社会科学基金重大项目“大数据时代个人数据保护与数据权利体系研究”(18ZDA146),主持人程啸。

算法技术的普及应用,虽然提高了资源分配的效率,实现了精准定位及预测功能,但同时也改变了事物的随机性分布,使得人们开始对公平及机会进行重新审视;算法放大了人类生活中某一面的行为特质,使得两极化的趋势更为明显和强烈;算法甚至也反过来影响着人类的思考判断,逐渐引领新的价值规范。算法不仅在社会生活中充当实在法则,甚至已经开始试图扮演上帝。从这个意义上来说,社会秩序已然被技术重新塑造。

信息主体的知情权是其他数据处理活动的基础,而知情权本身由信息处理者的告知义务及信息主体的访问权组成。在我国个人信息保护领域,访问权主要体现为查阅权及复制权。事后的算法解释目前成为学术界日益关注的问题,然而,算法治理的核心要义是设立有效的事前算法告知义务,而非事后的算法解释义务。本文拟分析论证算法“事前告知”路径的合理性,以寻求符合我国国情的算法治理之道。

一、算法治理的“事后解释”问题溯源

在个人信息被处理前,个人信息主体的事前知情权有赖于个人信息处理者的告知义务之履行。涉及自动化处理的语境之下,个人信息处理者需要承担的算法告知义务,包括“应当以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图、运行机制等”。这种对于算法基本原理及运行机制的公示要求属于一般告知义务中“处理方式”的细化,主要源于自动化处理方式的特殊性易给主体带来更大的风险,此时需在事前对个人信息处理者施以特殊的告知义务。对于在自动化处理之前进行告知的必要性学界并无争议,但是是否需要附加对算法的“事后解释”仍然存在一定的讨论空间。本文拟从几个方面入手对该问题进行分析。

(一)“事后解释”的局限性

1.“有意义的”解释难以获得。算法是否能够解释,其理论分歧的实质在于对算法解释目的的追求。这种“解释”并非需要对算法模型或数据的全面公开,而是一种“适度透明”的要求〔1〕142。所以,个人信息主体需要理解的是是否存在“风险”而非洞悉理解“技术”。从这种意义上来说,透明度的要求并非对是否披露的要求,而是对于披露程度的要求。何种程度和方式的信息披露能达到使得信息主体了解“风险”的目标,从而使其能自主决定是否适用自身诸如免受自动化处理权或删除权等其他合法权益来排除此等风险。

随着法律规范领域的不断扩大,呈现出向社会活动系统纵深方向扩展的趋势。在法律所扩展的这些领域里,许多问题具有科学技术问题,是标准规范的固有领域。以权利义务配置为规范方式的法律不足以直接形成对这些领域的规制,只有标准可以解决这些科学技术问题〔2〕。因此,针对技术性较强的内容,其是否会带来风险,本身即需要制定相应的标准并由专业人员进行评估,不应该就此对个人信息主体设置额外的学习负担。

有学者将算法解释分为模型中心解释(modelcentric explanations,MCEs)及主体中心解释两种(subject-centric explanations,SCEs)。后者对于个人信息主体的权利救济更有意义。但是即使主体能够理解算法的原理,算法解释对作为普通消费者的信息主体之助益也极为有限,能否显著提高主体理解决策过程的能力还有待观察。在机器学习的过程中,评估其是否在特定的任务中有所改进,是通过选定的绩效标准来衡量。这意味着评估算法模型不是通过考量其内部结构而是使用性能指标来检查其外部行为。主体中心解释往往为事后解释,理论上来说这种解释本身仅限于一组数据或其相关的部分,而不涉及完整的复杂模型。但是鉴于技术性原因,主体中心解释并不适合应对程序规则问题,他们仅能体现用户与决策主体的某种关联,从这种意义上来说模型解释的意义要大于主体中心解释〔3〕。暂且不论在不同模型中解释的难易程度不同,对算法赋予广泛解释权本身的合理性就值得质疑。

2.事后解释不存在合理性基础。对算法解释的合理性争议还存在于信息处理者介入的时间,即应当仅仅设置在处理个人信息之前,还是在信息主体已经获得处理结果之后也需进行。有学者认为事后通过解释结果可以补足行为指引的信息〔4〕。但是从逻辑上来说,提供指引信息与解释结果分属于不同事项,无需捆绑进行。而行为指引若能以适当方式在信息处理过程中及自动化决策结果出现之前作出,对于信息主体的权利保护更为有效,不必再费周章转而求诸于对处理结果的解释。因此,此理由并不能作为事后算法解释合理性的论证依据。

另外,学者也指出算法解释是基于人的自治性需求,这是因为在算法面前人只是单纯的被动接受者,因此赋予事后算法解释权是对这种场景下自治能力的补足〔5〕。实际上,事后的算法解释无法直接补益人的自治能力,中间存在逻辑断层。在合同法中,当事人双方对格式条款的理解产生争议时,引入不利于格式條款提供方的解释方式来平衡双方利益。而算法解释本属于当事人单方解释,无从期待其提供不利于自己的解释方式。事后的算法解释,从理论上来说是将人工智能载体的硬件、软件和数据处理之间的相互作用如何导致自动化决策之间因果关系阐明的解释。有学者甚至认为“如果别有用心,解释和说理的方式将完全取决于拟实现的经济或政治目标”〔6〕,期待提供者的解释来补益另一方当事人自治能力的愿望必然落空。自治的核心在于提供参与的自由选择权,而非赋权信息主体要求对方对不利后果进行解释。

除此之外,更多对事后算法解释的合理性分析建立在双方不平等地位之上。对于当事人之间地位不平等的论述,散见于消费者权利保护、劳动法等领域。一般而言,对于不平等地位的纠正手段主要为事前的充分告知和事后不利结果的排除(如无理由退货制度),以及依据所造成损害要求对方承担侵权责任的民事救济路径。经营者对使用格式条款的说明义务虽然是应消费者的要求被个别履行的,但仅为对相关内容的具体澄清,仍然属于事前告知义务的范畴。有鉴于此,目前制度框架内的事前告知义务及事后的不利结果排除及损害赔偿责任足以救济处于不平等地位之下当事人的权益,无需再额外设置事后算法解释权。

事后算法解释的合法性基础也不断受到质疑。欧洲联盟出台的《通用数据保护条例》(GDPR)鉴于条款第71条提出的解释权不应当与规定内的其他条款具有相同的强制性约束力,即此时鉴于条款71条所规定的需对自动化处理进行解释的透明度要求与条例中规定的透明度要求相比应当在程度上明显弱化。故而GDPR本身并未规定明确的“事后”算法解释义务,鉴于条款的效力仅作为对条例规则的解释,不能视为规则本身,更不可为主体创设额外的义务。从这个意义上来说,GDPR并没有所谓的事后“算法解释权”,而只有有限的知情权〔7〕。也有学者指出,算法的事后解释权可以从GDPR的第15条第1款h项推导而出〔8〕,但是并未提出具有说服力的扩张解释依据。更有学者断言GDPR初稿中22条并没有关于算法解释权的内容,而鉴于条款71条的加入属于存有争议的权宜之计,不应当从其中“应该”的用语去过度解读该条款本身的含义〔8〕。对于GDPR中事后算法解释的立法认识差异,至少说明学界对其设立的合理性存在不同看法。至于GDPR是否真正欲确立事后的算法解释,还有待在后续立法中澄清。

3.人工干预使得算法责任透明。人工干预的加入与事后需解释的原理会产生直接冲突。GDPR第22条对于自动化决策的规制基于“完全的”(sole‐ly)自动化决策,如有人工干预手段介入则并非立法规制的目标。这是因为人工干预手段本身有助于消弭算法带来的负面影响。事后算法解释的一个重要支持理由即是因为自动化决策手段的“黑箱”效果。此种效果正是由于大数据时代的相关性关系所致,规律本身也难以从因果关系来解释。正是因为对于算法结果的不可预知和不可控,才可能存在上文所述引入额外解释的余地,否则如同其他人工介入的场景一样并无适用特殊事后解释的理论空间。实际上,生活中大量涉及算法应用的场景都存在人工干预,算法往往仅作为决策支持的要素之一。随着人工干预的引入,行为人能通过其行为对算法结果施加有效的影响,此时就斩断了算法与不利结果的因果关系链条,使得介入者成为新的责任主体,因而不存在算法解释的空间。要求对已引入人工干预的算法进行解释显然对GDPR上的相关规制适用范围进行了不当扩张。

4.法益冲突导致的适用局限性。立法者在制定任何一部法律时都应当考虑利益之间的顺序,妥当确定各种利益的优先顺位,探求法律的“优先价值”。因此,在出现可能的利益冲突时,需要综合利益的位阶及“实践调和原则”,在具体的案件情形下谨慎地处理,尽可能使得不同利益都能够得到实现〔9〕。个人信息主体的知情权是基于其人格利益的权益,但是该权益的实现在一定程度上也需让位于法律规定的其他重要利益以实现社会秩序稳定的效果。

个人信息同时具有个人属性和公共属性,单纯地强调某一属性均无法凸显个人信息的本质特征,故而在立法上应适当舒缓个人信息保护及利用之间的张力,不宜在模糊、笼统的个人信息之上设定一项具有绝对性和排他性的“个人信息权”〔10〕。正是存在这种对公共利益的维护需求,使得立法者在制定相关政策时不应当想当然地偏向一方主体,而是应当在具体场景中对于相关利益进行权衡。有鉴于此,学者也提出算法公开应当根据不同情形采取不同范围不同程度的公开建议:当公权力主体使用算法进行决策或辅助决策,而公开算法又不存在侵犯知识产权与算计算法问题时,决策主体应当尽量采取普通人可理解的方式公开与解释算法;对于纯粹商业性的非垄断机构所使用的算法,算法公开一般不应当成为强制要求〔11〕。公权力主体的主动公开行为不涉及强制的算法解释,理论上也可以事前告知的方式作出,而商业机构的算法由于其存在一定的经营性正当利益,此时要求以解释的方式公开,会直接产生对竞争秩序的扰乱,而引入各种“搭便车”行为,故而不宜倡导。简单复制行政法上的正当程序要求,作出对于当事人不利的后果需要说明理由,在此不存在现实基础。私人决策与公共决策问责机制不同,政府决策往往应当被默认具有透明度,而私人决策由于掺杂着商业秘密或其他人的合法权益等因素而无法被要求与公共决策维持相同的透明度,因为此举会直接或间接有害于市场竞争秩序。还有学者指出,算法解释应当对独立的第三方机构作出,由具备技术能力且不存在利益冲突的第三方机构负责在人工智能部署前及运行过程中实施审核,开发者或权利人仅在必要范围内向审核主体公开算法技术细节〔12〕。此种方式也能有效避免相应的利益冲突。但是第三方机构在事前、事中的审核已经不属于信息主体的救济路径,而是倚仗的行政规制手段,此时的算法解释义务实际上是信息控制者对相关机关的信息报送义务,甚至是在行政执法程序中基于行政调查权进行的。数据报送应当符合目的正当、适合、必要性及均衡性原则。数据报送义务的对象是政府,报送目的一般并不是直接为了保护平台用户的权益,而是为了协助政府更好地实现公共职能,因此在额外为企业设定算法报送义务时也应当考虑到如何实现多元利益的均衡〔13〕。

从实践来看,个人信息主体往往出于几种目的行使其访问权。第一,通过访问个人信息明确其个人信息完整、正确。如个人信息处理者收集的信息不完整、不正确,个人信息主体的人格及财产权益有可能因此受到不当影响。在此场景下,为维护个人信息主体的人格权,有必要赋予其访问权。第二,为了了解自己的个人信息被信息处理者所掌握的真实情况,以便决策是否行使删除权。退出和表达是规范机构组织的两种机制。在表达受限的个人信息处理流程中,个人信息主体维护自身权益的重要手段即是退出并行使删除权。第三,个人信息主体可以通过行使访问权对个人信息处理者实施监督。在自动化决策的场景下,個人信息主体对数据画像的逻辑及有意义信息的知情,能起到对信息处理者滥用信息优势作出对信息主体不利决策的抑制作用。此外,信息主体还可能基于其他目的而访问自己的个人信息,最典型的是为保留证据或为获取除个人信息外的其他信息两种情形。此时,就需要引入必要的审查机制并对其访问行为作出限制。例如,信息主体要求行使复制权调取拷贝翻拍监控视频图像,但是因部分信息可能含有他人的个人信息,不宜向个人信息主体提供完整副本。复制权更强调对数据信息载体原本的形式不加编辑地完整或部分获取,此时宜基于对公共利益的保护对主体知情权加以限制〔14〕。

(二)“事后解释”救济效果的有限性

欧盟语境下的个人信息保护措施基于个人权利,而这种个人权利的保护模式本身来自于人权的范式,因而算法往往以系统对群体进行分类或污名化的方式导致直接损害〔3〕。但是,实验证明即使是训练模型时不采取信息主体的敏感信息,得出的结论依然有可能保留偏见,甚至加深偏见。造成这种结果的原因有两个:一是因为无法准确确定哪些属于敏感性信息;二是因为敏感性信息本身与非敏感性信息存在某种联系。从这个角度来说,算法只是从技术上以某种特定联系将人群予以区分,污名化群体本身的症结在于社会本身。

而偏见带来的问题最后直指分配的公平性。例如,依据求职者简历中曾经的求职成功率来判断是否赋予其职务,本质上就是对偏见的加强。另外,除了对于个体的偏见,算法可能因分组的方式介入多个信息主体的隐私而产生大数据杀熟的不公正待遇。如果无法获得实质公平或救济,透明的权利并不具有现实意义。由于透明度要求从立法上为主体提供一种查看、理解及介入复杂系统的渠道,无意义的透明反而会无谓地增加更多的社会成本。

算法解释作为事后赋予个人信息主体请求权的救济方式,具有离散性特点,在治理效率、行业发展、集体行动和公共利益保护等层面存在局限,无法对算法系统有效问责,且偏误纠正能力有限〔15〕。从这个意义上来说,私法上的分散性救济措施,针对需要以损害赔偿方式进行救济的实际损害最为有效。当然受侵害方不易识别或者人数众多时,还需引入公益诉讼等手段来实现最终的保障效果〔16〕。

采取解释的方式救济过于迂回,不能对个人信息主體产生直接的救济效果。算法问责一直是算法治理的核心内容〔17〕。但是何谓“可问责”,还需要在技术及举证责任分配两个层面上理清。要明确“风险”性质以判断其是否可避免,再考察“风险”是否源于信息处理者的过失。由于无法预测智能算法的运行过程及结果,人工智能应用所存在的风险同样也难以准确被评估和量化。判断风险是否可以避免是纯粹的技术问题,事后的规制模式不仅仅桎梏于算法解释,还有审计、验证、测试等更有技术含量及实效的手段予以检验〔18〕。个人信息侵权归责的困难源于自动化技术的广泛采用,信息处理的过程难以预料,从而导致当事人之间的举证和诉讼能力存在差别。通过对自动化处理实施的个人信息侵权采取过错推定责任,对于信息处理者的过失需自行举证以减轻信息主体的举证责任〔19〕。此时,信息处理者的举证过程即可以满足对算法说明的解释。有学者认为事后的算法解释权可以让数据主体对特定决策的运行逻辑清晰知晓,为其提出异议获得救济提供重要基础〔15〕。但是,实际上对特定决策的运行不存在过错正是信息处理者的举证责任,只要其存在非法处理个人信息的行为或者没有尽到法律规定的个人信息保护义务,此种处理行为的违法性或者未尽到个人信息保护义务本身就足以认定个人信息处理者具有过错,除非其能够证明自己的处理行为不属于违法处理行为或已经尽到个人信息保护义务,从而推翻对其过错的推定〔20〕。信息主体无需也不可能完全掌控决策的运行逻辑,否则立法上就不会选择将证明责任配置给另一方。诉讼的前提是存在损害,当信息主体并不存在损害时提前要求信息处理者承担举证责任,在理论上没有支撑,会无端加重一方的责任。信息主体的权利往往与信息处理者的义务相对应。信息处理者的过失责任如果缺乏事先明确规定的义务,则无法由此推断其因不履行相应义务而产生责任。因此,无论是从社会成本的角度还是从责任分配的角度,将说明义务配置给信息处理者都不具有合理性。

2021年网信办发布的《互联网信息服务算法推荐管理规定(征求意见稿)》(以下简称《算法推荐规定》)中似乎出现了另一种对于个人信息主体的权利救济路径,即在自动化决策可以更改的指标中,让用户更改标签以解决大数据杀熟等问题。实际上在用户参与时只能对有限的内容进行更改,并非全部。例如,在计价模型中的参数中,用户能主动修改的仅仅为偏好信息,不能更改计价的基础事实信息。且不论部分标签不宜采取以主体直接介入的方式进行更改,同时以此方式来影响算法的最终结果有可能影响到系统内其他运行结果的展示,从而直接影响到体系内的公平性。《个人信息保护法》规定,公益诉讼要满足“违法处理个人信息”与侵害“众多个人权益”的要件。在算法推荐服务中,个人信息处理者需向个人信息主体告知的用户标签专属于该用户,知情权被侵害的内容具有特定性,即使存在众多知情权被侵害的主体,也需要进行权益内容的逐一认定,无法简单抽象成“众多个人权益”;个人信息处理者不履行告知义务的行为是否属于“违法处理个人信息”,在法益衡量上也存在认定困难。故虽然可以通过公益诉讼的方式达成,但是实际履行的社会成本过高。

另外,对于因算法产生的不利结果提出异议也无需以算法解释为基础。删除权及事后反对权对于个人信息主体的救济效果更为直接。斩断结果的不利性影响需从否定自动化处理的结果效力角度着手,一旦某一主体遭受一次算法歧视,则在相关甚或不相关的领域也可能屡受不公待遇,产生歧视锁定和数字污名效应〔21〕。扩张对算法告知义务的保护,使其延伸到事后的算法解释对于信息主体的救济毫无助益,同时会提升社会总成本。因此,对信息处理者额外设置此权利对于整体社会发展而言可谓得不偿失。

二、“事前告知”义务的设定及其合理性证成

对于算法治理而言,其事前告知内容的设定具有重要意义。《算法推荐规定》要求算法服务提供者履行特殊的告知义务,以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图、运行机制等。有学者认为算法解释中涵盖部分告知义务。算法决策分为两个阶段:第一阶段为算法模型的建模阶段,第二阶段则是将算法模型运用于特定主体,并在此基础上形成自动化算法决策。对第一阶段的解释被称为以算法系统功能为中心的解释权,主要由特定算法模型的开发者聚焦于对特定算法模型系统功能的解释说明〔22〕。实际上,以算法系统功能为中心的解释权也属于事前的算法告知义务,即在主体的信息进入到系统之前,提供的关于算法的一般系统功能,包括决策逻辑、重要性及预期结果的信息〔7〕。

笔者认为,《个人信息保护法》和《消费者权益保护法》已经通过知情权的方式给予要求个人信息处理者给予个人信息主体充分和必要的告知,这种告知是在提供产品或服务前的“事前告知义务”。对于产品或服务的算法,算法提供者履行事前告知义务的周延性已足,无需在知情权体系中再赋予个人信息主体事后的算法解释权。《个人信息保护法》对于自动化决策条款并未规定个人信息主体有权要求算法服务提供者在事后对算法予以解释,事前告知义务的目的是为了让个人信息主体是否接受信息处理的流程作基本的风险判断,通过此种方式即可消解个人信息主体对算法技术的安全性担忧,事后的算法解释既不可行也无必要。

(一)《个人信息保护法》中的自动化决策规制

《个人信息保护法》第24条规定个人信息处理者应对个人权益有重大影响的决策加以解释说明,以及个人信息主体有权拒绝仅通过自动化决策的方式作出决定。将本条与第48条“个人有权要求个人信息处理者对其个人信息处理规则进行解释说明”进行结合,可以看出无论是在表述上还是立法意图上,《个人信息保护法》并未规定个人信息主体有权在事后要求个人信息处理者解释其算法机理。

从表述上看,第48条针对一般情形的个人信息处理规则解释说明权与第24条针对自动化决策情形的重大影响解释说明权均指向产品或服务提供前。根据合法合理以及透明度的要求,个人信息处理者需在处理信息之前就向个人信息主体告知处理规则,若规则变更要重新告知,否则不得处理个人信息。同样,在自动化决策过程中,针对用户的算法模型就是个人信息的“处理规则”,除非個人信息处理者在信息处理过程中更改已经完成并投入运行的算法模型,需要重新告知个人信息主体,一般情况下仅在事前负有告知义务。此外,第24条第3款规定拒绝权面向“自动化决策”而非“自动化决策的结果”,也表明个人信息主体的行权时机并非面向事后阶段〔21〕。

从立法意图看,法律规范只能在源头要求个人信息处理者对算法提供充分的说明,而算法的运行自有其机理,法律无意将手再伸到事后去规制。算法服务均以自动化的机器学习的方式提供,不同参数和场景的相互作用可能会产生因人而异的结果,而这些可能的结果实际上都包含在事前的告知中。事前的算法告知义务如同药品附带的说明书,说明书中会描述药品的成分、性状、作用类别、用法用量以及可能出现的不良反应,药商对可以告知的事项作了充分的说明后,患者可以选择是否使用该药。至于此药品是否对症于特定主体,以及患者发生了什么样的不良反应,并不在事前告知义务的辐射范围。进一步说,就算患者使用此药发生了说明书外的不良反应,药商也无义务公开药品成分的具体用量和配比。个人信息处理者事前的算法告知义务足以充分保障个人信息主体的知情权。对算法的目的意图、基本原理和运行机制的告知包含了算法运营中可能会涉及的各种参数,可以帮助个人信息主体作出是否使用此算法服务的决策,也使算法脱离“黑箱”之诟病。

(二)“重大影响”内容的解释说明

《个人信息保护法》第24条规定通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明。但对何为“重大影响”,法律并未明确。GDPR关于自动化个人决策和画像的指南中明确对个人造成的严重后果包括仅基于自动化处理的决策会影响个人的合法权利,或自动化决策会产生取消合同的法律效果。实际上,这些对个人产生重大影响决定的告知义务已经在《消费者权益保护法》中的经营者告知义务得到体现,此种事前说明足以覆盖保护个人信息主体的知情权。

《消费者权益保护法》第24条规定,经营者在经营活动中使用格式条款的,应当以显著方式提请消费者注意与其有重大利害关系的内容,并按照消费者的要求予以说明。个人信息处理者提供的算法推荐服务满足“重复使用”“预先拟定”以及“未与对方协商”的要件,应受到格式条款的规制。根据《民法典》的规定,对格式条款效力的审查规范在合同开始履行前,如果格式条款使用方没有按照合理的方式进行提示说明,相应条款就不能成为合同的组成部分。因此,从以上规定来看个人信息处理者的算法告知义务均是针对产品或服务提供前对主体施加的义务。

(三)事前告知义务是知情权体系的层次性体现

个人信息主体的知情权体系由个人信息处理者的告知义务与个人信息主体的访问权构成。在具体运行机制上,由于触发权利义务的时间节点和处理场景不同,告知义务与访问权会存在时间点上、特殊程序上以及内容范围上的差异〔14〕,由此,个人信息主体的知情权在不同阶段也体现着不同的层次性。这种层次性由不同的信息密度决定,而信息密度最终的设定由个人信息主体知情权的规制目的决定。对于算法推荐服务,赋予个人信息主体知情权的目的主要是让个人信息主体决定是否使用其服务,以及判断是否可以承受算法服务可能造成的风险。就此目的来看,仅通过个人信息处理者在事前对算法机理的说明即可实现。

从实践效果来看,普及化的前期算法告知义务在很大程度上能缓解因信息不对称而引起的非理性恐慌情绪。这种恐慌情绪之下,信息主体成了“算法的奴隶”,而社会也因此变成了“黑箱社会”。〔1〕191-193帮助信息主体了解算法,应当从教育学的模型解释方式入手,而不应以尝试分解算法内部结构的方式进行〔3〕。从个人信息主体的知情权维护效果而言,有诸多企业已经开始进行算法告知的尝试。有的企业将外卖配送的“预估到达时间”的算法规则以图文并茂的方式予以公开。具体而言,其公布的内容包括不同预估模型所参考的数据类型的未穷尽性列举。这些列举中,本身含有确定的变量及相对不确定的变量,例如,商家出餐时间属于确定变量,而恶劣天气则属于相对不确定变量。有的数据信息本身仍然需要其他组别的数据共同支持,例如配送难度、防疫要求等。另外,还提供了人工干预的方式在特定情况下的时间补充。实际上,此种公开行为并未涉及全部的考量因素及权重,但是已经达到一定的社会效果。足以见得对于算法的恐惧,很大一部分源自于对技术的陌生及对其极度刚性的秩序调整手段边界无从把控的焦虑情绪。

三、算法治理的中国道路探索

算法的事后解释存在技术限制、法益冲突及缺乏合法性基础等问题,另外其对信息主体的救济效果十分有限。从这个意义上来说,规制的思路不是去不断地疏通通向司法程序的渠道,而是思考在何种程度上合理构建知情权体系并设定可行的信息控制者的告知义务,同时辅之以其他配套手段并行实现算法治理的目标。

(一)引入主体的事后反对权机制是算法治理的重要环节

我国《个人信息保护法》规定,个人信息主体有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。此种个人信息主体免受自动化约束的权利可以分为两个层次,第一层是信息主体事前的拒绝被处理权,第二层是信息主体的事后反对权。事后反对权并不禁止完全自动化决策及用户画像的存在和展开,但赋予数据主体反对其作出后受到约束和影响的权利。这种设定实际上选取了“禁令路径”与“积极权利路径”的中间道路,既能较好地保护数据主体不因怠于行使权利或者精力不足而受到算法滋扰,又能给产业发展预留一定的合理空间〔21〕。从救济的效果而言,事后反对权比事后的算法解释更为直接显效,同时产生与其他主体合法权益的冲突可能性更小。由于事后反对权不涉及算法公开,便没有侵害他人商业秘密及知识产权的顾虑,仅需要由信息主体向信息控制者单独主张,因此事后反对权与删除权的结合能较好地保护主体的权益。

(二)引入内部算法评估制度,从合规角度来加强对人工智能领域的风险控制也逐渐成为重要手段

算法影响评估源于隐私影响评估,是一种基于设计的安全保障措施,能够及时发现风险并予以处理,尽可能避免或者减少风险的发生〔23〕。欧盟于2021年4月制定的人工智能法案(草案)即提出:开发高风险人工智能系统,需要进行内部事前人工智能影响评估。算法影响评估能在损害发生前对其是否应当被适用施加影响,本质上是一种广泛的预防措施,通过对治理结构与内控机制的持续影响和深刻改变,逐渐取代了公司法与企业治理在企业行为控制及监督上的功能与作用,而且重塑了企业犯罪的规范表达与规制进路〔24〕。因此,算法影响评估制度的建立无论对于企业还是信息主体都是有益的制度探索。

(三)建立健全评估我国的数据安全认证制度是更具有可行性的算法治理路径

我国的数据认证是由独立的第三方机构为认证主体,受企业委托而为的,以国家推荐性标准或行业标准等官方规范为认证依据的,企业自愿接受严于基本安全评估要求①从而提高其认可度〔25〕,作为一种激励机制的高标准认证。一方面,认证以基于一定标准的评估为手段,以认证机构为具体落实该制度的核心,以相应的监管程序与法律责任为实施的保障。因此,从理论上来说,只需合理制定认证标准,设立相应的认证评估机构规范执行对企业的认证评估,并建立健全对企业及认证机构的监管制度及法律规范,即可有效发挥以认证实现监管的效果。另一方面,我国已经具备个人信息保护认证的实践土壤。《个人信息保护法》已经要求推进个人信息保护认证服务,在国家互联网信息办公室、工业和信息化部、公安部、市场监管总局四部门联合开展App违法违规收集使用与个人信息专项治理行动中,也明确鼓励App运营者自愿通过App个人信息安全认证,且鼓励搜索引擎、应用商店等明确标识并优先推荐通过认证的App②,并制定了《移动互联网应用程序(App)安全认证实施规则》作为认证依据,指定中国网络安全审查技术与认证中心(CCRC)为从事App安全认证的认证机构。认证制度的引入对于算法治理具有重要的意义。欧盟《人工智能法案(草案)》第49条即明确了对CE合规认证标志的要求。企业如需适用高风险的AI系统,则需要在明显、清晰及不可磨灭的位置粘贴CE标志,此即为对人工智能安全认证。

综上可见,相比于事后的算法解釋私人赋权制度,事前的内部化算法影响评估与外部算法安全认证及主体的事后反对权更有利于建立一个完善健康具有可持续性的制度体系。

我国个人信息保护体系之下,并不存在事后的算法解释权,这与我国个人信息主体的决定权之设定价值相符。事前的算法告知义务能合理平衡个人信息主体与公共利益之间的复杂关系,能促进“有意义的透明度”之提升。对于算法可能造成的损害提供更为直接且明确的救济途径是我国算法治理的核心要义。因此,重新审视算法带来的风险与救济的关系,在此基础上加强对事后反对权的制度构建,同时推动认证制度的不断革新是我国算法治理的必由之路。

注释:

①例如,《个人信息保护法》规定处理敏感信息、利用个人信息进行自动化决策、向境外提供个人信息等活动时所必须进行的安全评估或个人信息保护影响评估。而本文所讨论的认证评估是在此基础上,要求更为苛刻的甚至具有“示范性”的评估。

②参见《中央网信办、工业和信息化部、公安部、市场监管总局关于开展App违法违规收集使用与个人信息专项治理的公告》。

参考文献:

〔1〕Frank P. The Black Box Society〔M〕. Cambridge:Har‐vard University Press,2015.

〔2〕柳经纬.标准与法律的融合〔J〕.政法论坛,2016(06):18-29.

〔3〕Lilian Edwards,MichaelVeale. Slave to the Algo‐rithm?Why a ’Right to an Explanation’ Is Probably Not the Remedy You Are Looking For〔J〕. Duke Law & Technology Re‐view,2017(18):18-84.

〔4〕张凌寒.商业自动化决策算法解释权的功能定位与实现路径〔J〕.江苏大学学报(哲学社会科学版),2020(02):51-60.

〔5〕朱俊.论大数据时代的算法解释请求权〔J〕.宁夏社会科学,2021(04):105-113.

〔6〕唐林垚.“脱离算法自动化决策权”的虚幻承诺〔J〕.东方法学,2020(06):18-33.

〔7〕Sandra Wachter,Brent Mittelstadt,LucianoFloridi. Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation〔J〕. In‐ternational Data Privacy Law,2017(02):76-99.

〔8〕解正山.算法决策规制——以算法“解释权”为中心〔J〕.现代法学,2020(01):179-193.

〔9〕王利明.民法上的利益位阶及其考量〔J〕.法学家,2014(01):79-90.

〔10〕郑晓剑.个人信息的民法定位及保护模式〔J〕.法学,2021(03):116-130.

〔11〕丁晓东.论算法的法律规制〔J〕.中国社会科学,2020(12):138-159.

〔12〕李成.人工智能歧视的法律治理〔J〕.中国法学,2021(02):127-147.

〔13〕刘权.论网络平台的数据报送义务〔J〕.当代法学,2019(05):3-12.

〔14〕万方.算法告知义务在知情权体系中的适用〔J〕.政法论坛,2021(06):84-95.

〔15〕张欣.算法解释权与算法治理路径研究〔J〕.中外法學,2019(06):1425-1445.

〔16〕张新宝,赖成宇.个人信息保护公益诉讼制度的理解与适用〔J〕.国家检察官学院学报,2021(05):55-74.

〔17〕许可,朱悦.算法解释权:科技与法律的双重视角〔J〕.苏州大学学报(哲学社会科学版),2020(02):61-69.

〔18〕沈伟伟.个人信息匿名化的迷思——以《个人信息保护法(草案)》匿名化除外条款为例〔J〕.上海政法学院学报(法治论丛),2021(05):110-121.

〔19〕陈吉栋.个人信息的侵权救济〔J〕.交大法学,2019(04):40-53.

〔20〕程啸.侵害个人信息权益的侵权责任〔J〕.中国法律评论,2021(05):59-69.

〔21〕张欣.免受自动化决策约束权的制度逻辑与本土构建〔J〕.华东政法大学学报,2021(05):27-40.

〔22〕张恩典.大数据时代的算法解释权:背景、逻辑与构造〔J〕.法学论坛,2019(04):152-160.

〔23〕刘云.论可解释的人工智能之制度构建〔J〕.江汉论坛,2020(12):113-119.

〔24〕万方.合规计划作为预防性法律规则的规制逻辑与实践进路〔J〕.政法论坛,2021(06):123-135.

〔25〕Dennis D. Hirsch. Going Dutch?Collaborative Dutch Privacy Regulation and The Lessons It Holds For U.S. Privacy Law〔J〕. Michigan State Law Review,2013(01):83-162.

责任编辑杨在平

猜你喜欢

知情权算法
国际主流轧差算法介绍:以CHIPS的BRA算法为例
如何行使股东权利——知情权
Travellng thg World Full—time for Rree
学习算法的“三种境界”
算法框图的补全
算法初步知识盘点
从可拓视角建构人事档案信用体系的影响因素
黑名单公示制度的实证研究
论视频侦查的应用与完善
比比谁的算法妙