APP下载

主体性与秩序正义:行政治理中情感计算的伦理反思与超越

2024-03-20朱雯熙李亭慧

人文杂志 2024年2期
关键词:公平正义

朱雯熙 李亭慧

关键词:行政治理 情感计算 公共伦理 公平正义

一、引言

人工情感技术属于信息技术的前沿分支范畴,它的产生源于情感电脑对于人类感性情绪的计算,因此可以将其视为“情感计算”的自然延伸。①作为一个快速兴起的交叉学科,情感计算致力于以信息科学手段识别、理解、模仿、拓展人类情感,最终实现自然化、拟人化、人格化的“人一机”情感交互的目的。然而,技术创新具有“双重性”特征,即在升级社会生产方式、催生社会新样态的同时,也会对数据安全、人的主体地位、人的思维能力造成安全风险和伦理挑战。技术赋能视域下的情感计算能够为人工智能决策提供优化路径,以情感变量的输入帮助机器作出更为人性化、更为合理的决策。但是,情感计算在生理信号的采集和通用性程度、情感标注的准确性、用户隐私数据、情感信息捕获技术等方面仍然存在问题与挑战。目前,学界对于情感计算在应用过程中可能产生风险已经取得了共识。例如,褚婧一认为情感计算可能会由于对情感信息的不当获取与利用而引发情感操纵等隐私风险;②王禄生认为无论是从法律、伦理还是技术层面,情感计算的应用都会引发相应的风险①等等。但是,就情感计算在某一具体领域的应用可能产生的风险而言,学界目前的探讨主要集中在教育学领域。例如,龚善要认为情感计算在教育学领域的适用可能会诱发技术风险、引发人格权与受教育权的保护危机、弱化教育场景中“人”的主体地位;②蒋艳双等学者也指出,情感计算在教育中的应用会存在教师的技术依赖以及智能体的情感欺骗等问题。③总体来看,学界对于情感计算在行政治理领域的应用所展开的专门探讨在目前仍然较少。然而,鉴于情感计算在教育培训、医疗健康、商业服务等领域的应用所呈现的技术优势,情感计算运用于行政治理领域也成为趋势所在。在此背景下,如何预防和规制情感计算在行政治理领域可能引发的风险,就成了发挥情感计算在行政治理领域的技术优势、提高行政治理效能的必要之举。鉴于情感计算与伦理道德风险的关联性以及行政治理的公共性,④本文将从公共伦理的角度对行政治理中情感计算的风险以及可能的规制路径予以探讨。

二、技术绑定:行政治理中情感计算的应用模式

情感计算作为一门复合型学科,涉及计算机科学、脑科学以及社会科学等多学科领域的内容。目前情感计算的主流应用有两类:一是情感计算的结果作用于被识别者本人,二是情感计算的结果作用于被识别者之外的第三人。前者典型的例子是在医疗领域,通过改变病人的情感状态治疗疾病。后者则主要通过提供情感数据分析以提高人类决策的准确性和有效性,因此被广泛运用于各类决策辅助领域。⑤基于后一特性,情感计算可以嵌入行政活动之中,辅助行政治理。若要厘清情感计算在行政治理中的运行机制和潜在风险,还必须从情感计算的技术逻辑缘起进行研究,找到情感计算的本质特征,为发现并解决其潜在的应用风险做好充分准备。

1.技术基础:情感计算的基本逻辑

一般认为,情感计算的概念缘起于罗莎琳德·皮卡德(Rosalind Picard) 1997年出版的专著《情感计算》。在该书中,皮卡德将情感计算解释为“与情绪或其他情感现象有关的、产生于或意图影响情绪和其他情感现象的计算”。⑥情感计算依托于人工智能、大数据等信息技术,主要通过感知、识别、模拟、影响⑦等环节对人类情感产生作用。首先,在情感计算算法运行的前端路径中,感知人类情感是基础。情感感知可以通过接触手段和非接触手段实现:前者依赖于接触式的传感器直接感知人类情感,诸如血压仪、脉搏检测仪等;后者通过非接触式的远程技术间接感知人类情感,诸如摄像头、麦克风等。借助于上述技术手段,情感计算对人类的语音、姿势、表情、状态等情绪进行充分的感知与收集,形成了情感识别的基础数据库。其次,在情感计算运行的中端路径中,识别与理解是情感计算的核心环节。在情感识别过程中,依托于先前的感知数据库,算法设计会对信息数据库进行全面快速分析并提取出关键特征点,以人工介入的方式为上述关键特征标注情感标签。当上述过程累积到一定程度时,即存在足够数量的情感标签时,人工智能就会通过数据分析和总结生成识别模型。情感计算系统在经过反复模拟训练的基础上,寻找与主体情感信息特征相契合的关键点自动生成情感计算模型,并借助上述模型模拟主体的情感过程。最后,在情感计算的输出路径中,情感影响与拓展是情感计算的终端环节。在完成上述感知、识别、模拟环节后,情感计算系统通过实时记录主体的情感变化,根据已有模型和情感数据信息分析主体的情感状态,作出情感反馈,从而在人机交互的呈现中满足主体要求,拓展和影响人类情感。概言之,情感计算的算法设计出发点在于通过感知、识别、模拟、影响等环节对人类情感产生作用,其最终导向是使人工智能理解人类情感,具备情感智能,为强人工智能时代的到来打下坚实基础。

2.管中窥豹:情感计算在行政治理中的应用场景

情感计算在应用的对象与内容上都是以“人”为中心的,突出对人内在情绪的感知、识别与干预,与人格尊严具有最为密切的联系。最终输出的结果会影响自我与他人的情感状态。①那么在行政治理中,情感计算到底是如何来感知、识别、模拟以及影响人类情感的呢?这就需要对情感计算在行政治理中具体的应用场景进行观察。概言之,目前情感计算在行政治理中主要被运用于以下具体领域:

第一,将情感计算应用于海关检查中。检查人员可以根据情感计算来判断入境人员的情绪状态,发现其是否存在欺骗行为。人类的情绪变化通常会伴随着生理信号的变化,用于情感计算的生理信号主要包括脑电、眼動、肌动、皮肤电、心电和呼吸等。②在一些国家,入境检查会通过扫描入境人员的瞳孔或面部表情来识别其是否撒谎。

第二,将情感计算应用于舆情信息管理中。公职人员可以根据对程序的设定,通过情感计算的分析,精确地对舆情进行监测。文本数据通常是指使用文字或符号来描述一件事情所形成的数据,是人的语言表达的文字体现。文本情感计算在舆情分析方面有着重要的研究与应用价值,是获取评价、观点检索、网络舆情检查、信息预测的重要技术支撑。其中主要包括文本数据预处理、情感对象识别、情感信息分类、情感推理等。③而且,文本情感计算还可以通过对文本情感的分析来处理信息的非结构化内容。这可以大大减少舆情对社会造成的动荡与风险,保证社会的持续稳定发展。

第三,将情感计算运用到交通管理之中。大量的研究表明,在解决某些实际问题时,人类只靠理性分析和决策并不会得到最优解。但如果在决策过程中加入人的生理反应(如情感),这有可能帮助人类得到更优的决策结果,“flow交通”就是一种可以解决交通问题的多智体控制系统。④将情感计算应用于交通之中,真实地模拟情绪对出行者的影响,提高交通管制的及时性和准确性,有利于改善交通的拥堵情况,提高交通安全保障。

三、风险识别:行政治理应用情感计算之伦理批判

1.去主体化:人格尊严被情感计算消弭

当下的行政治理都在强调作出治理行为时主体之间展开合作,柔性执法,将人的尊严放在第一位是行政治理的原则。但情感计算的应用将打破将人的尊严置于第一这一原则。

首先,维护人格尊严是人开展主体行为的基本出发点,而情感计算由于缺乏真实感情的投入在运用中容易将人当作手段。一方面,情感本就是人类独有的一种高级心理现象,情感计算无法将情感与人自身、人的需求结合。情感计算根据自身的逻辑往往会对情感进行不当截取而导致人的情感脱离自我控制而处于“离身”状态,⑤不与具体个人产生关联,而仅仅是作为技术发展的手段和原则,这使人无法从情感计算中得到足够的尊重。另一方面,在情感计算中,即使是人与人之间的情感交流也难以得到尊重。人基于生理本性通过身体在场进行情感交流,而情感计算则宣告人与人的交流脱离人的生理本性。在情感计算的技术目标设定中,未来的终极形态是无身体的交流。但目前身体的不可复制性使具身情感具有唯一性,而基于情感计算的可复制性以及程序性产生的离身情感并不具有唯一性,而仅是程式化产物。正是人类的生理特性,才能让人性变得如此独特,因此人性需要得到尊重,而不应仅仅被当作手段。脱离了人类的生理特性,也就失去了人性的独特,情感计算让我们无法确认对方是否具有真正的情感以及进行了真正的情感交流,对人性目的具有一定的崩壞作用。

其次,人的道德地位需要被尊重,人的特性不应被具体的事物所界定,而情感计算正是将人的感情以具体的规则进行分类,不能保证人的道德地位被尊重。从情感计算的理论特性来看,情感计算的运用以人类设定的情感建模为基础,而情感建模就是根据设定者给予的具体数值而对人的情感状态进行可能性推测,但感性的情感是无法通过理性的数字具体概括的。情感计算得以成立和运用的前提是承认情感可以被具体数值予以描述,这就意味着,在情感计算的程序中,人的情感可以成为计算模型中的信号。情感计算的目的就是根据计算与作为本体的人达成等价交换。基于人的情感认知特性,人的尊严是道德事业中最应当被重视的部分,但情感计算只想用具体的数字去概述人的情感,就注定忽视人的道德地位。从情感计算的内部特性来看,情感计算根据具体的数值将不可定义且独特的人类进行分类,根据性别、种族、肤色以及年龄等物理特点打上固定标签,根据人们的受欢迎程度,作出不同的评价。根据物理特性对人进行分类评价是对人最不尊重的行为,是对人的尊严的贬低,因为它忽视了每一个人独特的情感需求以及人的尊严要求的道德地位。

最后,即便基于个人同意也并不意味着情感计算不会危害人的尊严。如前所述,情感计算主流应用有两类:一是应用于被识别者本人,二是应用于被识别者之外的第三人。不能简单地将被识别者与情感计算达成合意作为证明情感计算或其他应用没有危害人的尊严的证据。①情感计算背后的数据主体享有自主决定数据使用的权利,不能仅以使用者个人对目前所使用的程序的意见来证明程序没有损害人的尊严。人性要求人不能把自己当作一个手段实现别的目的,所以要特别注意自主权在什么样的背景和前提下行使,是否符合人的尊严的原理要求,权利的行使要以维护人的尊严为目的,换言之,自主权的实际行使方式并不一定与人的尊严要求完全符合。另外,根据现实中的真实情况,个人很难完整理解相关合同的具体条款,甚至并不清楚自己允诺了合同中哪些权利授予,这就说明,自主权在实际运用中也受到一定限制。

2.去秩序化:公平正义被情感计算抛弃

情感计算应用的伦理冲突不仅局限于对个人尊严的贬低,还有害于社会的公平正义。一方面,情感计算在各种行政治理中加深应用,会扩大算法歧视的范围。人的情感通道有很多种,包括人脸表情、语音信号、肢体行为等。情感计算在自然情感判断中,以面部表情为主要依据,而这样的情感计算非常容易犯错误,因为目前大多数人脸表情识别并不完善,缺乏严格的规制,也易被人为地种族歧视和性别歧视干扰。②目前的情感计算所依据的数据基础并不具有代表性,且相关算法不够独立和中立。情感计算不但技术上不成熟,还可能存在算法歧视扩大化风险。若政府等公权力机关直接将情感计算应用于日常的行政治理(如行政决策以及部分案件处理),而忽视情感计算可能存在的算法问题或人为操纵的风险,就会导致损害社会公平正义后果的发生。①情感计算已经在案件侦查、部分行政决策、交通等领域获得了应用,但根据情感计算的特性,其在商业、教育、娱乐、医疗健康甚至是文史等领域都具有应用前景,甚至更有扩展加深的可能性。②情感计算在行政治理的加深应用,也会使算法带来的歧视加深。政府等公权力机关面向国计民生,在实施具体的行政行为时要接触具体的行政相对人,若是实施的具体行政行为带有歧视,将造成深刻的影响。如果公职人员在进行行政决策时过度依赖情感计算,以情感计算来判断当事人的实际情况,若损害了公民的合法权益,公民也很难得到合理救济,如此就会损害政府的公信力。需要指出的是,情感计算的应用导致的伦理冲突已经对社会的公平正义造成了影响,若是在行政治理中加深应用,更会强化这种恶劣影响。而算法本身的隐患很难排除,隐性歧视会一直伴随算法的输出扩散,若不能科学地加以规制,那最终的后果定是对人性的异化。

另一方面,情感计算与行政公正原则存在冲突。行政公正原则是行政法的基本原则之一,它要求行政行为应当具有正当性、衡平性和说理性。③其中说理性指行政治理遵循着理由思维,即用事实与规范的理由来证成某个结果,这一过程属于法律论证的范畴。④然而,情感计算存在算法的不透明,若将行政治理中的某些过程变成代码计算,用计算思维取代理由论证思维,将会与行政公正原则发生冲突。⑤行政公正原则不仅要求结果公正,而且要求程序正义,后者甚至比前者更为重要。而情感计算则将程序置于“黑箱”之中,直接根据算法得出结果,这显然无法证明其过程的正义性。而相关数据能否构成行政治理,在规范的维度上也难以自圆其说。公众可能会认为行政治理沦为某种意义上的数值计算,从该算法中所得出的结果可能会侵害公平正义。⑥除此之外,算法的不确定性也会产生一定的伦理风险。首先,情感计算的算法不确定性不仅是技术问题,还有情感本身的问题。情感发生机制也存在不确定性,学界没有关于情感的概念与发生机理的共识。⑦近代以来,情感作为哲学上的重要概念,洛克、亚当·斯密、休谟、康德等哲学家都以大篇幅进行阐述,⑧但哲学家们并没有对情感的含义进行明确厘定,情感这一概念仍然是模糊的。除了概念的模糊之外,其他学科诸如计算机科学、脑科学、认知科学、心理学等,也没有给出一套统一的情感发生机制。情感始终保留着其内隐的个体经验特征,这导致在人脑的组织结构、激素分泌状态、行为表现和情感之间难以建立统一的、有说服力的情感模型。情感计算相较于理性计算更加不确定,理性计算有一些可被接受的原则(诸如利益最大化、帕累托累积等),而情感则不容易被准确把握,且高度依赖于情感的认识。⑨其次,情感计算的算法具有不确定性。情感计算的算法是一种技术设计,服务于技术目标,且面向未来。⑩情感计算具有多学科交融的特点,技术结构复杂和不稳定,使得公众难以对情感计算技术形成准确的认识。⑩而且,情感计算由一元模态走向多元模态,也给其实践应用带来了巨大的不确定性。①再次,情感计算的使用具有不确定性。情感计算适用于不同的人机和生活关系,相关算法并不遵循统一的技术标准,实现情感计算的方法各有不同,可能会导致技术功能发挥的不确定性,引发技术风险。②并且情感计算中尚未形成统一明确的科技术语,导致其输出结果存在一定的模糊性。最后,从情感计算的技术逻辑来看,情感赋予和交互环境下的机器离身情感都存在不确定性。情感计算会根据个体差异以及个人对情感的控制,呈现出不确定性。③

四、风险规制:行政治理中情感计算之规范方案

情感计算在行政治理上有两种治理方式:一是法律调整方式,二是非法律调整方式。法律调整方式相对于非法律调整方式的优点在于,法律能够以权威的方式安排相关主体的法律权利和法律义务,从而建立起行为规范。④在法律调整过程中,为了维护人的尊严,应当确立知情同意原则的优先地位;为了维护社会公平正义,应当贯彻算法中立原理和公正原则,进而按照比例原则进行风险规制。

1.人本关怀:知情同意原则的优先地位

自康德以来,人的尊严已成为现代文明的价值基石。情感计算或一切社会工作的人工智能化都存在一个隐患——将人类作为手段而不是目的,⑤这违背了康德所提倡的“以人作为目的”之要求。⑥为避免情感计算对人尊严的侵害,需要在基本价值上重申人的尊严的绝对不可侵犯性。除此之外,还要在法律上作出相应的制度安排。情感计算技术的快速发展需要以海量个人数据信息为支撑,这意味着人们更多的个人数据,包括高度敏感性的个人数据,将被机器广泛捕捉。因此,个人数据隐私安全的保护可以被视为在法律层面维护人的尊严的具体体现。而构建知情同意原则就是保障个人隐私安全、主体性和自由得以实现的关键。

(1)既有的知情同意模式及其缺陷

从目前来看,知情同意原则的构建存在两种模式:一种是欧盟的特别知情同意模式,另一种是中国的概括知情同意模式。欧盟较早出台了以知情同意为原则的《通用数据保护条例》(General DataProtection Regulation)。该條例基于“人的尊严”这一价值信条构建了知情同意规则。根据该条例,个人资料是指可以确定或识别自然人的一切信息,包括自然人的姓名、身份证号码、位置数据、身体因素等,情感数据和信息当然也属于个人资料的范畴。就同意的方式而言,必须基于当事人的自愿和充分知悉后明示同意,同一事项或其他事项必须明确地标示。在诉讼中,数据控制者负有举证同意的生效条件之义务。⑦情感数据主体的同意仅仅是一次性的同意,并非持续性的授权。同意必须基于自愿,要求合同目的与同意事项符合比例;此外,不允许当事人自治的事项还包括司法审判、社会保障、无害处理行为和公共利益等,同意的事项没有规定兜底条款。欧盟知情同意规制模式的实质是“原则一例外”模式,属于特别同意模式,即个人同意的事项范围是有限的,法律事先对个人能够同意的事项作出了规制,法律优先于意思自治。①

根据我国《个人信息保护法》的有关规定,情感计算收集和处理个人隐私信息的合法性前提是获得数据权利人的同意,而知情又构成了同意的前提。这就是个人信息保护中的知情同意规则。具体来说,《个人信息保护法》强调收集处理信息的行为必须获得数据权利人的充分同意,一旦处理目的、方式和种类发生变化,那么需要权利人在充分知情的基础上重新作出同意表示。这表明,知情同意原则既需要数据处理主体在法律规范的框架内合法处理个人数据,也需要数据权利主体充分意识到自身的数据隐私权利。②尽管我国个人信息保护中的知情同意充分贯彻了自决权的正当理念,为维护个人尊严构建了规则的屏障,但是这种意义上的知情同意并不能对个人隐私乃至个人尊严起到实质性的保护作用。一方面,我国《个人信息保护法》的知情同意模式是一种静态的、一次性的完全同意,对于隐私信息的种类、敏感程度和授权范围等事项并没有进行严格限定,数据权利人或者完全同意,或者完全不同意,这种概括同意模式无疑给数据权利人的选择造成了障碍。另一方面,《个人信息保护法》设置了处理个人数据的法律兜底条款,这表明情感计算处理个人信息可能存在基于国家或公共利益而无须获得权利人知情同意的情形。这无疑大大压缩了数据权利人的权利空间。

但是,上述两种模式都存在一定的不足。首先,面对情感计算收集和处理个人隐私信息的行为,数据权利人可能会有意或无意地忽略数据处理主体提供的隐私政策,在没有充分阅读了解情感计算处理个人数据的范围、目的和方式等问题的前提下草率运用自身的知情同意权。其次,受制于个人文化程度与知识水平,数据权利人无法充分理解情感计算数据处理主体提供的隐私政策,或者就算理解也无法作出符合自身利益的正确选择。最后,数据权利人在正常情况下能够充分知情并理解情感计算的隐私政策,但由于各种因素的影响最终也会扭曲自己的选择。③总之,情感计算的变革发展必须要尽可能地简化数据权利人数据信息的授权方式,但既有的知情同意模式无法实质性保护数据权利人的自主性。

(2)动态同意模式的提出

鉴于既有知情同意原则存在的缺陷,动态同意模式被学界提出,并迅速成为个人信息知情同意机制的共识性基础。概括同意模式的“全有或全无”结构催生了动态同意模式的建立。一方面,随着数字技术对社会生活的全方位重塑,个人信息的应用场景正在发生剧烈变化,传统前端的、静态的知情同意框架已不足以应对严峻的风险挑战。④另一方面,知情同意过程既是一个数据处理主体向数据权利主体解释和说明的过程,也是一个双方互动交流的过程,数据处理主体单方面提供信息说明或者数据权利主体被动接受,都不能获得有效的知情同意。⑤因此,从静态化的特别知情同意模式和概括的知情同意模式转向动态化的同意模式就变得极为必要。

动态同意模式既适应了情感计算技术发展需求,强化了个人信息的保护程度。其核心在于维护数据权利人的自主性价值,同时提升个人信息安全的保护水平和有效促进数据处理或利用,在具体场景、信息分类、风险评估、分层同意、持续披露、动态同意等机制上完善灵活的制度体系,允许有条件的“宽泛同意”并赋予自然人“退出权”,这与既有的同意模式有着极大的不同。①具体而言,第一,动态同意将数据权利主体置于核心地位,数据权利主体可以基于个人实际情况选择是否授权情感计算处理个人隐私信息。在动态同意模式建构的情感计算数据处理交互过程中,数据权利人知情同意的有效性被大幅提升。第二,动态同意会更为清晰明确地向数据权利人提供个人信息使用的目的、方式和范围,通过公布情感计算数据的具体用途和场景,数据权利人的知情权将被更为有效地保障。第三,动态同意赋予数据权利人分层同意和同意撤回权,进一步维护了数据权利人的自主性。一方面,数据权利人可以根据情感计算处理数据的不同阶段、不同场景来决定是否同意对其隐私数据的使用,改变既有同意模式中“一次性同意”的僵化机制;另一方面,数据权利人也可以基于实际情形的变化撤回对其数据处理的同意,从而确保自身的正当权益不被侵犯。第四,动态同意更贴合数字技术跃迁式发展的现实,可为情感计算技术的革新提供灵活发展的空间,进一步提升数据收集和处理的效率。尽管动态同意模式也面临着主体反复给予或撤回同意所导致的资源浪费和成本增加的风险,但其仍然是替代既有同意模式的合理选择。②

2.现代正义:比例原则的应用与调和

在算法行政中嵌人情感计算技术,可能存在侵害公平正义的风险,对此需要从行政法治基本原则的视角来寻求解决之道。公正原则是情感计算风险规制的核心原则,也是行政治理的目的。在公正原则的支撑下,比例原则成为防范情感计算风险的基础原则。由于比例原则实质上就是正义的内在要求,③因此如何构建符合比例的情感计算风险规制的法律体系就成为亟须思考的问题。对此,可以从情感计算在算法行政中运用而产生的风险等级出发,动态式地判断风险规制的内容。具言之,首先要明确算法行政運用情感计算对于数据权利人的尊严自由和社会公正能够产生多大程度的影响,并将其具象化为高、中、低三个层级。其次,基于三种层级的风险,按照相应的比例来建构清晰的风险规制方案,其中高风险的规制方案应当被极度重视。最后,基于比例原则,将各层级的风险与风险规制方案一一对应——不可接受的风险对应完全禁止规制模式,完全可接受风险对应完全容许规制模式,高风险对应高强度规制,中风险对应中等强度规制,低风险对应低强度规制。

(1)极端风险情形下情感计算的比例原则审查

情感计算存在着不可被法治所接受的严重风险和完全可接受的风险这两种极端情形。在存在严重风险的情况下,应用情感计算将直接有损人的尊严与公正原则,有悖于目的正当性原则。例如,未纳入法治轨道的情感计算应用将会左右相对人的个人情绪及其观点,这是对人之为人尊严的否定;④再如,通过利用特定范围内人的性格特征一致性达到非法目的。诚如亚里士多德所言,情感具备激励和劝阻的功能,修辞术即借助情感作用来使听众保持特定的心理状态。⑤行政治理领域的情感计算,如果向工具化与修辞术的方向深入发展,那么行政治理将无法承担此结果。为防止这种严重风险的发生,最理性的选择是明确禁止。而相应的是完全可接受的风险。此种情形下的情感计算被良好应用,能够根据不同情景因地制宜地采取不同策略模拟并影响个人情绪。由此,情感计算技术及其系统在行政法治框架之内达成了其既定的技术目标,既能够对人的尊严进行有效维护,也与行政法的公正原则相契合。

(2)高风险情形下的比例原则审查

在行政治理中,高风险情感计算将会严重侵害包括平等享受公共服务、保障诉讼权利等在内的公民基本权利。在高风险的情感计算活动中,基本权利是否存在、基本权利的实现方式与实现程度将在很大程度上由情感计算来直接决定,那么必然会损害行政法的公正原则。高风险情感计算的场景可能存在于以下三个领域当中:首先是刑事侦查领域,刑侦、公安等部门在情感计算技术的支持下可以深度参与犯罪嫌疑人的供述过程;其次是公共教育领域,实现规模化与个性化的有机结合已经成为《中国教育现代化2035》的主要任务,而情感计算技术可能会直接通过数据测量和生理反馈等途径影响个人的受教育权;再如公共服务领域,情感计算技术将会决定个人能否享有公租房、电力、电信等基础性公共服务。①情感计算作为新型科学技术具有天然不确定性,将会使技术与法律对公民基本权利产生深度影响,从而可能直接侵犯个人尊严和公平正义的价值观,这也就意味着对高风险情感计算必须完全禁止。只有在符合公共利益,严格依照法定程序对损害基本权利的行为进行补偿和全流程监管的前提下,情感计算方能应用在涉及公民基本权利的事项之中。

(3)中风险情形下的比例原则审查

中风险情感计算意味着情感计算可能对个人权利造成中度影响,不会产生实质影响。不过,情感计算作为先进技术的内在逻辑及其具有天然的不确定性因素,使得应用情感计算必然会对个人权利产生影响,甚至可能对部分个人权利产生实质影响与风险。仍以情感计算技术在教育领域的应用为例,在线学习中情感计算技术的广泛应用,使得人工智能能够随时、随地、随需地对学习者的教育评价和成长产生影响。如果不能充分考虑学习者的个体差异并提供多样化、个性化的在线情感服务,②虽然可能并不会剥夺公民个人的受教育权,但仍然会对公民的受教育权产生负面影响。③对于中风险的情感计算,需要秉持慎重监管的原则,既不能完全禁止,亦不可完全放开。对此,欧盟《人工智能责任指令(提案)》是较为前沿和完整的制度规则,此规则为人工智能制定了一个可信框架,允许个人对人工智能技术的“错误行为”造成的损害提出索赔,这一制度可成为情感计算的规制借鉴,主要体现在以下七个层面:第一是分类规则层面,需要出台界定何为中风险情感计算的分类规则,综合评价应用情感计算的目的、程度、不利影响可能、人员状态、危害结果是否可逆等多重考量因素。第二是细化准则层面,通过建立风险管理系统,识别和预见中风险情感计算可能引发的风险,并确立完善的风险告知程序。第三是数据治理层面,数据是情感计算系统赖以运转与计算的基础。需确保情感计算系统所处理数据的质量、测试程度、可验证性等因素,建立完善的数据治理体系与管理规范,尤其应当注重数据采集、处理、评估和歧视审查等环节。第四是记录保存层面,为提升情感计算的可验证性与可追责性,应要求情感计算系统能够自动记录所预见的风险事件,提升全生命周期之下情感计算系统的功能可追溯性。第五是算法规则层面,需要对情感计算系统赖以运行的算法透明度与可解释性作出较高要求,使得情感计算在系统设计、开发运行等方面呈现出高透明度。与此同时,还应当列明系统提供者的联系方式、系统功能与局限、预期实现目的等。第六是监督管理层面,对情感计算系统设计过程进行有效监督,最大限度地降低对个人基本权利、个人尊严等事项的侵害风险。这种监督应当贯穿系统设计时、系统投入使用时以及投入使用后的全过程中。第七是责任救济层面,应尽量减轻情感计算等人工智能系统造成的损害,为个人提供全周期、全流程的保护框架。

(4)低风险情形下的比例原则审查

低风险情感计算通常意味着其在行政治理中是轻度影响甚至不影响个人权利。例如,为辨识和打击恐怖主义而进行的网络舆情管理,为优化公共区域人流车流而进行的人车识别,这些往往不涉及单独个体权利被侵害的情形,不会对社会公平正义造成较大损害。相应地,低风险情感计算需要配以轻度的规制要求,应当以“透明度”作为情感计算算法设计与系统信息披露的基本要求,情感计算服务提供者应尽到对使用者进行提示的基本义务。①

综合来看,为避免情感计算系统在行政治理中所带来的公平正义侵害风险,应以比例原则作为调节情感计算系统活动的根本价值准则。通过比例原则进行情感计算的风险规制,不仅符合正义的朴素理念,还能有效地解决算法行政中运用情感计算所带来的问题。对于情感计算所带来问题的系统治理,根本出路是建立以公正为目的、以风险控制为基础的规制体系。因此,上述对风险从高到低的类型化分析是基础,宜在此基础上按照对基本权利限制的法理等原理,对情感计算系统展开全流程的规制。

五、结语

情感计算通过特定情感信号和特定情感状态之间的映射关系建立情感模型,其本质是对人类情感状态的识别、感知、模拟与影响.以达成让机器理解人类感情、具备喜怒哀乐并模拟人类情绪的技术目标。学界对情感计算在教育培训、医疗健康、商业服务等领域的应用所呈现的技术优势已经达成共识,情感计算运用于行政治理领域也成为趋势所在。然而,情感计算在行政治理中会产生诸如侵害人格尊严、有损社会公正等公共伦理风险。因此预防和规制情感计算在行政治理领域可能引发的风险便显得尤为重要。为应对这种情感计算的现实风险,需要将知情同意原则置于法律上建构规则的优先地位,使得同意作为个人让渡权利和自由的前提与基础。而在此基础之上,欧盟和我国的两种知情同意模式是两个理想范例,但欧盟的特别知情同意模式和中国的概括知情同意模式均陷于同意模式的困境。在欧盟的特别知情同意模式下,个人同意的事项范围是有限的,法律事先对个人能够同意的事项作出了规制,法律优先于意思自治。在中国的概括知情同意模式下,隐私信息的种类、敏感程度和授权范围等事项并没有受到严格限定,另外,情感计算在处理个人信息时还可能存在基于国家或公共利益而无须获得权利人知情同意的情形,这压缩了数据权利人的权利空间。对此,宜将动态同意模式作为保障情感计算在行政治理中维护个人尊严、保障社会公正的具体路径。此外,还应当以公平正义为目的、以风险控制为基础来系统构建情感计算的规制体系,对情感计算系统进行全流程规制。

猜你喜欢

公平正义
统一赔偿标准促进公平正义
审判执行不停摆 公平正义不止步
选任好人民陪审员 让群众感受更多公平正义
坚持公平正义 增强裁判效果
让公平正义在“最后一公里”提速
司改正向着维护社会公平正义方向前行
论自由人联合体与公平正义
沧县人民法院:坚持司法为民保障公平正义
关爱弱势群体 维护公平正义
勇立改革潮头 促进公平正义