APP下载

人脸识别准入规则的失灵风险与制度重构

2021-12-28

关键词:人脸人脸识别个人信息

王 旭

(北京大学 法学院,北京 100871)

近年来,人脸识别应用日益泛化,模糊了公共性与私人性的界限,我国“人脸识别第一案”等社会热点事件反映出民众对科技异化的担忧。2020年的一项调查显示,64.39%的受访者认为人脸识别技术有被滥用的趋势。[1]人脸识别的准入规则是规制的起点,对民众的权益保护至关重要。当前的准入规则主要是以知情同意规则为核心,辅之以特定情形下的权利克减规则。目前,不少学者主张以强化知情同意规则作为法律对策(1)如郭春镇教授主张“建构兼容‘知情同意’框架的制度体系方式”、邢会强教授主张“对于人脸信息的采集应坚持更强的知情同意原则”、赵精武博士主张“在《民法典》既有体例下重新解释‘知情同意’”、林凌教授等主张“个人信息自决原则”等建议都是在接受传统模式中知情同意规则的基础上给出的建议。参见文献[2]~[5]。,实际上仍然是对原有框架的小修小补,未能看到现有规则的失灵风险。

一、现行人脸识别准入规则的失灵风险

(一)易被规避的知情同意规则

知情同意规则已被个人信息保护立法普遍接受,甚至被称为新的“帝王条款”。[6]对于人脸信息,主流立法亦以知情同意作为基本的合法性基础。(1)在个人信息保护法领域,欧盟GDPR第9条第2款(a)项、《巴西通用数据保护法》(LGPD)第11条第1款、印度《2018年个人数据保护法案(草案)》(PDPB)第18条第1款、《中华人民共和国民法典》(以下简称《民法典》)第1035条第1项都对人脸信息的知情同意规则进行了确认和强化;(2)在专门的生物信息法领域,2008年伊利诺伊州颁布的《生物信息隐私法》(BIPA)、2009年德克萨斯州颁布的生物隐私法案、2017年华盛顿州颁布的生物隐私法案以及美国参议院《2020年国家生物信息隐私法案》均将同意作为人脸识别准入的一般要求。

知情同意的理想图景是:每个人都能够在充分了解授权他人使用个人信息的目的和风险之后,以其充分的理性和能动性去自由地选择是否同意。然而,在信息社会中,这种要求对自然人实属苛刻。在人脸识别场合,信息收集更加悄无声息,完全无须个人配合,使得知情同意这个“帝王条款”像个傀儡皇帝,常常以各种方式被架空。

1.诱导获取的同意

在线上场景,当处理者通过计算机软件、手机App、网页等客户端,或者自动售货机、自助服务终端等人机交互方式索取授权时,会以亮色/特殊颜色显示、默认选项、反复弹窗、使用即视为同意、文字说服等方式诱导用户点击“同意”。这些做法实际上会使得个人难以做出真实的意思表示。实验表明,深色模式(dark pattern)选项对于促使用户选择对公司有利的条款非常有效。[7]默认选项会造成默认效应,即人们决策时倾向于保留默认选项而不做出改变的现象[8]。这意味着用户更容易点击默认选项而交出人脸识别信息。反复弹窗则是以“温水煮青蛙”的方式消除用户的警惕性,也会增加用户误操作的概率。在“使用即视为同意”的方式中,隐私政策等协议往往并不直接显示,而是需要另行点击查看,操作成本的增加会促使一部分用户直接点击“同意”。文字说服则会利用用户心理及信息不对称,诱使用户忽视安全问题,例如有网站要求用户“弹出来的一切东西都点允许,要不然后期有很多麻烦,这些允许的东西不用担心安全问题,只是以后相关功能会用到”[9]。

线下场景的诱导则更为直接,不少管理、安保人员在言辞中经常会忽视对人脸识别风险的揭示,而片面强调其便捷(2)“杭州野生动物世界工作人员表示,从10月17日起,陆陆续续已经有年卡用户来录人脸识别了。有个别的用户不理解,便将人脸识别能快速通行的好处告知,他们也都同意了。”参见文献[10]。或安全(具体话术常借助威权式表达,却并不实质论证安全如何实现(3)“某推行智慧门禁系统的小区物业管理人员对记者表示:‘这是街道办推动安装的,不是针对个别小区,非常安全。’不过,对于收集到的信息怎么保管、怎么保证合理使用,物业公司方面并没有给出明确回应。”参见文献[11]。)。与线上场景相比,线下的言辞说服同时伴随着表情、声调、肢体语言等方面的表达,也可能出现“多对一”的说服,会对个体造成更大的压力。

2.不明后果的同意

在线上场景,不明后果的同意与告知不充分、难理解、成本高有关。线上隐私政策往往冗长繁杂、文义不清晰、授权目的不明确,还会通过合同方式将最终解释权赋予处理者。与其说是为了开诚布公,不如说是为了避免合规风险。在擅长法律文字游戏的强大公司法务面前,信息主体难以迅速捕捉到有效信息。“同意”不过是机械的手指动作,难谓真实的意思表示。有研究估计,在美国每年每人平均要花201小时阅读各色冗长的隐私政策。[12]种种时间成本、能力和信息上的不对称使得丹尼尔·斯洛夫教授感慨:“人们并不会阅读隐私政策;就算阅读了,他们也不理解;就算阅读并理解了,他们也缺乏足够的背景知识去做出知情后的选择。”[13]

线上人脸识别隐私政策的显示方式也五花八门,有些会针对刷脸事项单独制定,且会在开通刷脸功能时一并显示隐私政策(4)例如,支付宝App在开通刷脸支付功能的页面上单独显示《生物识别服务通用规则》,京东App在开通“手机刷脸支付”前会单独显示《京东人脸支付服务协议》。查询时间:2021年8月3日。;有些则将人脸识别事项夹杂在整体的隐私政策之中,在开通刷脸功能时并不会单独提示,这显然增加了阅读成本。甚至有些调用相机权限的App会在用户尚未阅读隐私政策之前,就申请获取终端权限。[14]

此外,隐私政策对于授权后果的披露也不甚明晰。有调研指出,部分手机品牌在服务协议中并未披露人脸信息的存储方式,部分App并未明确人脸信息的使用范围、保护方式、存储方式。[15]截至2020年2月,“App个人信息举报”平台收到的与人脸识别相关举报信息有500余条,涉及50余款App,其中举报内容为“未清晰说明收集使用人脸信息的规则”占比约90%。[16]

在线下场景,充分的告知则更加可遇而不可求。部分小区、高校、企业引入刷脸机制的方式为微信群内或内部网站通知,抑或由门卫、保安、宿管、前台等基层管理服务人员口头告知。这样的通知方式注定无法清晰完整地揭示选择刷脸的后果。即使有人询问刷脸的后果,这些负责传达的基层管理服务者也并没有意愿和能力给出一个负责任而周全的回复。

3.别无选择的同意

在线上场景,有研究已经指出,面对网络服务提供商,个人信息主体实质上缺乏做出同意的选择自由。[17]因为各类软件、App都要求用户必须提交个人信息,否则将不能使用其产品或服务。在人脸识别领域,这种情形依然存在。2020年,App专项治理工作组披露,部分App在提现身份核验、社区门禁解锁、高校监督课堂行为等环节,将人脸识别列为“必选项”。[17]某粉丝追星社区App需要强制进行实名认证和人脸识别,否则无法正常使用[18]。

在线下场景,越来越多的公共场所引入人脸识别,并将其作为唯一的认证方式。在“人脸识别第一案”中,杭州某动物园向当事人发送短信“园区年卡系统已升级为人脸识别入园,原指纹识别已取消,未注册人脸识别的用户将无法正常入园”[10]。许多小区物业也“突然变成刷脸才能进小区”,尽管住户内心深处未必愿意,但为了回家不得不录入人脸信息。[11]许多高校在新生入学时亦要求采集面部信息,“刷脸迎新”一时风头无两(5)例如:北京理工大学在2020年迎新时要求“新生持身份证和录取通知书,人脸识别通过后,领取一卡通”,参见文献[19];上海交通大学在2020年迎新时亦在新闻稿中载明,“本次采用的‘新生线上核验’,为结合‘人脸识别’技术与‘活体验证’技术的‘实人认证’方式”, 参见文献[20]。。即使懵懂的新生偶有疑问,也不得不服从学校的安排,否则只能选择再过一次高考的独木桥。快递代收点也要求人脸拍照留证,否则不得取件。[21]甚至就连公共厕所取厕纸,都要求人脸识别。[22]

与线上相比,这种情况在线下带来的危害则更为严重。尽管互联网平台企业因其交叉网络外部性更容易形成寡头型的市场结构,但至少很多领域目前仍是自由竞争,在没有横向垄断协议或市场习惯的情况下,人们可较为容易地寻找替代性的供应商。比较理性的个人还会因隐私问题放弃使用网络产品,例如艾媒咨询2020年调研显示,有30.3%的受访网民会因拒绝应用强迫调用权限而放弃使用该App。[23]而线下的许多场所具有不可替代性,其组织结构与运营方式也更为多样,甚至不纯粹追求营利,人们难以通过“用脚投票”的方式迫使其改变行为模式。此外,由于线下场景未必会以公开系统方式进行交互,也难以接受监管。

4.从未做出的同意

与指纹、DNA等生物识别数据不同,人脸信息天然的公开性使得其收集和处理完全可以脱离信息主体的掌控,甚至可以在个人毫不知情的情况下发生。

在线上场景,信息处理者完全能够利用相机权限远程捕获人脸信息。《2020年中国手机APP隐私权限测评报告》显示,97%的App会默认调用相机权限,在移动社交类App中这一比例达到100%。[24]由于信息和技术不对称,信息主体对App在获取相机权限后会做什么几乎一无所知。现行手机授权机制往往只需单次授权就可永久获得相机权限,这进一步增加了非法获取人脸信息的隐忧。事实上,App逾矩并非无稽之谈,民众对“App窃听”的恐惧就曾引发社会热点,而现有技术完全可以让App在未经授权的情况下进行窃听。[24]2020年,在旧金山的一起集体诉讼中,原告指控Facebook在打开应用程序的同时未经其同意即访问了Instagram用户的智能手机摄像头,以便监控原告对广告的实时反应。[25]

在线下场景,未经授权的人脸信息处理更为泛滥。许多处理者根本不会设置一个单独的人脸录入程序,甚至也不追求形式上的授权同意,而是直接对人脸识别信息进行采集,或者对已经掌握的人脸信息进行处理。这种径行采集处理的行为多发生于典型的权力不对称的组织体内,学校、公司、小区物业乃是重灾区。曾有报道称,某小区出现了住户虽不知情但可直接刷脸开启单元门的现象,据该住户回忆,可能是在去居委会办理门禁卡时被摄像头采集了面部信息。[26]北京某高校在试运行“刷脸入校”闸机时宣布:“为了减少对广大师生的干扰,目前‘刷脸入校’系统使用的初始照片是师生员工的校园卡照片。”[27]这种以“减少干扰”为名的人脸信息使用,实际上已经改变了个人信息主体提交给信息处理者时的用途,而这并未经过个人信息主体的同意。

线下人脸识别设备的广泛部署也使得许多组织体之外的陌生人面部形象正在被采集。有些闸机过于敏感,路过时就会触发机器的人脸识别功能,而开发者为了为客户提供更好的安全方案,往往会将识别不通过的人脸图像也一并存储(6)例如,有公司在其“小区人像综合管理系统”方案中介绍,会“对进出大门和单元门的所有人员人像抓拍、实时比对和定期保存”。 参见文献[28]。,以便客户识别潜在的入侵者。这种设置会使得一些路人在并不知情时就被采集和存储了人脸信息。除闸机外,日益泛滥的高清网络摄像头也正在与人脸识别技术结合,让陌生人的人脸信息在不知不觉中就被获取和处理。旷视科技于2017年推出的智能人像抓拍机MegEye-C3S便将“支持全画幅的人脸检测”作为重要技术突破加以宣传,“这意味着即使某人在视频边缘一闪而过,C3S也将会把他(她)的面容记录在案”。[29]获取和处理更多的陌生人人脸信息,或许有助于客户的安防需求,但这正在以牺牲公共场所的个人信息保护作为代价。

(二)含糊不明的权利克减规则

为了平衡各方利益,个人信息保护法案几乎都载有权利克减规则,我国的法律文本亦是如此。然而,我国现有的权利克减规则存在着诸多文义含混之处,使随意扩张解释成为可能。《民法典》体系内的人格权一般规定、肖像权规则和个人信息保护规则彼此间已有相互龃龉,而2021年8月20日通过的《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)与《民法典》间又有许多措辞不一之处,更是加剧了这种混乱。这将使得限制技术扩张的目标无法达成,甚至会为人脸信息处理者绕过知情同意原则提供便捷条件。

1.文义含混冲突创设了随意解释的空间

首先,我国现有的法律豁免规则存在冲突。《民法典》的肖像权规则与个人信息保护规则均对有权设置例外规则的法律位阶层级提出了要求,但两者存有差别。在肖像权场合,《民法典》第1019条第1款末段规定“法律另有规定的除外”;在个人信息场合,《民法典》第1035条第1款第1项则将克减的权力授予“法律、行政法规”,《个人信息保护法》第13条第7项也将豁免同意的权力交给“法律、行政法规”。但是,人脸信息同时触及肖像权、个人信息两种规则,究竟何为一般法、何为特殊法,应当如何适用?倘若在人脸信息的场合以保护程度更高的肖像权规则为准,那么其他敏感个人信息由于没有特别规定,可能仍然要适用《民法典》第1035条、《个人信息保护法》第13条第7项等保护程度较低的规范,同为敏感个人信息,为何要厚此薄彼呢?

其次,我国现有的合理使用规则不甚清晰。《民法典》第999条、第1020条和第1036条分别针对一般情形、肖像权和个人信息规定了若干种合理使用行为,但各处规定有所差异,《个人信息保护法》采取的措辞又不尽相同,这将导致法律适用上的难题。以下试举两例说明。

(1)对于新闻报道和舆论监督,《民法典》第999条前段的表述为“为公共利益实施新闻报道、舆论监督等行为”,而第1020条第2项则仅列举了“为实施新闻报道”且要求“不可避免地制作、使用、公开肖像权人的肖像”,并未列举“舆论监督”。《个人信息保护法》第13条第(五)项则规定为“为公共利益实施新闻报道、舆论监督等行为,在合理的范围内处理个人信息”,将合理使用的要求从“不可避免”降格为“合理的范围”。三种不同的表述将导致如下理解歧义:是否存在不为公共利益所实施的新闻报道行为?舆论监督行为是否可以豁免?人脸信息的处理前提是“不可避免”还是“合理的范围”?

(2)对于公开的人脸信息,《民法典》第1020条第1项将使用肖像的目的限制为“个人学习、艺术欣赏、课堂教学或者科学研究”,且要“在必要范围内使用”;第1036条第2项规定该信息须为该自然人自行公开或“合法公开”,还要求自然人未明确拒绝处理,且对人脸信息的处理并未侵害其重大利益。《个人信息保护法》第13条第(六)项的表述是“依照本法规定在合理的范围内处理个人自行公开或者其他已经合法公开的个人信息”。由此引发解释上的歧义:使用人脸信息的前提究竟是按照肖像权规则列举的事项还是“自行公开或合法公开”?处理的限度究竟是“必要范围”还是“合理范围”?人脸信息主体是否有权拒绝此种处理?

2.适格行为人、规则解释权阙如导致乱象丛生

权利克减条件涉及大量自由裁量的内容,而现有规则并未明确解释权的归属,甚至没有明确适格的行为人,这将使得日常生活中任何想要收集人脸信息的主体都能以合理使用规则为借口,让人脸识别大行其道。例如,《民法典》第1020条规定的五项合理使用规则,仅有第三项规定了行为主体是负有法定职责的国家机关,其他四项的适格行为人是谁尚不得而知。《民法典》第1036条后两项规定的合理使用行为,亦未规定谁是从事合理利用行为的适格主体。这种对适格行为人、适格解释权人的规定阙如,又为《个人信息保护法》所继承。例如,《个人信息保护法》第13条第2~6项完全没有对适格行为人、适格解释权人进行任何规定,即使是专门规定“在公共场所安装图像采集、个人身份识别设备”的第26条,也完全没有说明谁有资格在公共场所“维护公共安全”。由此,也不难理解,为何许多小区、高校、公司等主体,既无法律明确授权,亦未经过个人同意,也未经过任何公示程序,就以防疫、公共安全等为名随意设置人脸识别。

二、人脸识别准入规则失灵的深层原因

(一)对人脸识别实施效果的误判

传统的准入控制模式之所以在人脸识别领域折戟沉沙,一个重要原因是对人脸识别技术的效用与风险缺乏足够的认知,导致准入规则门户大开。

1.人脸识别的效用被高估

其一,更加安全?

由于人脸信息具有独特性和不可更改性,人脸识别认证被认为比传统的密码、手势等认证方式更具安全性,因而人脸识别经常被用于远程考试、在线支付、门禁、考勤等涉及身份确认的场合。然而,这种判断未必可靠。

一方面,人脸识别技术本身总存在局限性,算法可能会被攻击行为所欺骗,从而导致认证机制失效。近年来,人脸识别被破解的新闻层出不穷。2017年,央视“3.15”晚会曝光了某软件存在的人脸识别验证漏洞。[30]2019年,智能快递柜“刷脸取件”功能被小学生拿着打印照片破解。[31]2021年,RealAI团队在测试中用照片破解了19款手机的人脸识别解锁功能。[32]有论文对试图欺骗人脸识别系统的对抗性攻击生成方法进行了总结,具体包括:(1)基于卷积神经网络模型的攻击,包括基于图像处理的攻击(例如在面部图像上随机增加噪点或黑色线条),以及基于学习的攻击(例如基于算法标注或特征值的攻击);(2)基于物理的攻击,例如佩戴3D打印眼镜、红外线光斑投射、添加面部特征补丁等;(3)基于去标识化的攻击,例如通过对抗性扰动来调整面部图像,使得它无法被人脸识别系统识别;(4)基于几何的攻击,例如通过对输入的图像施加微小的旋转、平移或比例变化来干扰算法。[33]

另一方面,人脸信息的公开性决定了人脸识别不是好的安全认证方式。顾名思义,密码的重要特征在于其隐秘性,才能防止被盗用,而人脸信息并不具有隐蔽性。人们热衷于将自己的面部照片上传到社交网络,这本身就形成了一个公开的人脸信息数据库。此外,“与其他生物特征标识符(如指纹或DNA)相比,一个人通常无法避免他/她的面部图像在公共场合被捕获和监控”[34]。这也是为何Clearview AI可以完全绕过知情同意、大行其道的原因。即使提升了人脸识别的精度要求,高清摄像技术的发展也总能捕获合乎认证要求的图像。由于作为密码或认证方式的人脸容易被获取,而线上和某些线下场合的识别程序并无第三人在场监督,这就导致佩戴式、以照片替代活体等破解方式得以施行。而倘若要求工作人员在场监督,这又会增加额外的人工成本,使得利用技术减负的效果大打折扣。人脸识别数据库一旦遭到泄露,将进一步拉低人脸识别的安全性期待,相当于为暴力破解准备了更加高效的密码集,而数据泄露后的低成本交易又会进一步扩大这些人脸密码的流通[35]。在现实生活中,刷脸应用的普及会导致民众在不设防的情况下交出人脸信息,导致财产损失。(7)例如,2020年,广西南宁多名业主就遭遇诈骗,在刷脸后房屋即被过户,甚至被办理抵押贷款。参见文献[36]。

其二,效率提升?

人脸识别带来的效率依靠的是这项技术的准确性,缺乏准确性的效率提升是虚幻的胜利。然而即使不考虑算法被破解的情况,它的准确性也未必可靠。

首先,尽管业界不断宣称人脸识别准确率超过99%甚至更高,但目前的技术只有在测试集中或理想环境下才能保持高准确率,在不同类别人群中的准确率表现也有较大差别。美国国家标准技术研究院(NIST)系列研究指出,人脸识别在主体非合作(即人们在不知情时被摄像机被动捕获)的场合准确性表现欠佳,对于乘客在机场登机口被捕获的图像,最佳算法的准确率为94.4%;而对于在运动场中行走的主体,领先算法的准确率则在36%到87%之间。[37]产业界的新闻往往是对最前沿科技的突破性报道,而现实中投入使用的人脸识别算法则五花八门,未必都能达到新闻上宣称的准确率。2018年“董明珠闯红灯乌龙事件”和2020年的“去世老伯闯红灯被罚事件”曾引发网友热议,使得算法误判的风险广为人知。

其次,准确率也不是判断机器学习算法准确性的唯一指标。在评价分类器性能时,准确率(accuracy)是指“对于给定的测试数据集,分类器正确分类的样本数与总样本数之比”[38]。在人脸识别这样的二分类任务中,通常还要考虑查准率(precision)与查全率(recall),前者是指被算法判断为正例的样本中有多少是真正例(true positive),后者是指测试集的正例中有多少被算法判断为正例。例如,算法将张三、李四和王五的人脸照片都标注为张三,则针对张三的查准率为1/3;倘若算法将两张李四的人脸照片分别标注为张三、李四,则针对李四的查全率为1/2。而查准率和查全率是相互矛盾的,阈值调整会导致二者此消彼长。[39]这就意味着,只要存在错误率,就无法通过调参来消除误差。

再次,如果人脸识别应用的基数较大,即使错误率很低,也有许多人会因算法失误受到影响。正如欧盟基本权利局报告中所说,“如果某算法的假正例识别率是1%,这也意味着在10万人中有1000人会被错误标记”,并且“由于准确率评估往往是基于特定训练集做出的,在部署后就不易于评估了,原因之一是在现实场景中错过了哪些人是未知的”[34]。

最后,人脸识别的部署方式可能会使公共场所的通过效率大为降低,并造成其他安全隐患。目前,许多学校、公司、小区的人脸识别部署方式为闸机通道。由于刷脸闸机在这些非刚需场景的风靡,原本可以相对自由出入、较为宽敞的大门被改成仅容一人通行的狭窄通道,这就为通行凭空增设了障碍。在人脸识别准确性较低的情况下,会造成正常通行也需排队的奇观。人流量较大时,刷脸闸机的开合关闭、系统延迟也会导致本不必发生的拥堵。(8)例如,海口实验中学就曾出现过学生在雨中排队约百米等待刷脸进入宿舍楼的现象。参见文献[40]。这种效率的低下有时甚至可能影响到生命安全。(9)2019年,重庆大学虎溪校区一栋宿舍楼的学生在地震逃生时,排队刷脸出入造成拥堵,幸而由于地震较小未造成人员伤亡。参见文献[41]。

2.人脸识别的风险被低估

“人脸识别最大的好处不过是方便,帮助我们克服日常生活中的障碍。但在最坏的情况下,它威胁着我们人类的基本权利,包括隐私、平等对待和非歧视、授权国家机关和其他主体监视和控制我们生活的重要方面——通常在我们不知情或不同意的情况下。”[42]事实上,人脸识别的风险远不止此,人脸信息的唯一性、公开性、与其他个人信息的强关联性以及现有的收集管理方式使得人脸识别的大规模应用风险重重。

(1)非受控风险。商业公司常常宣传刷脸是“无感”的,正是这种非接触性造成了本就举步维艰的知情同意原则在人脸识别领域更加难以落实。而现有的监管能力并不足以对人脸信息收集后的处理行为进行全面的合规性监管,这就意味着只要对人脸信息的收集合法性不做实质性的限制,后续如何处理基本无法由信息主体或监管部门加以了解和监督。主张完全依靠强化知情同意原则来限缩人脸识别进入的学者往往忽视了这一点。

(2)歧视性风险。人脸识别在不同种族、性别等群体内的准确率有着不同的表现。NIST调查指出,大多数算法在一对一匹配中,亚裔和非裔美国人的假正例(false positive)概率要高于白人,甚至相差10倍到100倍。在一对多匹配中,非裔女性美国人呈现的假正例概率较高。[43]欧盟基本权利局的报告也指出,人脸识别技术的表现依赖于主体的性别、年龄、种族等因素,适用于残疾人的准确率也很少被考虑到。[34]这实际上可能引发歧视问题,特定类别的人群可能会被错误认证或被错误识别。这不仅会增加他们日常生活中的不便,还会造成许多对他们不利的决策。例如,当执法部门使用人脸识别系统寻找犯罪嫌疑人时,某些人群可能会发生更高的出错率。(10)例如,由于人脸识别系统的误判,2020年6月,美国一名黑人男性被错误羁押将近30小时,参见文献[44];2020年12月,美国另一名黑人男性被错误羁押10天,参见文献[45]。

(3)难以救济的风险。人脸信息具有唯一性,并且难以修改、重设,一旦遭到泄露将很难进行实质上的救济,具有“一次泄露,终身泄露”的特点。而人脸信息泄露的风险是长期存在的,一方面人脸信息本来就可以公开捕获,另一方面如今许多数据库的管理方式并不安全(11)例如某智慧社区App存在“人脸等图片明文传输且可被互联网公开访问”、“人脸等个人信息可被互联网公开渠道批量下载”等问题。参见文献[18]。,人脸数据库泄露事件也时有发生。更为重要的是,在这个万物互联的时代,其他相关的个人信息也难免发生泄露,将人脸和关联信息精确匹配只是时间问题。一旦各类规模庞大、包罗万象的人脸信息数据库非法建立,不仅会摧毁一时流行于今日的安全认证体系,更会引发不可预计的严重后果,精准诈骗只是开始而已。

(4)处理者存续方面的风险。人脸识别一时显赫,受到不少新兴科技公司的青睐。然而,许多轻装上阵的人脸识别公司并不具备强大的生产经营能力,在商海浮沉中未必能长期伫立潮头。当浪潮来临之时,经营人脸识别产品的科技公司八仙过海式地跑马圈地,积累了大量客户与人脸数据。而当浪潮退去之后,这些科技公司不免将发生破产或遭遇信用危机,存亡危急之际更无暇顾及人脸信息管理与设备维护升级等安全问题。尽管人脸识别市场的泡沫仍在膨胀,但部分人脸识别业界新星的陨落已经为我们敲响了警钟。例如为北京大学等高校提供人脸识别产品的汉柏科技有限公司,自2018年起频频沦为失信被执行人,迄今已存在多条失信被执行人记录。(12)截至2021年7月28日,根据中国执行信息公开网(http://zxgk.court.gov.cn/zhzxgk/)的查询结果,汉柏科技有限公司已经存在17条失信被执行人记录。如何保证商业失败后的人脸信息安全,是尚未引发足够关注的问题。

(二)当事人间的权力失衡未能补正

人脸信息主体与人脸信息处理者天然存在权力不对称。信息主体是原子化的个人,而处理者往往是颇具规模甚至体量庞大的组织体。处理者不仅控制着人脸信息,还控制着捕获和处理人脸信息的各类设备、算法、数据库权限、人脸信息管理方式。处理者往往对信息主体拥有一定管理的权限,例如公共场所的监控权、组织体内的约束权、某种纪律的要求等。无论是在组织能力、技术水平还是社会地位上,信息主体与处理者之间的权力差距甚大。甚至在应付讼累方面,单枪匹马的信息主体都很难抗衡这些更具人数优势与资金实力的组织体。

然而,传统准入规则未能弥补这种差距,反而在为强势一方提供武装。知情同意规则实质上是在坚持隐私自治的思维,但人脸信息收集的隐蔽性、知情同意本身的落实难度以及科层制下的不平等使得知情同意难以落实。权利克减条件本欲限制处理者的行动,但含糊的措辞却使得事实上的解释权旁落,这进一步解放了他们的行动力,反而可以将豁免条款当作“免死金牌”。

传统立法将人脸信息的命运交给“弱而愚”的个人[46],相当于让手持长矛的印第安人对抗原子弹,也就不难理解在现实生活中想要抗拒人脸识别的消费者只能选择戴着头盔看房的举动了[47]。尽管法律父爱主义在自由主义者那里经常遭受诟病,但强大的技术力量面前并没有理性人。此时法律正应当彰显出有担当的慈父一面,为保护弱者而不遗余力,更加严谨地划定人脸识别准入的法定界限。

三、人脸识别准入规则的制度重构

(一)应然态度:严格限制人脸识别的准入

近年来,世界各地的立法者逐步意识到人脸信息保护的特殊性,在准入方面越发严格,甚至直接发布禁令。2019年以来,美国已有十余个地区对人脸识别技术实施严格的禁止规则。2019年5月,美国加利福尼亚州旧金山市率先发难,立法禁止所有政府部门(包括警察局)使用人脸识别技术。[48]随后,美国其他地区陆续颁布禁令。其中,俄勒冈州波特兰市的禁令最为广泛,不仅禁止市政府部门使用和获取人脸识别技术,还禁止所有私人实体在公共场所使用人脸识别技术。[49]马萨诸塞州萨默维尔市、布鲁克林市、剑桥市、斯普林菲尔德市、波士顿市、北安普敦市,加利福尼亚州奥克兰市、伯克利市、阿拉米达市,缅因州波特兰市,明尼苏达州明尼阿波利斯市等其他城市的禁令仅仅针对市政府、政府部门或政府官员。

欧盟在执法中对人脸识别场景下的“同意”进行了限缩解释。2019年,瑞典数据保护局对Skelleftea市政府罚款20万瑞典克朗(约2万欧元),原因是其在学校中使用人脸识别技术以跟踪学生的出勤率。尽管学校获得了同意,但数据保护局指出由于数据主体和控制者之间的明显不平等,同意并非有效的法律基础。[50]2021年,荷兰数据保护局对一家试图重新启用人脸识别技术的超市发出正式警告,副局长莫妮克·维尔迪埃(Monique Verdier)指出,沉默和进入超市本身并不意味着同意,唯一的权利克减情形是“人脸识别对身份验证或安全目的是必需的,且在涉及实质性公共利益的范围内,目前法律给出的唯一示例是确保核电站的安全,因此准入门槛很高,避免窃贼进入和防范核灾难的重要性根本不可同日而语”[51]。欧盟立法者也在逐步准备立法禁止人脸识别技术的应用。2020年1月,欧洲委员会曾考虑在5年内禁止在公共场所使用人脸识别技术,以使欧盟有时间确定如何有效地防止滥用行为[52],但旋即放弃了这一提案[53]。不过,2021年1月,欧洲委员会《关于自动处理个人数据的个人保护公约》咨询委员会发布了《人脸识别指南》,重启对人脸识别的相对强硬立场。该指南规定,在非受控环境(即个人可自由进入、通行的地方,包括购物中心、医院或学校等公共和准公共场所)中的实时人脸识别技术应在民主辩论和全面分析之前暂停使用,应当禁止仅以确定肤色、宗教或其他信仰、性别、种族或族裔、年龄、健康状况或社会状况为目的而使用人脸识别的行为,以情绪识别为目的的人脸识别也应当禁止。[54]

欧美公民要求禁止人脸识别的呼声要比立法者更高,他们渴望更加严格的禁止。在美国,一家名为“禁止人脸识别”(www.banfacialrecognition.com)的网站正在呼吁人们签署请愿书,并推进《人脸识别和生物识别技术暂停法案》的进程。马萨诸塞州2019年的一项调查显示,79%的选民支持暂停政府使用人脸监控技术。[55]欧洲各国的民众也建立了多个网站发起请愿,其中影响力较大的有已超过5万人签名的“欧洲禁止人脸识别”(https://ban-facial-recognition.wesign.it)以及2万余人签名的“救回你的脸”(https://reclaimyourface.eu)。

在我国,人脸识别禁令方兴未艾。在“戴头盔进售楼处”事件发生后,2020年11月,南京市相关部门电话通知要求各售楼处拆除现有的人脸识别系统。[56]2020年12月,天津市人大常委会表决通过《天津市社会信用条例》。该条例第16条明确规定“市场信用信息提供单位不得采集自然人的生物识别信息”,由此将人脸信息纳入严格禁止范畴,排除出知情同意的范围,成为全国首个公开禁止采集人脸信息的立法。[57]我国其他城市也关注到人脸识别强制使用的行为,但尚未走出知情同意的窠臼。例如,杭州市人大常委会2020年10月23日发布的《杭州市物业管理条例(修订草案)》第44条、第69条规定,物业服务人“不得强制业主通过指纹、人脸识别等生物信息方式使用共用设施设备,保障业主对共用设施设备的正常使用权”,否则将处5000元以下罚款。但“强制”二字仍然为“知情同意”留下了解释余地。

我国目前的顶层立法对人脸识别的态度仍属暧昧。《个人信息保护法》第32条引入了准入规则,但并不足以对抗当下人脸识别的泛滥。第32条的表述创设了这样的效果:在“行政许可”或“其他限制”的新规则产生前,既有的人脸识别应用都是合法的。这实际上使得权利克减的解释权仍然掌握在人脸信息处理者手中。为了避免在新准入规则制定前引发更大的信息安全问题,正确的态度是在第32条的结尾处,增加“只有获得法律、行政法规规定的许可,方可处理人脸识别信息”的表述,或者将第27条首句改为:“在公共场所安装图像采集、个人身份识别设备,应当为维护公共安全所必需,且必须依照法律、行政法规的要求获得行政许可,设备的安装使用应当遵守国家有关规定,并设置显著的提示标识。”

有人或许会说如此严格的禁止会扼杀创新,毕竟人脸识别还处于不成熟的起步阶段。但正如微软副总裁约翰·弗兰克(John Frank)所言:“这正是我们不应当坐等负责任的使用标准建立的原因。如果不设置任何监管底线,就让人脸识别俯冲到底,赌注实在是下得太高了。”[58]以人脸信息收集的隐蔽性之强,高清摄像头捕获图像之便捷,各地信息安全保护水平之不一,如果立法者不尽速限制,而是等到每所高校、每个小区、每家公司都收集了足够多的人脸信息后才着手打击,那么几乎全国民众的生物识别数据都将必然处于不安全状态中。与其等到事故连连,不如设计好交通规则再上路。

从长远来说,严格禁止反而会对产业创新和落实法治产生促进作用。第一,严格禁止有助于出台更好的行政许可规则。暂行的严格禁止并不代表着永远的因循守旧,为了产业复兴,人脸识别从业者将会充满动力地推动行政许可规则出台,并为立法者的论证工作提供充沛资源,而未来经过严谨论证的行政许可规则将赋予从业者更多的内在合法性和外在认同性。第二,严格禁止会筛选出市场真正需要的创新者。现有的人脸识别认证设备往往能够同时接受多种认证方式(如刷一卡通、刷身份证、输入密码等),因而不会带来额外成本,无非是回归传统验证方法而已。而对于某些早早升级或缩水到只有人脸才能验证的识别设备,恐怕多是控制者忽视信息主体知情同意权的结果,额外成本理应由规则漠视者负担。第三,严格禁止有利于考察现行个人信息保护机制的实际效果。现行的删除权、控制者自律等机制本就有沦为黑箱的可能。叫停人脸识别后,如何保证各类人脸信息处理者删除已经处理的人脸信息,本身就是个难题。不如借此合法性危机的机会对既有规则的有效性来一场大检验,这可能会引发更多对个人信息保护立法的有效讨论。

(二)具体框架:依据必要性与可受控性建立“四象限”与“三名单”

在具体制度设计方面,立法者应当运用“场景理论”重塑人脸识别的准入规则,可借鉴欧盟《人脸识别指南》的办法,根据人脸识别应用场景是否必要、是否可受信息主体控制来设置不同规则(参见图1)。对于“必要”,应当依据最小够用原则进行严谨论证,并出台明确的限制准入规范,而不能使用模糊的权利克减条款,并将解释权交给泛泛的市场主体。对于“可受信息主体控制”,则应理解为隐私自治等传统模式下的规则在该场景内能够有效运行,因此,至少一切可以轻易实施强制、隐私自治成本较高的场景都应被纳入不可受控领域,例如街道、公园、博物馆等公共场所,以及学校、职场等典型的权力不对称场所。

图1 人脸识别准入的“四个象限”与“三张名单”

在将人脸识别划分为四个象限后,立法应当建立起分级分类制度,对各种应用场景设置“三名单”规则。对于非必要且无法受信息主体控制的场景,立法应当将其划入“黑名单”,严格禁止人脸识别技术进入;对于虽非必要,但可以通过知情同意、安全性测试等有效控制信息安全的场景,立法应当将其列入“黄名单”,并对传统模式下容易被规避的规则进行完善;对于通过严谨论证认为确有必要进行人脸信息处理的场景,无论是否可受控,立法都应当将其列入“白名单”,但应同时设置严格且具体的权利克减规则,以及审查级别较高的行政许可制度,要求处理者做好安全保障措施。

需要指出的是,在“黄名单”场景下,处理者很容易将可受控领域演变为非受控领域。为此,应当为知情同意创造更好的环境,以保证信息主体真正享有选择不同意的权利和能力。

第一,立法应当提升信息披露的力度,以弥补双方信息失衡。影响信息主体决策的并不仅仅是《个人信息保护法》第17条列举的“个人信息处理者的名称或者姓名和联系方式,个人信息的处理目的、处理方式,处理的个人信息种类、保存期限,个人行使本法规定权利的方式和程序”和第30条列举的“处理敏感个人信息的必要性以及对个人权益的影响”等事项,而是包括处理者声誉、安全机制有效性等多方面的综合因素。《个人信息保护法》应当进一步放开合规审计结果、个人信息保护影响评估报告和处理情况记录等文件的披露,使得首要的利益攸关者——信息主体得以知晓有助于决策的信息。

第二,立法应当提升信息披露的质量,以弥补双方信息处理能力失衡。《个人信息保护法》第17条要求告知应当“以显著方式、清晰易懂的语言”为之,然而这一规定仍然缺乏操作标准,立法者应当出台示范性的隐私政策,同时通过行政执法和司法审查以典型案例的方式来逐步确定行业标准。此外,《个人信息保护法》第29条仅规定处理敏感个人信息“应当取得个人的单独同意”,没有提及“单独知情”的要求。由于人脸信息的重要性,应当要求处理者对人脸信息的用途单独出具隐私政策或进行相应告知,不能将人脸信息的告知事项置于一般个人信息的隐私政策之中。

第三,立法应当为信息主体行使选择权创造切实可行的途径。立法者应当要求处理者不得以特殊颜色、默认选项、反复弹窗、使用即视为同意等方式诱导用户点击“同意”,应当规定在单位时间内的最高弹窗次数,并且要为用户设置“不再提醒”的选择。对于可受控场合的人脸识别,应当要求控制者广泛地设置非诱导性的非刷脸选项,具体可参考欧盟《人脸识别指南》中的规定:“为了确保自由地给予同意,应当向数据主体提供使用人脸识别技术的替代方案(例如,使用密码或身份标识牌),这些方案应当易于使用,因为如果与人脸识别技术相比显得太长或太复杂,那么就不是真正的选择。”

四、结 语

目前,以知情同意和权利克减条件为核心的人脸识别准入规则过于宽松,体现出种种失灵的风险。立法者应当正确看待人脸识别的效用,并设法弥补信息主体与信息控制者之间的权力失衡。在制度设计上,立法者应当秉持严格限制的态度,重新制定准入框架,依据人脸识别应用场景的必要性和可受控性划出“四象限”,设置“三清单”,方可实现科技发展与人文关怀的统一,保障人脸信息主体的合法权益不受损害。

猜你喜欢

人脸人脸识别个人信息
个人信息保护进入“法时代”
人脸识别 等
有特点的人脸
一起学画人脸
玻璃窗上的人脸
人脸识别的“国标”来了
敏感个人信息保护:我国《个人信息保护法》的重要内容
主题语境九:个人信息(1)
民法典应进一步完善侵害个人信息责任规定
人脸识别技术研究与应用进展概述