APP下载

智能推荐算法真的可行吗

2021-03-07魏冰洁李长征

网络安全技术与应用 2021年11期
关键词:个人信息决策智能

◆魏冰洁 李长征

智能推荐算法真的可行吗

◆魏冰洁 李长征

(上海政法学院 上海 201799)

智能推荐算法极大提高了信息传播的覆盖率和到达率,减少了用户获取所需信息的难度和成本。但仍存在易使受众陷入“信息茧房”掉入“过滤器泡泡”的陷阱,对受众信息需求存在偏见,对受众信息隐私构成风险,公共性价值缺失等伦理失范现象和问题。本文结合域外的相关规定,以及我国《个人信息保护法(草案)》,比对企业之间在此方面的具体规定,提出智能推荐算法的正向重构,应该遵循反歧视原则、以人为本原则、知情同意原则,从建立反算法歧视制度、互联网平台首页开设数据删除端口、用户定期确认是否继续使用智能推荐等方面入手,规范对个人信息的保护,真正使智能推荐算法落到实处,满足用户对于获取信息的需求。

智能算法;个人信息保护法(草案);不受自动化决定约束权;对策

随着互联网应用的大规模普及以及智能设备数量的大幅增加,大量的数据库和互联网记录了人们的各种信息,但大多数人并不知情自己的哪些信息被储存,也不知道谁会有权对这些信息进行访问,以及如何使用、共享或利用这些信息,相关的安全与隐私问题日益凸显。例如,顾客上网买过轮椅,即使是替他人购买或者本意并非购买,系统之后也会一直推荐与残疾相关的器材、药物、服务等。当一个互联网系统基于用户浏览历史而对弱势群体进行“个性化定制”时,数据算法便会将条件和歧视扩大化。

1 智能推荐算法给公众的影响

(1)智能推荐算法简介

人工智能AI概念是在1956年的达特茅斯会议上首次提出的。近些年来随着算法技术快速发展和大数据的广泛应用,智能推荐算法已经进入我们每个人的日常生活中。用户用手机搜索和使用过的界面,手机都会留有记录,智能推荐算法可以根据用户的浏览历史,分析筛选出用户感兴趣的品类进行优先推荐。甚至当用户没有进行搜索,只是在与他人交谈中提到了某一物品,当打开手机的软件应用时,软件已将相关物品的购买广告摆在了首页推荐位置。这是因为,该应用已经获得了用户手机录音功能的授权,即使在用户退出该应用软件的时候,应用软件也会私自打开手机的录音功能,对用户的日常对话进行智能分析,从而以此为数据,为用户进行更加精准的智能推荐。

如此基于智能推荐算法技术的应用程序具有以下特点:一是及时性,软件会根据自己收集到的用户信息,及时进行加工整理和分析,做到及时针对用户的需求进行推荐,这也是相关应用程序得以存在的首要前提;二是个性化,有共性就会有个性,而每款不同的应用程序针对同一用户的相同需求提供的个性化推荐,则是对软件进行优胜劣汰的根本遵从;三是实时反馈性,思想是跳跃转换的,则其产出的信息亦是实时变动的,如果软件程序坚守从一而终,针对用户的原始需求一味地进行推荐,则等待它的只能是被抛弃和淘汰。

(2)智能推荐算法的应用

智能推荐算法技术已广泛应用在新闻类软件、购物类软件、短视频类软件等。今日头条、快手、抖音等都是依靠智能推荐算法向用户提供个性化的内容推送;淘宝、京东、拼多多等亦是通过此技术将商品的广告和链接精准的投放给不同用户;滴滴、美团打车、高德地图等更是可以根据用户的实时位置,准确的推断出用户的上车地点及打车的目的地……随着智能推荐算法技术的逐渐成熟,此种收集、分析用户信息并进行个性化订制及精准投送的商业模式为各大科技公司带来了巨大的附加利益,如北京字节跳动科技有限公司,同时也一定程度上提高了用户的满意度,增加了用户黏性,实现双赢的局面。

(3)智能推荐算法的弊端

科技是一把双刃剑,智能推荐算法在得到广泛应用的同时,其所带来的负面效应也不容忽视。突出问题主要包含以下几点:一是会造成话语体系失控,作为互联网上访问量最大的十个网站之一的推特,在去年被爆出其公然宣布删除超过17万个与中国“国家当局相关”的账号,诬称这些账号用于散播有关新冠肺炎疫情、香港局势等问题的虚假信息,本应是用户可以平等自由地分享自己动态和想法的平台,但由于软件程序的精准定位,平台往往会抹去与自身想法所背道而驰的言论,从而可以达到操纵舆论的境界;二是导致信息茧房的形成,可能用户最初进行搜索时只是基于自己的一点好感或是一丝兴趣,但由于算法的定位与不断地进行推荐,会使事物愈发两极分化,侧重点不断增强,从而使用户的心理预期倍数增长,极端事件也愈演愈烈;三是带来隐私的侵犯,用户在每使用一款软件时都会对该软件进行相应的授权或完善自己的信息资料,但是该软件在得到每位用户的隐私数据后如何应用信息无人知晓,并且当用户不想再使用此软件,将软件退出登录并卸载后,此前登录填写过的信息是否可以做到一并删除仍值得深究,同样如果用户购买或使用的不想为外人所知的事情,此时软件程序依旧在智能推荐,是否会加重用户的使用负担;四是会带来对用户的偏见和歧视,每位用户的收支能力不一,但当软件程序捕捉到该区别再进行智能推荐时,就会呈现出不同的用户使用同一款软件实施相同的行为,但带来的结果却是天差地别,此行为是否已侵犯公民的合法权益,如果有心存歹念的人利用此种技术,则造成的损失后果又将由谁来承担。

2 域外法律保护比较

(1)欧盟GDPR

欧盟采用的是数据中心的反歧视路径。根据欧盟GDPR第七章对数据主体权利自动化个人决策相关权利的规定中,数据主体有权不适用完全基于自动化处理(包括画像)的决策,如果前述决策产生与数据主体有关的法律效果或者对数据主体产生类似的重大影响。根据荷兰的执行法草案的解释性备忘录草案,该条款禁止使数据主体适用完全基于自动化处理活动的决策。该条款并不禁止画像或使用自动化处理活动,但是如果用于作出针对数据主体的决策,这些活动应该与人为干预结合使用。

在欧盟或成员国法律明确授权的情况下(包括出于监控欺诈和逃税目的),如果对于在控制者和数据主体之间签订或履行合同而言是必需的,或者如果数据主体已给予明确同意,则允许进行自动化决策。对该条款所涉及的任何处理,都应当采取适当的保障措施,包括向数据主体提供具体信息以及要求人为干预、表达其观点、要求对此类评估后作出的决策进行解释以及质疑此类决策的权利。基于敏感数据的自动化决策进一步受到限制,只有在获得明确同意的情况下或者根据欧盟或成员国法律对于维护重大公共利益处理是必需的情况下才能进行。具体来说,根据GDPR,只要允许自动决策,就必须为数据主体提供适当的保障措施。GDPR明确规定了应提供最低限度的措施:一数据主体至少应有权申请具有人为干预权力的控制者;二数据主体有表达观点的权利;三数据主体有反对该自动化

决定的权利。

GDPR 没有专门针对出售个人信息的条款约定,但赋予了反对处理个人信息或撤销同意的有限权利。GDPR第21条规定,若个人数据处理是用于直销(direct marketing)的目的,数据主体有权随时拒绝为此类营销目的而处理其个人数据的行为,包括一定程度上关联到这种直销的分析行为。同时,第7条也规定了数据主体有撤销同意的权利。

(2)美国《加州消费者隐私保护法案》(CCPA)

美国采用的是算法责任中心的反歧视路径。2019年4月国会议员提出的《算法责任法案》采取了结果监督路径。CCPA向消费者赋予了“选择退出权”(Opt-Out Right),如果经营实体将个人信息转移给第三方并收取金钱或其他对价,即属于出售个人信息,则该实体必须向消费者披露其个人信息可能被出售,并且消费者有权选择在出售信息中排除其个人信息。而对于16岁以下未成年人,企业必须取得其确定性的同意授权,才可以出售其个人信息。

此外,为保障消费者的“选择退出权”,CCPA规定即使消费者行使了该权利,相关企业也不得因此歧视消费者,包括但不限于不能拒绝为其提供产品或服务,或在价格和服务质量上区别对待该消费者等。但是,受管辖企业仍然可以通过为消费者提供经济激励的方式,获得消费者对企业收集、售卖其个人信息的许可。

CCPA并不是第一个授予个人选择退出组织使用或披露其信息的权利的法律。其他联邦法律,包括《金融服务现代化法案》(“GLBA法案”)和《控制非自愿色情和促销攻击法案》(“CAN- SPAM法案”),都包含了某些选择退出的要求。

3 《个人信息保护法草案》不受自动化决定约束权

(1)对法条的理解

2020年10月21日,中国人大网公布《中华人民共和国个人信息保护法(草案)》(以下简称“《个人信息保护法(草案)》”)全文,并对其公开征求意见。《个人信息保护法(草案)》于2020年10月13日经第十三届全国人大常委会第二十二次会议进行了初次审议。作为首部专门规定个人信息保护的法律,《个人信息保护法(草案)》在正式出台后,将成为个人信息保护领域的“基本法”。《个人信息保护法(草案)》全文共八章,内容包括总则、个人信息处理规则、个人信息跨境提供的规则、个人在个人信息处理活动中的权利、个人信息处理者的义务、履行个人信息保护职责的部门、法律责任和附则。

《个人信息保护法(草案)》第二十五条 利用个人信息进行自动化决策,应当保证决策的透明度和处理结果的公平合理。个人认为自动化决策对其权益造成重大影响的,有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。

通过自动化决策方式进行商业营销、信息推送,应当同时提供不针对其个人特征的选项。

由此可以看出《个人信息安全法(草案)》第25条拓展了权利保护的范围,赋予数据处理者保证决策的透明度和处理结果的公平合理的义务;同时规定了救济途径为“个人认为自动化决策对其权益造成重大影响的,有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。”赋予了数据主体对算法结果具有要求解释权和拒绝权。强调自动化决策的透明和处理结果的公平合理,并为个人提供了救济途径。

(2)不同企业之间对于隐私保护政策上的区别

隐私政策是指互联网平台提供和制定的,对其对个人信息的收集、存储、使用、共享及转让等对个人信息的处理进行说明,以链接和页面显示的形式向用户明示,要求同意方能使用平台应用的协议。通过对十家社交平台隐私政策的基本情况进行对比,发现大部分平台有独立的隐私政策,但未明确隐私政策的生效日期和存档历史版本,因为没有新旧版本的对比,用户便无法清晰了解条约中有哪些实质性内容进行了修改,也就无法做出新的同意。有的平台没有为用户提供明确的联系方式,平台提供具体的联系方式可以为用户的隐私权益进行救济,以便用户就隐私政策的相关问题展开资讯,也是平台负责任的具体体现。所有的平台都明确了对用户免责的声明,有些平台将该条款单独列出,有些将免责的意思零星表示在隐私政策的具体条款中,如果平台过度强调免责,反而会成为不负责任的表现。

(3)智能推荐算法与不受自动化决定约束权

企业的运营模式首先是用户进行注册,或是对相关程序软件等进行授权,那么企业便拥有了用户的基础数据。接着企业会对收集到的大量数据进行分析整理,而这个分析整理的过程及最后呈现的结果都属于该企业的智力成果,即强调数据的财产性价值。与此同时,企业为了使自身能够实现较好较快发展,会在对个人的信息进行收集整理之后,根据对用户的整体评价,及时为用户进行推送,为用户节省时间精力成本,提供一个良好的使用体验,进而不断扩大自身软件的影响力和号召力。

举例来说,在金融借贷场景下,如果依据数据模型自动决定个人贷款额度的,个人可以要求个人信息处理者作出说明并有权拒绝仅以数据模型自动决策的方式作出的决定,相对应的,在个人依据本条提出权利主张的情况下,个人信息处理者可能需要对个人的贷款额度进行人工复核。即个人在做出决定时是基于自己的意识思考,而并非受他人意见所以左右。并且更为重要的是系统在为用户进行推荐时必须要对过程对结果公开透明,要有的放矢地去完成相关事情。当然,为了防止个人滥用本条的规定,本条对适用情形也进行了限制,即“对其(个人)权益造成重大影响的”,防止个人随意拒绝自动化决策的处理后果或者提出异议而加重企业的负担。

《中华人民共和国电子商务法》第十八条则首次提出平台的推荐算法搜索结果,应提供非个性化推荐的一般结果,即不针对消费者个人的普通搜索结果。具体条文写道,“电子商务经营者根据消费者的兴趣爱好、消费习惯等特征向其提供商品或者服务的搜索结果的,应当同时向该消费者提供不针对其个人特征的选项,尊重和平等保护消费者合法权益。电子商务经营者向消费者发送广告的,应当遵守《中华人民共和国广告法》的有关规定”。《个人信息安全规范》第7.5条b项也有类似规定:在向个人信息主体提供电子商务服务的过程中,根据消费者的兴趣爱好、消费习惯等特征向其提供商品或者服务搜索结果的个性化展示的,应当同时向该消费者提供不针对其个人特征的选项。

4 应对之策

(1)政府适当介入建立反算法歧视制度

平等权是宪法规定的公民的基本权利,但是数据算法逐渐对人们进行机械地分割,也改变了歧视的产生方式,因此算法设计者在对歧视进行规制时要进行多方面的加强,强调伦理植入。诚如学者所言:“对算法嵌入伦理道德的价值是有必要的,它强调设计符合伦理原则的算法,为人类提供帮助或者算法自身在某种程度上具有伦理决策的能力。”通过以反算法歧视理论价值和反歧视目标定位为基本遵循,贯彻“通过设计实现公平”的规制原则,根据算法歧视的类型和特征建立反算法歧视制度。

首先,应规范算法模型的数据类型。为了实现算法自动决策的形式平等,应当建立算法模型的事前数据清洁制度,明确算法模型设计者的数据清洁义务和责任,禁止将具有显著歧视性特征的数据作为算法模型的分析数据。在系统对用户的数据进行采集时,应自动忽略带有显著歧视性的数据,如药品、残疾人用品、计生用品等采购信息;疾病诊疗、运动复健、残障用品使用教学等视频的观看记录;手机价格、月度消费情况等直接或间接反应用户经济状况及消费能力的信息。通过强制算法模型自动略去或主动删除会造成歧视性的影响因子,可以有效遏制算法歧视。

其次,应建立数据动态审查机制。由于算法模型能够发现海量数据之间潜在的相关性,并在算法训练和运行过程中,产生算法设计者意想不到的歧视后果。所以需要建立数据动态审查机制,时刻监控数据在传送过程中可能引发的诱变。

另外,应建立算法歧视影响评估制度。因歧视的高度隐蔽性,歧视的判断和识别在数据算法的具体操作中变得异常困难。因此,在具体制度的建构上,可以参酌环境影响评价制度,建立算法歧视影响评估制度。即在算法模型设计完成后,投入使用前由专门机构对该算法模型可能带来的潜在风险进行事前的评估,如果经过评估过后,会带来歧视性的风险则不允许该算法模型投入进行使用。上述算法歧视制度的建立,能够形成一套贯穿于算法模型设计和算法自动决策全过程的算法歧视识别与规制方案,有助于缓解算法自动决策造成的歧视,并在很大程度上实现算法公正。

(2)互联网平台开放数据查看和删除端口

在算法推荐模式下,用户缺乏主动的调整权和选择权,即使对智能推荐的信息不满意也缺乏必要的反馈沟通机制,以至于情绪积累到一定程度产生对平台的反感甚至弃用。另外,用户群体中担心个人信息遭到泄露的更是不占少数,一则因为用户并无法看到自己的哪些信息被收集,这种未知本就是恐惧的来源。二则因为信息泄露的案例比比皆是,且我国对个人信息保护的立法还不够完善。因此互联网平台开放数据查看和删除端口既能增加用户的安全感,又对用户的选择权、平等权提供了保障。

对于用户个人来看,推荐算法的长期使用可能会给用户造成“信息茧房”的效果,导致用户难以接触到新的观点和新鲜事物并且对于自身所见的世界并非全部世界这一事实浑然不知。因此,算法技术不能忽略用户作为人的复杂性,应以“以人为本”为原则,综合考虑人的行为、情感等要素。互联网平台在显著位置开放个人数据查看和删除端口,能有效防止用户陷入“信息茧房”,不断提醒用户独立思考。

(3)网络平台设置问卷调查及时与用户进行沟通

网络平台在收集用户数据时,应当定期发放调查问卷。问卷调查作为一种最简单、最直接明晰显示问题的方式,应在网络平台广泛应用,成为平台与用户沟通的主要方式。问卷调查的优势在于直观、便捷、易统计。对于平台来看,运营成本、维护成本、用户黏度、用户满意度都是需要考虑的重点,每一份问卷调查的发出都是平台完善自身,增加用户黏度的机会。对于用户来看,个人敏感信息是否被收集、信息是否被泄露、平台的推荐是否为个人所愿都是关心的重点,每一份问卷调查的填写都是个人法定权利的运用、对平台收集信息行为的监督和是否继续使用智能推荐的再选择。

该调查问卷主要是使用户明晰自己的哪些数据被收集,并调查用户对于所用智能推荐的接受度和满意度。此种方法不仅便于用户更好进行选择,也便于平台优化内部管理,能够为每位用户做到更精确的定位,从而可以准确进行推荐,节省两方之间的成本损耗。为使调查问卷起到应有效果且不成为用户的负担,频率应以半月一次为宜,问题数量应在十个以内。且用户应有权利随时更改问卷频率和问卷内容。

5 结束语

综上,公平、平等一直是人类发展的不懈追求,当前我们迈入大数据算法驱动的人工智能时代,但是人类反对歧视、追求平等的美好前景不会因此发生改变。我们承认科技的发展为人类的生活带来了便利,但我们不能陷入“技术乌托邦”中,而应看到大数据算法模型潜藏着的歧视与偏见。如此便需要社会共治,政府充分发挥模范带头作用,建立反算法歧视制度,规制数据的安全市场;企业肩负起社会责任,制定明晰的隐私政策,并及时与用户做好沟通交流,将自己的行为公开化、透明化;用户应当积极主张自己的合法权益,对于自身使用过程中遇到的问题及时进行反馈。进入大数据时代,我们必须认真对待,并透过伦理、制度和技术多维度的共同合作,寻找适当的治理方案,加以有效应对和解决。

[1]吴铭. 警惕陷入“信息茧房”[N]. 解放军报,2021.

[2]孟翀,王以宁.教育领域中的人工智能:概念辨析、应用隐忧与解决途径[J].现代远距离教育,2021.

[3]盛小平,杨绍彬.GDPR对科学数据开放共享个人数据保护的适用性与作用分析[J].图书情报工作,2020.

[4]孙跃元.《通用数据保护条例》框架内的自动化决策与数据保护[J].网络安全技术与应用,2020.

[5]张申. 浅谈美国加利福尼亚州消费者隐私法[N]. 人民法院报,2019-07-12(008).

[6]贾章范.论算法解释权不是一项法律权利——兼评《个人信息保护法(草案)》第二十五条[J].电子知识产权,2020.

[7]张秀兰.网络隐私权保护研究[M].北京图书馆出版社,2006.

[8]梁晓静. 社交平台隐私政策研究[D].上海:华东政法大学,2019.

[9]张凌寒.《电子商务法》中的算法责任及其完善[J].北京航空航天大学学报(社会科学版),2018.

[10]郭林生.论算法伦理[J].华中科技大学学报(社会科学版),2018.

[11]张涛.自动化系统中算法偏见的法律规制[J].大连理工大学学报(社会科学版),2020.

[12]张恩典.反算法歧视:理论反思与制度建构[J].华中科技大学学报(社会科学版),2020.

还存在不足和改进之处,因为时代在不断更新,各个平台的业务能力也会随时发生更改,因此平台需要及时更新隐私政策,同时为用户快速知晓提供便利。以此提升用户的使用体验,再反馈到平台,促进两方之间的信任与维系。

猜你喜欢

个人信息决策智能
如何保护劳动者的个人信息?
个人信息保护进入“法时代”
为可持续决策提供依据
警惕个人信息泄露
决策为什么失误了
智能前沿
智能前沿
智能前沿
智能前沿
个人信息保护等6项通信行业标准征求意见