APP下载

算法时代的隐私保护:矛盾困境、路径方向及未来挑战

2022-11-21张奕翔

传媒论坛 2022年16期
关键词:算法用户

张奕翔

一、引言

互联网web 3.0时代的一大技术亮点即是算法技术的出现与应用,算法被认为是第三次传播变革的重要产物。

算法的出现源于社会发展对精准效果的追求。对于互联网平台而言,算法可以让内容更加精准化、定向化分发,一方面可以快速精准找到目标用户、有效提高分发效率,另一方面可以减少不必要的曝光浪费,节约成本;对于用户而言,算法的应用可以让他们浏览到更多符合个性化与兴趣需求的内容,提高整体的使用体验。如今随着互联网的发展,算法的技术性已然渗透到社会资源使用的过程之中,与大数据、云计算、人工智能相关联的各行各业都离不开算法技术。于整个社会而言,算法技术的广泛应用已成为经济高效发展的一个重要推动点。

但当人类正式迈入算法时代,算法的触角深入到我们的生活中,并真正成为社会生活的潜在技术逻辑核心后,算法背后潜藏已久的一些问题也一一暴露开来。近年来,人们开始关注到算法存在偏见歧视、 价格杀熟等负面问题,比如2018年亚马逊的AI会通过算法筛选出女性求职者并降低其简历比重,比如同样一件商品苹果用户端价格会高于安卓用户端……一些由算法引发的事件频频引起社会热议与讨论,人们逐渐意识到算法技术是一把双刃剑,它在给社会发展带来进步的同时,也隐藏着诸多的风险与危机,对社会具有一定的负面影响。

基于平台对海量大数据的搜集,算法技术不断发展,算法所能应用的覆盖范围更广,所能实现的计算程度更加精准,而这也无形中为人类社会的隐私保护带来了更多威胁。社会开始意识到了算法时代的隐私保护是个严峻的问题。

近年来,社会、平台与用户已经开始围绕隐私保护展开行动。社会主要从法律与制度入手进行对算法的治理,通过立法与完善行业行规等手段对算法使用隐私数据进行规范和约束,比如仅在2021年,我国便出台并施行了《数据安全法》《个人信息保护法》两部重要的法律;各大互联网平台多从技术保护出发,通过限制追踪、去标识化、匿名化等多类型的技术手段,保护用户的隐私数据,如苹果采取了默认关闭IDFA追踪,谷歌启动了隐私沙盒等;而对于部分用户,他们则会开始选择关注平台隐私保护条例、关闭个性化广告推荐、回避个性化内容、故意填写虚假信息等方式来保护自己的隐私。

但多年来的算法发展已经使其根植入了社会运作之中,算法所带来的价值与好处也成为了社会的一种习惯。

面对算法时代的隐私保护,从社会到平台到用户,这三方主体都面临着不同的矛盾困境。而与此同时,算法的发展也已与其他技术的发展互相影响,这也意味着算法时代的隐私保护也还面临着除算法技术以外的其他新挑战。在这些矛盾困境与挑战中,隐私保护未来该选择怎样的路径方向也是值得深入思考的问题。

二、文献综述

(一)算法

算法这个概念最早是由中国古代数学家和古波斯数学家提出的。进入了信息时代后,算法依附于计算机载体,作用于互联网信息分发,成为计算机与互联网得以运作的关键技术逻辑。因此,关于算法的定义,学者多从科技化视角阐释,从计算机科学视角来看,算法被定义为一种“有限、确定、有效并适合用计算机程序来实现的解决问题”的方法,从信息技术角度来看,算法是可将输入数据转化为可预期结果的编码程式。[1]把算法工具化看待,有学者则认为“算法(algorithm) 可以定义为解决一个特定问题而采取的一系列特定的、有限的步骤。”[2]在不断发展中,算法逐渐从“计算机领域的一个专业术语转变为智能时代文化与社会的关键概念”,“算法是技术解决方案的算法、作为社会技术集合的算法以及作为权力的算法”。[3]当算法深入社会生活后,它也逐渐具备多一层文化的意义,结合科技视角与社会科学视角两者出发,孙萍等学者认为“算法可以被看作是多元传递模式下的一种技术制度和文化实践”。随着算法技术的发展与大数据重要性的日益凸显,“算法文化”[4]逐渐形成。

目前在新闻传播学学科中,算法技术所引发的伦理、权力及价值等方面的问题是学者们关注的重点。其中,关于算法的伦理与权力两方面的讨论研究在近年来呈现明显的上升趋势。

1.算法的伦理问题

学者刘培、池忠军指出算法会导致诸如算法歧视、主体的自主性、隐私以及可责性等伦理问题。[5]算法歧视中包含算法公平、算法身份的污名化与隐私三个具体的问题。[6]学者匡文波分别从受众、平台与社会三个角度,指出算法存在受众权力让渡与滥用、改变行业的观念和规范、削弱媒体公共性的伦理失范问题。[7]而当算法深入到商业运作之中,也有学者李飞翔指出算法背后的“大数据杀熟”问题,“主要涉及数据的拥有与分配、算法所应遵循的伦理规则、责任主体的合理界定、相关平台的信任机制之维护以及用户自身‘数据权’意识的觉醒等重要议题”[8]。虽然算法为社会经济发展带来了许多好处,但它背后所存在的伦理问题同样值得我们深思与警惕。

2.算法的权力问题

关于算法的权力问题,学者张萌批判性地指出,“算法越来越多地参与到重要决定的裁决中”,正一步步地在控制社会,受众难以抵抗。[9]段伟文指出,算法权力体现了知识即权力的观念,“基于算法的数据分析所产生的数据化框架对人和世界产生着决定性的影响”,而且“算法的创造者并不完全理解自己的创造物,这使算法成为一种影响人和社会的不可思议的神秘力量”。[10]从传播的角度来看,喻国明等学者认为,算法的社会本质其实是一种权力,已形成的算法技术范式会影响媒介运作方向,赋予受众受众在传播活动中的主动权,但它背后的运作黑箱也将用户推向全景监视之中。[11]在这种关系中,学者方正认为算法开始对人类社会进行了“数字规训”[12],从社会到行业,从群体到个体,人类深受算法的影响,算法的权力也渗透进了社会的肌理之中,算法所具有的巨大权力已是不可忽视的问题。

(二)算法时代的隐私难题

算法时代的到来,使数据成了人类社会的又一重要生产要素。因此在算法出现的诸多伦理问题中,由用户数据带来的隐私难题是对社会与用户影响最深远的。

一般来说,算法技术对用户隐私的侵犯可分为两种,第一种是“在数据主体不知情的情况下,算法系统挖掘与收集个人数据”,另一种是“算法系统通过不透明的计算、剖析、解释与预测而介入或侵犯个人隐私”。[13]

互联网用户最能切身体会到算法技术的,莫过于算法新闻与个性化广告的推荐内容。生产这些内容的互联网平台之所以能通过算法进行“千人千面”的内容分发,是因为平台拥有记录用户上网信息的数据库,而算法的“信息处理、承载和利用方式也引发了隐私风险和数据不当适用的伦理风险”[14],算法模糊了隐私的边界。因此,多数学者认为,在算法技术背后,是强势平台与弱势用户[15]的不平等关系。

与此同时,如今受到算法隐私侵犯主体的不止有个体,还有群体。“集体隐私不再是构成该群体的所有个体隐私的总和,而是构成集体的所有个体的某一种或几种共同的属性。”[16]

(三)算法时代的隐私保护

关于算法时代的隐私保护,李凌从技术层面提出目前的隐私保护呈现出从离身转向具身、从积极控制转向消极防御、从中心化转向分布式的趋势。[17]

从整体来看,做好用户隐私保护需要个人作出合理的价值选择、社会制定合理的信息制度以及科技提供合理的隐私设计[18]。王敏也从法律、行业、个人三个角度,提出了大数据时代进行隐私保护的原则。[19]而从数据使用者的角度来看,陈昌凤等学者指出要树立目的确定原则、质量保证原则与个人参与原则来规范数据的使用和隐私的保护。[20]

比如对于平台的数据隐私保护工作,学者们较多使用内容分析法进行研究。2015年,学者申琦以我国6类49家网站公布的隐私保护政策为对象,运用内容分析法,发现早期互联网平台对用户隐私的保护存在不足,如普遍缺少对未成年人网络信息隐私的保护。[21]朱颖透过对96个移动互联网客户端APP隐私保护政策的分析, 发现我国移动APP在隐私保护政策制定和实施方面的问题有水平参差不齐、存在霸王条款、缺乏协商机制、效果不够理想等问题。[22]而到了今天,这些问题在互联网平台上也依然没有彻底得到改善。

通过相关文献的整理,可发现关于算法时代该如何进行隐私保护,学界主要围绕用户自身、平台与法律三个重要主体展开,但大都是分开单独阐述,缺乏完整性与相互补充。

三、三方主体面临的隐私保护矛盾困境

(一)用户:隐私态度与隐私行为的矛盾

关于算法时代下我们所探讨的要保护的隐私内容,更多指的是用户在互联网平台所产生的个人相关信息,包含个人注册信息、行为痕迹、浏览内容、地理位置、兴趣爱好等重要隐私内容。

而如今互联网用户的生活,已离不开智能终端与各类五花八门的应用程序,不管是终端还是应用软件,它们运行的最终载体与背后的资本力量都是互联网平台。在用户使用这些终端和应用之前,都需要输入个人身份的具体信息进行注册,如身份ID、手机号、地理位置隐私信息等,并且还需要授权同意接受开启地理位置跟踪、麦克风开启、摄像头开启等权限,否则便无法使用这些互联网平台提供的服务。这便意味着,互联网平台可以得到海量用户的个人隐私信息,而用户个人隐私信息也存在随时被泄露与窃取的风险。

对于算法时代下的隐私保护,用户所要面对的矛盾困境有两个:一是存在已久的——用户自身隐私保护态度与隐私保护行为的矛盾;二是近年来出现的新现象——隐私关注与隐私疲劳两种态度的矛盾。

1.隐私态度、行为的矛盾:隐私关注VS隐私披露

早有研究发现,不少用户对于隐私保护的态度和实际行为并不一致,即用户虽然重视算法背后的个人隐私安全问题,但也热衷于在互联网平台主动披露个人隐私相关的信息,学者们将这种相互矛盾的现象称为“隐私悖论”[23]。

在中国青年报社社会调查中心做的一项调查中显示,75.3%的受访者曾被算法推荐服务困扰过;《中国大安全感知报告(2021)》也指出,有七成受访者感到算法能获取自己的喜好、兴趣从而“算计”自己。加上近几年来媒体频频爆出关于应用程序窃取用户隐私信息并通过算法技术对用户进行深入分析的新闻报道,这引起了多数用户对隐私保护的重视。算法时代下,用户的隐私关注程度有所提升,对于个人隐私的保护意识不断加强。

但逐渐提高的隐私关注意识,并没有让用户在行为上更加注重保护隐私。与此相反的是,用户们反而在行为上呈现出一个更倾向隐私披露的趋势——在年轻用户群体中,不少人愿意以披露隐私来换取互联网平台的个性化服务。

从用户作为内容需求方的角度来看,用户常会用个人的隐私数据来“喂养”算法,换取更精准的个性化算法服务。用户会自愿在一些社交平台中开启基于算法推荐的个性化服务,允许算法跟踪分析自己的浏览痕迹,进一步提供自己喜欢的个性化内容,甚至自愿提供自己的画像标签或者浏览偏好,遇到不喜欢的内容推送也会点击“不喜欢此内容”等,以此优化算法的推荐准确度。即“算法受众还会将自己的谋略主动嵌入到算法规则中”[24],这也意味着用户主动接受算法以及其背后隐藏的隐私泄露风险。

2.两种隐私态度的矛盾:隐私关注VS隐私疲劳

随着社会各界对隐私保护的重视,互联网平台也出台了关于用户的隐私保护条例或保护政策,但这样的举措也并没有从实质上提高用户的隐私保护意愿。由于这些条例或政策多以长文字形式在用户点开应用后呈现,且掺杂大量专业术语,从某种程度上会增加用户的阅读理解负担,多数用户往往会选择直接点击跳过,或者在粗略浏览后点击同意。

因此,在现实中,这也导致多数用户存在两种相互矛盾的隐私态度。一方面是因算法对私人领域侵入性而担忧,形成了越来越显著的隐私关注;但另一方面,用户认为在算法环境下隐私被使用已无法控制,且用户认为平台提供的保护条例与措施过于繁琐复杂,难以被理解,因而逐渐产生了隐私疲劳的态度。[25]“隐私疲劳反映了网络用户对隐私问题的一种倦怠感,这种疲劳是由网络隐私保护的杂性和对数据泄露风险的低估带来的,会降低用户对隐私问题的关注。”[26][27]

这两种矛盾的态度也使得用户在隐私保护中处于弱势地位,用户无法对隐私进行全面而彻底的保护,这背后折射的更多是一种用户的妥协,本质上还是用户难以摆脱平台背后算法技术所提供的服务。

(二)平台:精准营销与平台责任的矛盾

算法的诞生与在互联网上的应用,让互联网平台实现了营销方式的转变以及营销效果的突破。以往的营销往往只能根据媒体的属性,通过购买传统媒体上的广告位,填充广告信息,以此来触达目标受众。在这样的营销方式中,媒体是重要的中介渠道,虽然它的辐射影响范围广、触达人群多,但它的营销效果却始终无法做到精准,这也是传统营销的一大局限。随着算法在各大互联网平台的广泛应用, 如今的营销方式从购买媒体转变为直接购买目标人群,精准的营销效果弥补了传统营销效果的不足。算法以互联网平台作为载体,渗透到营销的每一个环节之中。它通过平台收集到海量用户数据,搭建模型分析并向不同的用户分发个性化的广告内容,使得平台上广告位的内容可以自动精准匹配到真正的目标用户。

可以说,如今的数字营销已正式迈入精准化阶段。多数互联网平台因为掌握着算法技术,成为重要的精准营销载体。这样的地位为平台带来了巨大的商业利益,首先是精准营销效果的实现吸引来了广告主;其次是广告位售卖方式上也由“一位一客户”变成了“一位N客户”,创造了更多合作与变现的空间;最后是精准营销下的程序化广告与智能广告模式也为平台节省了大量的人力与时间等成本。无疑,平台在精准营销中成为了最大的利益获得者。

算法时代下,在我国,阿里巴巴、腾讯等互联网企业的商业触角已涉及用户的购物、社交、娱乐等生活中的方方面面,建立起全生态型平台。在这些平台的商业化运营中,必然少不了使用海量用户的个人数据,以算法为核心技术基础,进行精准营销。这背后算法的“信息处理、承载和利用方式也引发了隐私风险和数据不当适用的伦理风险”[28]。

因此,平台在利用大规模用户数据进行精准营销的同时,需要承担一定责任。“互联网企业掌握了更多的个人隐私信息,相应地个人敏感度和感知风险相对更高,就需要有更多个人的信任需求,根据权责对等原则,要求企业承担更多的责任”[29]。对于用户来说,互联网平台毫无疑问需要承担起对每个用户个体的隐私保护责任,而对于社会来说,平台同样也要承担起对用户群体的隐私保护责任,这是由平台在当下所获取的社会资源以及其扮演的社会角色所决定的。

可见,互联网平台在算法时代的隐私保护中,所面临的一大矛盾困境即是需要平衡好精准营销与平台责任两者的关系。如何在谋取商业发展的同时,承担起相应的社会责任保护平台用户的个人隐私,也成为平台可持续发展道路上亟待解决的重要命题。

(三)社会:经济发展与社会治理的矛盾

随着大数据、云计算、人工智能等技术的发展,算法技术变得愈加精确且复杂,它所覆盖的领域也越来越广泛。人们每天都在手机APP上浏览的新闻,部分是由合成型算法自动创作的;人们在购物平台上浏览的商品信息,多数是由算法对用户偏好进行分析后推荐的;人们出行使用的地图APP, 也需要根据用户的起始地点与所处场景进行算法分析找出最佳路线。

“用户个人信息和数据是智能产业发展的‘石油资源’,算法则是实现海量数据的真正价值通路,信息和数据只有通过算法能力的扩张才能真正实现其价值。”[30]因此,基于庞大用户群个人信息与数据的算法,被应用于社会的各行各业中,甚至算法技术还为社会经济发展催生了部分新兴行业。算法对经济发展的重要性日益突出,一些行业的经济发展布局与战略顶层设计也都离不开算法技术,可以说,社会已经真正迈入了算法时代。

《智能算法与数字经济新业态发展报告》提出,“智能算法的广泛应用正重构着生产、分配、交换、消费等经济活动各环节,其合理使用给各环节的经济主体带来了福利改进”。[31]在此背景下,算法逐渐成为一种产业,彰显出巨大的商业价值,有学者提出“算法产业已成为推动经济发展的新引擎”[32]。

算法对社会经济发展起到了重要的推动作用,对整个社会行业的运转也具有极大的影响力,但这样巨大的影响力也使得算法的权力悄悄膨胀,算法技术背后所潜藏的隐私泄露问题也成为社会治理当中不可忽略的一个重点。

算法的基础是海量的用户数据,掌握这些用户数据意味着算法可以对社会上的每个人的信息了如指掌,用户的隐私在算法面前变成了毫无保留的“明私”。通过这些隐私信息,算法可以监视人们的生活状态与活动轨迹,甚至可以凭借社会、平台、用户对它的技术依赖,操纵人们的决策行动,规训人们的观念意识,渗透到社会生活的每一个环节。借助对公众隐私的可获取权限,算法膨胀的社会权力在快速不断膨胀,而更令人担忧的是,算法权力实质上是资本的权力[33]。虽然近年来,我国主要从制定相关法律法规的方式,将算法对隐私空间的入侵进行一定的规制,但社会上由算法导致的隐私问题依然还是层出不穷,并没有得到根本解决。因此,未来国家对算法的规范、对隐私的保护也必将成为社会治理的重中之重。

经济发展对社会进步至关重要,但减少算法入侵隐私空间的社会治理工作同样也迫在眉睫。经济发展与社会治理如何平衡,是社会主体在算法时代的隐私保护中需要解决的难题。

四、隐私保护的路径方向

(一)用户:提高隐私保护意识,加强隐私保护行为

在算法时代的隐私保护中,用户相较于平台与社会两方主体,会处于更加被动的弱势地位。因为平台作为算法技术的载体,对算法技术的应用与对用户的隐私保护具有可操作的空间。社会则可从宏观把控的角度对平台算法背后的隐私保护进行监管与约束。而用户所能做的,就是提高自己的隐私保护意识,并加强隐私保护行为。

近年来频繁曝出的隐私泄露事件已让大多数用户觉醒,加强了隐私关注。但由于隐私泄露事件反反复复发生,用户防不胜防,所以不少用户开始产生隐私疲劳的态度,在意识上低估了隐私泄露所具有的消极影响力,对算法下的隐私入侵放松警惕,甚至是熟视无睹。随着算法越来越智能、算力越来越精准,用户的掉以轻心只会带来更严峻的隐私风险。因此,对于用户而言,最关键的应该需要提高隐私保护意识,重视算法时代下的隐私问题。

除了提高隐私保护意识之外,用户也应该保持隐私态度与隐私行为的一致,将隐私保护落实到具体行动中,加强隐私保护行为。在使用算法等其他技术提供的平台服务时,用户应当仔细浏览相关的隐私条例与隐私提示,了解个人数据的使用与处理方式;同时,用户也应在提供个人信息的同时,在自我可控的范围内做好脱敏、匿名、去标识化等操作,避免个人隐私被非法利用。

(二)平台:加强平台管控和技术隐私保护

平台作为算法技术的应用载体,在隐私保护中起着至关重要的作用,因此平台也需要积极承担起社会责任,保护用户的隐私数据。对于平台来说,做好隐私保护主要有两个路径,一是从技术上实现隐私数据的加密、脱敏等方式的处理,二是从监管上通过平台条例或政策进一步规范对用户数据的使用。

在小学、初中的过渡阶段,由于学习内容、知识点难度和授课方法上的巨大差异,以及不同学生本身在基础知识水平和认知能力上的区别,导致很多学生难以迅速融入初中阶段的学习生活。若教师、学校未能有效帮助学生克服种种不适应,则可能会引起学生的厌学情绪,不利于其成长。英语学科由于在日常生活中往往难以具备语言环境,一直都是学校教学中的难点科目。并且小学与初中阶段的英语教学,无论是知识点、题型还是教材都存在区别,因此为防止学生成绩滑落,需在过渡阶段特别加以注意。

目前,在技术层面的隐私保护工作中,互联网平台的两大巨头苹果与谷歌都已开始了尝试。苹果在ios14.5系统中加入了“APP跟踪透明度”和“APP跟踪设置”,当第三方渠道需要跟踪到用户的信息或相关数据时,手机就会跳出弹窗提醒用户并询问用户是否同意。而谷歌则通过开启隐私沙盒的设置,阻止广告主通过第三方Cookie在用户不知情的情况下追踪利用用户的个人数据。

但相对于国外的互联网平台,我国的互联网平台目前对用户隐私保护的技术成果并不显著。整体看来,我国成千上亿的用户隐私数据仍面临着被泄露、被公开、被非法利用等风险。

因此,在未来的发展中,平台应当从技术出发,根据目前对用户隐私保护工作的实际漏洞,同时考虑到算法技术的侵入性与不透明性,重点对用户数据的挖掘、使用、储存、传播等环节进行技术加密设置,对数据内容本身进行脱敏、去标识化、匿名化等处理,让数据发挥出应用价值的同时,也能保有私密性。

除了技术手段之外,平台也应通过相关隐私条例的方式进一步加强监管。平台面向用户的隐私保护条例应以用户为中心,切实考虑到用户的隐私利益,以通俗易懂的文字展开说明,而非堆砌一些具有知识门槛的专业术语与冗长的条例,让用户感到隐私疲劳。而对于接入平台的数据使用方的隐私条例,也应对其使用用户数据的范围、责任、违法后果等做好清晰的说明,并对数据使用方进行严格的平台监督。

(三)社会:出台更细化的法律、加强第三方有效监管

在算法时代的隐私保护中,社会是平台-用户之外的重要的主体,社会能从政府入手,站在更宏观的层面对隐私保护工作进行全面的把控。在未来,对于社会主体来说,加强立法与第三方监管是隐私保护工作的两个主要路径。

从中我们可以发现,我国法律对于算法时代的隐私保护越来越细化,从对整体数据安全与个人信息的宏观保护,逐渐过渡为针对导致用户数据与隐私受威胁的技术或服务,进行更微观取向的立法与规范,这也说明未来面向公众隐私保护的立法会更加具体,既对涉及隐私的接触或操作主体作出法律要求,也对涉及隐私的技术或服务本身进行规范。

除此之外,社会还应通过第三方渠道对互联网平台的算法应用进行有效监管。在科技是第一生产力的时代背景下,掌握算法等前沿技术的平台往往更容易获取更多资源,从而能谋取到更多经济利益。目前在我国,互联网行业已出现几家独大的局面,它们掌握了海量用户的个人隐私信息,权力不断膨胀。因此,社会需要通过政府这个第三方主体加强对平台的严格监管,以此平衡平台不断膨胀的权力,保障用户的隐私信息安全。

五、隐私保护面临的未来挑战

(一)“全息+算法”带来的“扫描式数据”隐私风险

元宇宙无疑是近两年来的一大科技热点,受到社会各界的资本追捧,渗透进游戏、社交、艺术等各个行业中,因此,2021年也被认为是“元宇宙元年”。而随着元宇宙的快速发展,全息技术也因为能进行更逼真立体的投影,得到了更广泛的落地应用。未来的全息技术可能将用户外部表征与身体内部的数据“扫描式”地一一传输到平台上,“我们看什么、看多久,甚至于我们观看时微妙的生理反应、心理变化、情感波动等,都会得到数据化的记录和传输,而这对平台和广告主来说都是一笔巨大的无形资产。”[34]算法技术则能在这些“扫描式”数据的基础上,进行更精细的分析与洞察,得出用户的状态、想法、意愿等更深入的隐私信息。在“全息+算法”的时代背景下,用户由内到外地以数据信息形式暴露,从内在想法到外在全貌,都难逃算法的掌控,用户所产生的隐私数据会呈现出信息数量更大、信息内容更真实、信息链条更难以追踪、传播范围更广的趋势。这些“贴身数据”会成为平台所掌握的数据资产的一部分,随着资本流动的链条而流动。对社会与公众来说,这意味着更大的隐私威胁,一旦隐私数据被非法利用,用户的切身利益就会严重受损,甚至因为这种“扫描式数据”可被复制化,所以还可能会引发伦理相关的问题。这在元宇宙、全息技术快速发展的未来,对用户、平台与社会的隐私保护会是一个全新的挑战。

(二)数据围墙导致的“零散化数据”

数据围墙指的是各大互联网平台为了保护平台利益,建立起用户数据的技术屏障,防止用户的数据信息流入到其他平台上,被其他平台商业化利用。而实际上,数据围墙的设立并没有改善用户隐私保护的困境问题,反而使用户的多类信息都零散化地分布在各个平台上,加大了用户、平台与社会进行信息隐私保护的难度。

从目前的行业趋势来看,互联网平台之间筑起的数据围墙越来越高,用户的海量数据被多方平台叠合化地储存与使用,呈现出零散化的特征。在这种情况下,对于用户来说,受平台数据壁垒的影响,每当用户在使用平台提供的服务的时候,都要再提供一次个人相关数据,隐私信息也就更零散化地泛滥在互联网平台上。对用户来说,这在带来不便的同时,也增加了自我隐私信息管理的难度;对于平台来说,多平台之间筑起的数据围墙加剧了平台对用户隐私保护工作的管理风险与被动程度,原因在于即使某一方平台自身做好了隐私保护的工作,但只要其他平台使用数据不当,用户的隐私也还是同样会被泄露出去,整体难以管控。当隐私数据管理不善时,就会引发两个问题:一是对于应当承担责任的主体平台难以追溯,二是平台对隐私保护所做的实践努力难以准确衡量效果,每个平台对隐私数据管理的风险都会扩大;对社会而言,各个平台都纷纷建立起数据围墙,社会从外部对平台进行监管的阻力就更大,而且不同的数据围墙也意味着各平台的隐私保护水平参差不齐,它们之间无法达成一致的保护措施,这也使得社会难以进行统一化的高效监管。

因此,如何应对互联网平台数据围墙带来的“零散化数据”,如何降低“零散化数据”背后潜藏的隐私风险,也是用户、平台与社会在未来面临的另一挑战。

六、结语

算法时代的到来,确实给人们的生活带来了诸多便捷之处。但与此同时,我们并不能忽略算法技术在不断的升级发展中,给社会和个体的隐私保护工作带来的威胁。在算法权力不断膨胀的今天,用户、平台与社会都应正视算法时代下的隐私保护问题,在矛盾困境中做好取舍与平衡,并通过相应的举措减少算法给隐私保护带来的风险。而在未来可能出现的“扫描式数据”与“零散式数据”的新挑战中,用户、平台与社会也应该坚守隐私底线,以社会与公众利益为重,避免隐私沦为“明私”。

猜你喜欢

算法用户
通报:存在侵害用户权益行为的84款App
国际主流轧差算法介绍:以CHIPS的BRA算法为例
基于用户和电路的攻击识别方法
2021少儿出版用户触达能力指数
Travellng thg World Full—time for Rree
信用卡资深用户
学习算法的“三种境界”
算法框图的补全
算法初步知识盘点
比比谁的算法妙