APP下载

算法推荐的信息传播危机与协同共治模式

2023-09-19钟晓雯张洁茹

荆楚学刊 2023年4期

钟晓雯 张洁茹

摘要:算法推荐具有收集、筛选、推送信息和记录的“权力”,具有技术属性,同时因智能传播时代下算法决策取代了人工决策,算法推荐技术又充当着传统媒介中的人工价值判断角色,具备了价值负荷属性。算法推荐的双重属性不仅形成信息茧房及衍生回音室效应,加剧社会价值观的分化,且催生了圈层区隔,导致群体极化滋生和信息操纵风险蔓延,扰乱网络信息的生态场域。摆脱算法推荐在智能传播时代的负面效应,必须构建多元主体共同治理算法推荐模式:智能媒体平台应强化社会责任,加强算法的“自我规制”;政府需加强算法监管,形成算法安全治理格局;用户应享有算法解释权,塑造“算法协治者”形象。

关键词:算法推荐;技术属性;价值负荷属性;信息传播危机;协同共治模式

中图分类号:G206;TP391.3     文献标志码:A      文章编号:1672-0768(2023)04-0076-06

算法初始运用于计算机科学中,是数学领域中用以解决某一问题的方法,由算法衍生而来的算法推荐则与智能传播休戚相关。在智能传播时代,互联网承载着海量的信息数据,诸如新浪、今日头条、抖音等智能媒体平台为有效整合信息数据和实现信息分发与用户个性化需求间的精准匹配,纷纷引入算法推荐技术。算法推荐能够通过收集分析用户在网络空间中留下的数字痕迹(注册信息、浏览日志、历史评价记录等),挖掘用户的兴趣偏好,精准勾勒出用户“个人画像”,并对用户进行个性化的信息推荐与分发,从而增强智能媒体平台的用户粘性。然算法推荐的广泛运用,不仅颠覆了传统信息传播的手段,也重塑了网络信息传播的话语格局,为信息传播领域带来了诸多挑戰。网络信息传播关乎整个国家意识形态的安全,故本文拟结合算法推荐的双重属性——技术属性和价值负荷属性,剖析算法推荐所引发的信息传播危机,从协同共治的角度提出算法推荐的多元主体治理模式。

一、双重属性:算法推荐的技术属性与价值负荷属性

算法推荐下的智能传播与传统传播的差异本源在于算法决策取代了人工决策,鉴于算法的技术属性,智能传播实现了信息传播的精度与效度,然算法推荐在遵循其技术逻辑的同时,又充当着信息把关人的角色,具有了价值负荷的属性。

(一)算法推荐的技术属性

算法推荐作为信息传播领域的前沿技术工具,能够满足用户的个性化需求,增强智能媒体平台的用户粘性。具体而言,算法推荐通过海量收集、筛选并整理用户在网络空间中留下的数字痕迹,包括用户注册信息,用户阅读、搜索、浏览、评论记录等,能够全面系统地对用户进行参数分析,精确勾勒出用户的兴趣和偏好图谱,形成精确的用户“个人画像”。智能媒体再根据该“个人画像”对相关信息内容进行过滤和筛选,将契合用户兴趣和偏好的信息精准地分发至目标人群,从而实现算法推荐的精准预测、推送和反馈的技术功效。

需要注意的是,算法具有“黑箱”性质,这与算法的技术运行原理密切相关。从技术原理层面观察,算法是一种计算机程序,其是在数据采集和训练的基础上,依据已设定的数学规则进行运算并输出结果,简言之,即算法包括了输入、运算、输出三个步骤,是程序设计加数学规则的集合。即便人们能够获悉算法的数据输入和输出结果,但对于算法内部的运算过程却无从得知,这便形成了算法“黑箱”,正如控制论对于“黑箱”的定义——“所谓黑箱是指这样一个系统,我们只能得到它的输入值和输出值,而不知道其内部结构。”[ 1 ]因此,鉴于算法所形成的“程序设计+数学规则”的高度技术性和复杂性,非算法专业人士尤其是普通公众,将无法掌握或理解算法的运行和决策原理。此外,随着算法技术的更新迭代,技术层面的算法“黑箱”会呈现日趋强化的趋势,尤其是当算法“黑箱”处于进阶形态( 1 )时,即便是算法专业人士甚至算法部署者可能都无法解释清楚算法的运行和决策原理[ 2 ]。

(二)算法推荐的价值负荷属性

算法推荐作为技术勃兴的产物,在推动人类生产和生活方式颠覆性变革的同时,也具有价值负荷的属性。价值观的形成是受到多种因素制约的,但新闻媒介的影响力不容小觑。在纸质传媒时代,新闻的内容经过专业编辑的把关,其中的意识形态与价值观念也当然经过了选择,具有普世意义的价值观更容易得到采纳与传播,并因此影响终端用户,促进用户正确价值观的塑造。算法推荐在赋能信息精准化分发,提高信息分发接收率的同时,也能够对用户行为作出实时反馈,并逐渐引导用户的价值去向,盖因算法推荐技术具有收集、筛选、推送信息和记录的“权力”,充当着传统媒介中的人工价值判断角色,一定程度上会造成新闻把关权的转移。

算法推荐在技术属性上可归结为一种运算程序,但其在信息传播领域的运行中实际上形成了包含算法运行团队、新闻价值观在内的一整套系统架构[ 3 ]。代码的内嵌规则决定了算法推荐不可避免地会隐藏人的自主意识,彰显价值负荷属性。算法部署或使用者在算法部署及使用过程中或多或少会嵌入自身的价值观念或主观意图。例如,数据集选取、变量选择、权重设定、架构设计等均是算法部署者在设计算法推荐任务时需考量的因素,且可能受到个人价值观念或主观意图的影响。再如部分智能媒体平台可能出于增强用户粘性、达到流量最大化、攫取商业利益的目的而肆无忌惮地在使用算法推荐技术时嵌入利润导向的价值维度,更甚者不惜制造“脏数据”,污染媒介生态场域[ 4 ]。同时,以大数据和深度学习为底层逻辑的算法推荐能够根据用户对于信息的点击次数、停留时间、屏蔽、转发、评论内容等,动态掌握用户的价值倾向,进而通过精准分发信息逐渐引导用户价值观的变化。值得注意的是,当算法部署者或使用者在算法中嵌入自身的价值观念或主观意图后,算法在其后续的技术更新迭代过程中仍会沿袭且不断深化和放大此种价值倾向。

二、链式反应:算法推荐引发信息传播危机

算法推荐的技术与价值负荷的双重属性将引发主流意识形态传播的危机,具体体现在以下两个方面。

(一)回音室效应加剧社会价值观的分化

价值观分化即社会意识形态结构从同质、单向走向异质、多元,并出现不同价值偏向的过程[ 5 ]。算法分发信息会根据用户的初始选择向用户主动推送相关新闻,尽管算法只是对同类信息、偏好信息的推送,并不创造新的内容,但同类推荐会形成封闭的信息空间,隔绝多元信息穿透传播的可能性,致使用户接收到的信息趋于同质化,尤其将形成信息茧房,衍生回音室效应。2008年凯斯·桑斯坦提出了“信息茧房”和“回音室效应”的概念,其认为尽管互联网技术可以促使人们逃离地理学上的茧房和回音室,然互联网中的个性化信息服务过滤了多元化的观点,而不同网络群体更倾向于选择和获取自己感兴趣或与自己观点相同或相似的信息,并忽视与外部世界的交流和沟通,此种持续衍化的群内同质和群际异质现象会产生信息茧房效应,即如同置身于蚕茧般作茧自缚,进而形成回音室效应[ 6 ]。“回音室效应”最初缘起于凯斯·桑斯坦的著作《网络共和国:网络社会中的民主问题》,其意指信息过滤机制使得人们只获取到他们感兴趣或认同的信息,长期以往,当这些信息中所蕴含的观点不断重复并加深,人们在这个信息封闭的圈子中将只能听到自己的“回声”,变得容易固守偏见甚至误将偏见视为真理,进而排斥和拒绝其他的合理性观点和意见[ 7 ]。

信息茧房及其衍生的回音室效应并非在算法时代才出现,然算法推荐下的精准化、个性化之信息传播加速形成了信息茧房,致使回音室效应不断演化和蔓延。此种场景下,拥有相同或类似价值观的用户将极易被相互吸引且形成同类社群,并在偏好推荐产生的回音室效应中不断固化其既有的价值观。这种同类社群仅为一种多元化的小众空间,其在同类推荐和偏好推荐的加持下所不断固化的价值观与普适性的价值观可能并非完全一致,甚至相背离。此种多元化小众空间的普遍存在及其价值观的形成与固化在一定程度上会削弱社会主导价值的认同根基,增加社会价值共识崩解的风险,加剧社会价值观的分化。

(二)圈层区隔扰乱网络信息的生态场域

从短期来看,算法推荐的精准化分发信息功能便捷了人们的生活,然如前述,算法分发信息极易形成封闭信息空间,催生具有高度同质性的多元化小众同类社群。此种同类社群中的个体往往具有类似或相同的价值观点,并在回音室效应下不断固化其社群内部的价值观,长期以往,不同社群的价值观差异将会逐渐演化为不同社群的个体借以相互区分的数据标签,进而形成圈层区隔。圈层区隔容易滋生群体极化,且暗含信息操纵风险,破坏网络信息的生态场域。

同一圈层中的个人往往具有类似或相同的价值观点,一旦某一圈层中的个体与另一圈层的个体产生矛盾,个体间的矛盾容易演化为社会阶层矛盾,正如美国学者凯斯·桑斯坦所指出的:“网络对许多人而言,正是极端主义的温床,因为志同道合的人可以在网上轻易且频繁地沟通,但听不到不同的看法。持续暴露于极端的立场中,听取这些人的意见,会让人逐渐相信这个立场。”[ 8 ]同时当前处于信息大爆炸时代,但在算法推荐下的人类长期处于信息偏食状态,产生了信息获取的路径依赖,其信息甄别能力和理性思考能力将被削弱,如此一来,人类将难以在海量数据、信息和知识冗余中识别并思考真实、有益的成分,以致极易被不良信息、极端信息所误导,从而增加群体极化行为出现的可能性。

此外,算法推荐技术的单一信息环境使得网络信息生态环境暗含信息操纵风险。算法推荐使得人们长期处于同质化的信息氛围并陷入圈层区隔的漩涡中,这就给虚假信息的传播制造了机会。虚假信息与突发公共事件通常存在伴生关系,当突发公共事件发生且相关职权部门的调查和信息公开无法在短时间内完成并满足人们内心预期时,不法分子即可能制造虚假信息,并利用人们在算法精准分发信息下形成的固有认知框架或偏见,进一步传播虚假信息,破坏网络信息生态场域。

三、协同共治:构建多元主体共同治理算法推荐模式

针对算法推荐所引发的主流意识形态传播危机,需要充分发挥平台、政府以及用户的治理功能,构建多元主体协同治理模式。

(一)平臺自律:强化社会责任,加强算法的“自我规制”

算法“黑箱”的天然存在致使算法运行和决策原理的难以预测和解释性会持续存在,即便算法部署者也难以完全控制算法,这形成了某种意义上的“技术无意识”[ 9 ]。尽管如此,由算法部署者以自律的方式(算法的“自我规制”)来规范算法的设计和运行,仍然较之其他社会主体更具优势,“自我规制对相应的知识与相关的专家能够实现更加有效的调动,具有及时性、富有弹性的特征,更加适合事物本质。”[ 10 ]故智能媒体平台作为算法推荐技术的部署者,应当强化自身的社会责任,将传播正能量信息作为己任,充当协同治理的技术主体。具体而言,智能媒体平台在规制算法推荐过程中应回归技术本身,采取优化算法推荐技术的核心路径,不仅需要优化算法设计,同时应加强算法研发伦理培训和创新信息审核模式。

首先,智能媒体平台应将传播正能量信息设置为算法设计的核心任务,在算法初始设计中植入算法公平、算法正义、公序良俗等原则性要求,借以优化并支配算法推荐下的信息生产、输出和分发过程。当前美国在算法风险的治理上也主要以自律规范为主,其国内大型网络公司作为主要算法部署者被要求进行自我监管,比如Google的AI伦理委员会就致力于建立算法应用的伦理准则,自我纠正算法产生的不利后果。

其次,鉴于算法“黑箱”的存在,潜藏在代码背后的算法研发人员的价值偏向往往难以被发现和监管。因此,增强算法研发人员的道德自律是确保智能媒体平台运用算法推荐传播正能量信息的重要前置条件。智能媒体平台应当对算法研发人员开展专门性的算法伦理培训服务,通过伦理培训的前端遏制能够最大限度地预防算法被嵌入价值偏向。

最后,在算法生产、输出和分发信息的全流程中层层设置“过滤网”,智能过滤涉历史虚无主义、个人享乐主义、极端民族主义等不良价值观的数据。但当前的智能过滤尚无法完全识别信息中的“隐语义”,在采用智能过滤的同时,仍然需要利用人类自身的价值观念和专业知识对算法所生产、输出和分发的信息作进一步审核,即需要采用技术+人工的协同审核模式,从而形成传播正能量信息的有序格局。

(二)政府规制:加强算法监管,形成算法安全治理格局

作为公权力中心的政府也应当加强对算法推荐的监管,构建算法安全监管体系。2021年《关于加强互联网信息服务算法综合治理的指导意见》《互联网信息服务算法推荐管理规定(征求意见稿)》相继发布。结合这两份法律文件,政府应当在总体上建立算法推荐服务提供者的分类分级管理制度,实现事前、事中、事后的全链条监管,形成算法安全治理格局。

建立算法推荐服务提供者分类分级管理制度的首要前提是要合理划分算法的风险等级。我国《个人信息保护法》第55条( 2 )和第56条( 3 )形成了个人信息保护影响评估制度的规范群,尽管其直接指向的是个人信息保护,然实际上可扩张适用于各类算法应用场景,故算法的风险等级设置也可参照此规范群,即依据算法自主决策程度、对个人权益和社会公共利益的影响程度以及适用场景性质等因素,将其划分为低风险、中风险与高风险三个等级。完全依据预定程序处理数据,且不存在算法自主决策,亦不影响个人权益和社会公共利益的算法可列为低风险算法,目前低风险算法主要应用于在线翻译、游戏娱乐等场景。通过采集用户信息运行并充当协助人类决策角色,可能存在侵害个人权益和社会公共利益的算法可列为中风险算法,目前中风险算法主要应用于搜索引擎、新闻推送、司法辅助等场景。高风险算法即指的是由算法自主决策完全取代人类决策,可能存在直接影响个人权益和社会公共利益的算法,目前主要应用于金融领域、信用评分、行政决策等场景。

依据前述所言之低、中、高的算法风险等级划分,在事前监管上,对于运用低风险算法的算法推荐服务提供者应采取较为宽松的备案制度,而对于运用中、高风险算法的算法推荐服务提供者,则应采取审批制度,并课以其相应的算法公示披露义务。运用中、高风险算法的算法推荐服务提供者,应当公示算法推荐的应用场景,披露算法数据选取、采集与使用情况等。此外,课以算法推荐服务提供者披露义务的同时应注意服务对象的知情权与服务提供者的知识产权间的利益平衡,免于算法推荐服务提供者披露涉及商业秘密的算法技术细节。同时,囿于算法“黑箱”的天然不可解释性,应当避免对算法推荐服务提供者课以过重的披露义务,以避免矫枉过正。在事中监管上,需要结合算法的风险等级建立健全算法安全风险监测和评估制度。对于运用低风险算法的算法推荐服务提供者,相关职权部门应定期开展算法安全风险监测和评估工作,而对于运用中、高风险算法的算法推荐服务提供者,应常态化开展算法安全风险检测和评估工作,实时监测并评估算法设计、部署和应用等环节的缺陷和漏洞,以便及时发现并应对算法应用安全问题。在事后监管上,应当建立算法回查制度,即要求算法推荐服务提供者切实记录并妥善保存涉及算法推荐核心环节的资料(如数据集的选择、算法的选取等),以便相关职权部门随时回查。

(三)用户协治:赋予用户权利,塑造“算法协治者”形象

智能媒体平台运用算法推荐的初衷是为了在多元信息环境中及时地向用户推荐和分发其感兴趣且新鲜的信息,从而增加用户黏性和忠诚度。用户作为算法推荐的服务对象,算法推荐直接关系着用户自身权利,故用户理应享有相应的权利,并以“算法协治者”的形象与其他主体共同规制算法推荐。

用户作为“算法协治者”的关键在于落实算法解释权。关于算法解释权,《个人信息保护法》第24条第3款已有立法雏形,即“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明。”该条款将算法解释权的适用范围限定为自动化决策场景,同时《个人信息保护法》第73条第2项将自动化决策定义为“通过计算机程序自动分析、评估个人的行为习惯、兴趣爱好或者经济、健康、信用状况等,并进行决策的活动。”因此,若单纯从文义解释的角度分析,自动化决策似乎只与完全由计算机程序作出的决策相关,并不包括含有人工干预因素的辅助型算法决策。此种解释下,运用算法推荐技术精准分发信息的智能媒体平台似乎无法纳入算法解释权的适用范围内。

实际上,不能机械、武斷地单从文义解释的角度将含有人工干预因素的辅助型算法决策排除在算法解释权的适用范围外,而应结合立法目的作合理的扩大解释。《个人信息保护法》的立法目的在于保护个人信息权益,规范个人信息处理活动和促进个人信息的合理利用,而如前述,通过采集用户信息运行并充当协助人类决策角色的算法其风险等级应被定位为中级,同样存在侵犯个人权益和社会公共利益的可能性,可见,一律将辅助型算法决策排除在算法解释权的适用范围外并不符合立法目的。对此,欧盟《通用数据保护条例》(General Data Protection Regulation,GDPR)的相关规定具有借鉴意义。GDPR将决策区分为人工决策和自动化决策,并将没有实质意义的人工干预划归为自动化决策[ 11 ]。为防止算法使用者投机性规避该条款,欧盟GDPR工作组发布的AP29指南表明人工干预应当具有实质的监督意义,应当由具有权限和能力对决策结果进行改变和影响的人执行,不能因为具有人工因素就彻底排除在自动化决策的范围之外[ 12 ]。换言之,即具有人工因素,但该人工因素并无实质监督意义,无法对算法决策结果进行改变和影响的辅助型算法决策仍然应当归属于自动化决策。

以运用算法推荐技术的智能媒体平台为例,从表征来看,算法推荐技术是以智能媒体平台的工具的形态存在的,然实质上,智能媒体平台在精准分发信息过程中主要依赖的是算法推荐技术(计算机程序),其勾勒的用户“个人画像”直接决定了智能媒体平台生产、输出和分发的信息的类型、内容等。尽管部分智能媒体平台可能在信息分发前采用人工审核信息的方式,但这仅仅是对算法决策结果进行的事后审查,而非直接改变和影响算法的决策结果。可以说,此类辅助型算法决策与自动化决策的内涵与外延并无本质差别,故也应将运用算法推荐技术的智能媒体平台纳入自动化决策的范围内,赋予用户相应的算法解释权。用户算法解释权的内容主要体现在两方面:一是用户有权要求平台针对其“个人画像”形成的逻辑和依据(包括平台抓取的数据类型、特征,形成画像的具体维度等),以用户可理解的语言进行解释;二是用户有权要求平台针对算法推荐下的信息生产、输出和分发逻辑以用户可理解的语言进行解释。

总体来说,《个人信息保护法》第24条第3款为智能媒体平台的用户行使算法解释权提供了法律依据,但该条款仅笼统地规定当使用智能媒体平台利用算法推荐作出的决策是“对个人权益有重大影响的决定”时,用户得以行使算法解释权,但并未明确阐释何为“对个人权益有重大影响的决定”,也未廓清智能媒体平台的算法解释限度。

关于何为“对个人权益有重大影响的决定”,我国2021年6月实施的《信息安全技术-个人信息安全影响评估指南》(GB/T 39335-2020)对个人权益影响分析作了详细规定,其中第5.5.1条将个人权益影响划分为四个分析维度,即限制个人自主决定权、引发差别性待遇、个人名誉受损或遭受精神压力和人身财产受损,并基于此在附录表D3将个人权益影响程度划分为严重、高、中、低四个等级,且明确了相应的判定准则。同时,该指南还结合前述个人权益影响划分的四个分析维度,在附录表D4中逐一列明了个人权益影响程度的具体判定标准。据此,实践中可参照这些准则和标准对何为“对个人权益有重大影响的决定”进行判定,将个人权益影响程度等级为“严重”和“高”的列为具有“重大影响”。

关于算法解释的限度,应综合考虑社会效用和应用场景。当算法的应用场景与个体人身利益和敏感信息高度相关,算法解释权的社会效用可以倾向于个体,要求算法解释内容尽量能被个体所理解,例如在医疗行业领域。当算法的应用场景与企业商业秘密紧密相连时,算法解释权的社会效用即不能过于个体化,而应综合平衡个体与企业间的利益关系,合理限制算法解释的内容[ 13 ]。由于本文主要聚焦于解决算法推荐在智能媒体平台中运用的相关问题,故算法解释限度这一问题的阐释将限定于新闻推荐和分发的场域下。如前述,新闻推荐和分发对于个体的价值观导向起着极其重要的作用,当算法推荐技术的运用造成了“信息茧房”、圈层区隔等效应时,个体的社会价值观将会逐渐演化为群体社会价值观,甚至可能衍生群体极化、信息操纵等风险,从而对主流意识形态造成冲击,危害国家意识形态的安全。故在新闻推荐和分发的场域下,算法解释与社会公共利益休戚相关,其解释限度应当在兼顾个体和企业的基础上,倾向于社会公共利益的保护。此外,囿于算法“黑箱”的天然性,或可通过立法的方式,以算法模型的合法性作为限制条件。当算法模型初始即符合立法规定时,应可免于算法部署者或使用者对算法模型作进一步解释,从而避免课以算法部署者或使用者过重的解释义务。

四、结语

算法推荐的治理是智能传播时代的重大命题,应同时考虑技术层面和价值负荷层面的要求。从目前的实践来看,技术并不必然具有中立性,基于代码内嵌规则,算法部署者和使用者或多或少会嵌入其价值观,正如尼尔·波兹曼(Neil Postman)所言:“每种技术都有其内在偏向,在它的物质外壳下,它常常表现出要派何用场的倾向。只有那些对技术的历史一无所知的人,才会相信技术是完全中立的。”[ 14 ]同时,在算法推荐下的人类因过度信息偏食,加剧形成了信息茧房,衍生回音室效应,更甚者形成圈层区隔,滋生群体极化和衍生信息操纵风险,进而扰乱网络信息生态场域。治理算法推荐的目的并不在于彻底消除智能传播路径,而是为了廓清算法推荐在智能传播时代下的技术运行逻辑和价值负荷序列,通过系统化的思考和制度化的规范,促使算法推荐以技术工具的形態造福人类。

注释:

(1)美国学者迪亚克普拉斯(Diakopoulos)将算法“黑箱”区分为两种形态:初级形态与中间形态。算法“黑箱”的初级形态对应的是监督式学习技术,其运行过程有固定模板,输入和输出都是已知信息;中级形态指的是算法运行过程中仅输出侧是已知的,其他环节具有不透明性。有学者在此基础上提出了算法“黑箱”的进阶形态,对应的是无监督式机器学习,即算法输入和输出两侧均为非透明的,形成了一个闭环黑箱。

(2)《个人信息保护法》第55条规定:“有下列情形之一的,个人信息处理者应当事前进行个人信息保护影响评估,并对处理情况进行记录:(一)处理敏感个人信息;(二)利用个人信息进行自动化决策;(三)委托处理个人信息、向其他个人信息处理者提供个人信息、公开个人信息;(四)向境外提供个人信息;(五)其他对个人权益有重大影响的个人信息处理活动。”

(3)《个人信息保护法》第56条规定:“个人信息保护影响评估应当包括下列内容:(一)个人信息的处理目的、处理方式等是否合法、正当、必要;(二)对个人权益的影响及安全风险;(三)所采取的保护措施是否合法、有效并与风险程度相适应。个人信息保护影响评估报告和处理情况记录应当至少保存三年。”

参考文献:

[1]王雨田.控制论、信息论、系统科学与哲学[M].北京:中国人民大学出版社,1988:93.

[2]张淑玲.破解黑箱:智媒时代的算法权力规制与透明实现机制[J].中国出版,2018(7):49-53.

[3]张志安,汤敏.论算法推荐对主流意识形态传播的影响[J].社会科学战线,2018(10):174-182.

[4]武豹.算法推荐时代主流意识形态传播面临的挑战及其应对[J].中国石油大学学报(社会科学版),2021,37(4):98-104.

[5]侯东德,张丽萍.算法推荐意识形态风险的法律防范[J].重庆社会科学,2021(8):77-90.

[6]凯斯·R·桑斯坦.信息乌托邦 众人如何生产知识[M].北京:法律出版社,2008:104-110.

[7]薛永龙,汝倩倩.遮蔽与解蔽:算法推荐场域中的意识形态危局[J].自然辩证法研究,2020,36(1):50-55.

[8]凯斯·桑斯坦.网络共和国[M].黄维明,译.上海:上海人民出版社,2003:50-51.

[9]王聪.“共同善”维度下的算法规制[J].法学,2019(12):66-77.

[10]高秦伟.社会自我规制与行政法的任务[J].中国法学,2015(5):73-98.

[11]姜野,李拥军.破解算法黑箱:算法解释权的功能证成与适用路径——以社会信用体系建设为场景[J].福建师范大学学报(哲学社会科学版),2019(4):84-92,102.

[12]张欣.免受自动化决策约束权的制度逻辑与本土构建[J].华东政法大学学报,2021,24(5):27-40.

[13]张凌寒.商业自动化决策算法解释权的功能定位与实现路径[J].苏州大学学报(哲学社会科学版),2020,41(2):51-60,191.

[14]尼尔·波兹曼.娱乐至死[M].章艳,译.北京:中信出版社,2015:102.

[责任编辑:王研]