APP下载

智能场域下算法对人的“圈禁”与“解放”

2023-06-19宋青励韩奥林

理论导刊 2023年6期
关键词:算法

宋青励 韩奥林

摘 要:智能场域由人工智能实践的主体要素和客体要素构成,两者的相互作用共同构成了人工智能实践的作用场。在智能场域下,人们在享受算法带来诸多生活便利的同时,也时刻面临着自身被算法“圈禁”的风险,其思想认知、判断能力、决策意识可能会受制于算法,社會地位也可能会因算法的“伪中立性”而受到不合理的禁锢。当前,算法的“伪中立性”主要表现在形成拟态环境、形成圈群文化、形成等级制度方面,算法作用下的“物化困境”“主体失位”“效率优先”,往往导致其对人的决策、劳动、隐私的“圈禁”。基于此,解除算法对人的“圈禁”,需要坚持以科学的技术手段辅助人的决策、以主流价值观引导人的劳动、以健全的法律法规保护人的隐私。

关键词:智能场域;算法;算法推荐;“伪中立性”

中图分类号:TP18

文献标志码:A 文章编号:1002-7408(2023)06-0075-08

基金项目:2022年国家社会科学基金青年项目“网络亚文化异动对青年主流价值观的消解及应对研究”(22CKS044)。

作者简介:宋青励(1993—),女,天津人,南京航空航天大学马克思主义学院博士研究生,研究方向:马克思主义中国化、社会治理;韩奥林(1991—),男,安徽阜阳人,南京航空航天大学马克思主义学院博士研究生,研究方向:马克思主义中国化。

何谓“场域”?作为一种社会学概念,场域最早由法国社会学家皮埃尔·布迪厄提出。在他看来,一个场域可以被定义为在各种位置之间存在的客观关系的一个网络(network),或一个构型(configuration)[1]。所谓构成场域的关系网络,实质上是由不同类型的权力(或资本)造成的生存处境,任何人既要受到场域中各种关系网络的影响,又有一定可能影响甚至改变客观存在的场域。在皮埃尔·布迪厄的理论体系中,具体场域之间的主体关系网络内蕴着流动性,深度内嵌于所在场域但又独立于主体意识而存在,故而具有源自场域内部的一系列强制性约束。代表不同群体的主体积极参与竞争,旨在尽可能获取有价值的符号商品,从而将经济、社会、文化等资本形态转化为形式各样的权力,以此逐步获得主体间有效的支配关系。当然,不同场域之间具有自主性、差异化等显著特征,每个场域都隐含着不同力量的博弈和竞争且没有明确边界,每个场域都不能完全脱离其他场域而独自存在,仍会时刻受到其他场域的多重影响和制约。基于场域理论分析视角,智能场域既是人工智能实践有序开展的时空形态,也是变革人工智能实践方式的重要因素,人工智能实践直接或间接地受制于智能场域的发展。当前,作为人工智能技术的产物,算法广泛应用于人们日常生活的方方面面,深刻重塑了人与人、人与社会之间的互动联系。当算法逐渐演变为具有变革意义的生产要素和技术手段时,对于算法“伪中立性”带来的潜在社会影响的研究成为学界共同关注的课题。在智能场域下,算法本身的“伪中立性”衍生了诸多现实危害,无形中促使人们在某种程度上被“圈禁”。如在一些短视频平台,算法始终隐性影响着人们的决策行为;在一些数字劳动平台,算法始终隐性控制着人们的劳动行为等。集中反思算法对人的“圈禁”,亟待从辅助决策、引导劳动、保护隐私等方面采取有效措施加以应对。

一、算法的“伪中立性”

算法具有本体论意义上的技术中立性,但是随着算法开始接管各类信息分发的权力,算法设计之初标榜的中立性已经异化。在市场逻辑的强力支配下,各种信息筛选机制和推荐规则的不透明性,使得算法本身明显带有一种可见的“伪中立性”。

(一)算法“伪中立性”的缘由

智能场域下的算法不能被视为纯粹意义上没有价值观的技术手段,这是因为算法与信息连接的全过程都隐含着人为因素和权力因素。算法推荐的出现有效解决了信息内容与用户需求不匹配的问题,实质上使得信息分发变得更加智能、高效、精准。然而,由于各类平台过于推崇和依赖算法推荐技术,过于迎合用户的兴趣与爱好,导致用户浏览信息成瘾的现象日益凸显,由此引发了社会各界对其中立性的高度质疑。算法并非价值中立,它内嵌于社会机制的复杂性,其对不同劳动者影响结果的差异性及其在运行过程中的自我强化性,都使得以实现客观技术指标为目的的功能性算法,最终演化为带有价值判断和选择功能的政治性算法[2]。看似客观中立的算法技术,实则在研发过程中就带有研发人员的偏见和歧视,且算法运行也是基于大量带有偏见的社会现实数据的收集和分析。算法正在以一种相对隐蔽的方式固化甚至加深社会已有的偏见,各类平台无论是出于保护算法安全还是暗中谋取私利的目的,算法权力主体从一开始就被完美地隐藏起来。事实上,算法权力主体弥漫于整个社会,日益呈现出多元化、不确定的状态。首先,国家政治机构是掌握算法权力的公权力主体,它们凭借强大的国家权力、雄厚的国家资本以及海量的公共数据资源,将算法有序纳入国家治理体系,旨在全方位发挥算法技术支配对象的工具性价值。此外,政府在基础设施、资金投入、政策制度等方面支持算法发展,不仅使所有参与者从中受益良多,同时也推动了算法权力再分配机制的形成。其次,各类互联网企业是掌握算法权力的私权力主体,他们拥有庞大的私人资本、卓越的算法技术以及先进的算法系统架构,在一定程度上影响着经济社会各个方面的长远健康发展。最后,其他社会机构也是掌握算法权力的特定主体,随着算法权力逐步深入社会生活和实践的各个领域,广泛存在于学校、医院、工厂等社会机构,人类“数字化生存”的方式已经成为社会常态。

(二)算法“伪中立性”的表现

算法技术不是晦涩难懂的数字符号,其必然融入了人们多元化的价值观。算法技术中立的本质在于价值观是否中立,但是价值观本身掺杂了各类群体的偏好,使得算法“伪中立性”的表现跃然纸上。

一是形成拟态环境。算法技术强化了人们浏览信息的拟态环境,固化了人们原有的偏见和喜好,导致人们的思想意识深度陷入虚无缥缈的孤岛。拟态环境不是凭空产生的,它以真实世界为根据,但并不是现实社会在镜子里的成像,而是传播媒介通过对代表性事件进行选择和加工之后向人们展示的环境[3]。由于拟态环境与主观环境存在密切关联,人们选择和接收信息的过程实际上受主观意志主导,如果算法形成的拟态环境与主观环境高度趋同,那么受众对信息的选择权和知情权也就逐渐被剥夺了。客观来说,算法技术搭建的拟态环境更加形象生动,极易引发人们的思想认同、情感共鸣,这也是各种平台利用算法技术吸引广大受众的重要原因。但是算法技术始终遵循资本逻辑的法则,不仅会使信息传播严重偏离主流价值导向,而且会进一步助长低俗虚假信息泛滥的势头,加大黄色、暴力、恐怖等不良信息扩散的力度,最终导致各类平台推送的信息质量陡然下降,信息的客观性、真实性、中立性也荡然无存。

二是形成圈群文化。算法技术在内容社交平台打造了诸多圈子,形成了“圈群文化”这一人际交往新形式,而圈子不可避免地产生了明显的排他性效应。基于共同志趣的网络使用者更容易在网络中形成圈群,并演化出具有相似情感取向的“圈群文化”[4]。各类平台为了尽可能延长用户的停留时间,往往精准推送一些充分迎合用户浏览需求的信息,使得用户沉迷于高度同质化信息营造的“信息茧房”。“信息茧房”是指在信息传播中,由于人们没有全方位的信息需求,他们只会重点关注一些让自身愉悦的信息,从而使自身牢牢束缚于像蚕茧一样的“茧房”之中。长此以往,人们便逐渐丧失了自由选择和充分接收其他信息的能力,潜意识地隔绝了自身正确认识外部世界的窗口,甚至会严重制约纵向与横向思维能力的培养,出现相关部门难以妥善处理的群体极化现象。随着算法技术的广泛应用和创新发展,人们能够接收的多元化信息更加匮乏、失真,其观察视野更加狭隘封闭、思想认知更加偏离实际。

三是形成等级制度。社交平台主要是以节点为单位进行搭建,建立之初为了最大限度地吸引用户,往往会采用具有头部枢纽节点的网络架构,头部枢纽节点是指网红、明星等,基本枢纽节点是指普通用户。这种等级制度的形成依赖于智能算法,通常是以粉丝数量、作品播放量和点击率等指标为划分依据。一方面是为了便于日常管理,通过算法优先将平台资源分发给头部枢纽节点,使得管理者只需科学管理和引导头部枢纽节点,就可以有效筛选普通用户接收的繁杂无序信息。另一方面是为了明确信息传播规则,通过算法明确社交平台普通用户的规则意识,使其接收算法分发给头部枢纽节点生产的信息,主动将自身置于信息传播网络底部的接收端。这种信息分发机制固然有助于提高管理效率,但是普通用户的价值观可能会被部分价值观不正的头部枢纽节点所误导,进而产生一些有违主流价值观的偏激思想和行为。

(三)算法“伪中立性”的危害

算法的“伪中立性”使其呈现的图景不同于现实世界,而是基于各种偏见精心构建的虚拟世界,由此可能会带来一系列严重的危害。

一是算法作用下的“物化困境”。在算法驱动的社交情境中,人与人连接的本质是各种数据的连接,各类平台算法会根据用户行为进行分类整理并精准推送内容,实际上导致用户在这一过程中的主体性完全被数据所代替。从智能算法、移动交互界面到互联网技术标准(5G/Http/超文本标记语言)再到PC桌面、多媒体文件(图片、视频、文档等),这些均为“形成于屏幕上或隐藏于电脑程序后端的物体(objects)”[5]。此外,算法隐含着各种有关社会规则的评分机制,可以帮助汇聚和量化人们的社会活动、理解和分析人们的社会意识。在某种意义上,评分机制强化了人们对于社会规则的遵守力度,有助于合理管控一些難以察觉的社会风险,但不可否认的是,它的物化行为可能严重侵犯个人隐私。随着算法技术的快速发展,人人都成为观察者、评价者、监控者,这为人们在网络空间的安全互动提供了坚实保障,便于人们及时研判未知风险并作出有效应对,但也容易造成人们之间相互评价和监控的权力被肆意滥用。

二是算法作用下的“主体失位”。在算法全面介入信息传播的背景下,算法能够高度控制人并代替其分析、判断、决策,无形中压制了人的主体地位和主导作用。人类主体对智能算法的依赖性越强,越说明智能算法在更多领域中替代了人类主体的思考[6]。事实上,算法往往通过议程设置引导或左右人们对于事件本身的看法,如短视频平台通过推荐热门话题,暗示和引导用户生产特定内容,表面上看似用户具有较强的主体性和创造力,实则是完全服从于算法及其背后的权力掌控者。虽然绝大数平台都允许用户自主发起话题,但是这些话题是否能被推荐都取决于各类平台的产品定位和算法逻辑,用户的主体性和创造力只能在某个算法限定的范围内发挥。在算法的暗中干预下,一些看似引发用户关注的舆论事件实则隐含着资本逻辑,是资本方灵活运用算法技术开展的针对性引导,其中一些虚构的事件甚至会逐步演变为现实危机。

三是算法作用下的“效率优先”。作为人工智能技术的核心部件和重要支撑,算法倾向于通过程序设计高效输出结果,效率优先是算法运行的首要价值导向。效率是投入成本与获得收益之间的对比关系,旨在有序实现各类资源配置最优化的目标,内在要求以最少的投入成本获得最大收益。在智能场域下,算法处理海量数据的效率确实优于人类,且可以帮助人类高效进行决策并解决实际难题。虽然算法主体行为尽力保持技术中立性,但是算法主体行为往往受到多元价值和功能的影响,特别是基于人类价值预设的算法比较注重效率优先。客观来说,效率优先的价值导向是算法优化升级的关键助力,但是算法与资本的结合往往倾向于追求资本利益的最大化,有时甚至会与公平正义等法律价值产生冲突,导致算法盲目选择最优策略而罔顾社会应有的公平正义。

二、算法对人的“圈禁”

日益占据主体地位的算法正在重构现有的社会关系,通过数字控制方式重塑人们对于现实世界的思维方式和认知能力。当前,人们生活在一个完全被算法包裹的环境中,一旦算法技术具有较大的自主性时,就会使人们紧紧跟随算法指引的前进方向,结果便是算法对人的决策、劳动、隐私的“圈禁”。

(一)算法对人的决策的“圈禁”

随着人们逐渐将体现自身主体性的决策交给算法,算法已经深度嵌入一些行业决策中并扮演着重要角色。如在金融领域,银行在系统评估贷款申请人的信用状况时,往往会借助算法来确定不同客户群体的放贷额度;在警务系统,警察局借助算法可以快速研判潜在的犯罪嫌疑人及可能产生的犯罪行为;在内容生产领域,通过算法分析得出的排行榜、热搜榜等,很大程度上决定了未来的内容生产方向和主题。今后,算法还将在教育、医疗、交通、就业等领域凸显其决策作用,这是因为算法在评估、分析、判断后作出的决策往往更优,高效便捷的决策程序使得人们能够从繁忙的工作中彻底解脱出来。但是人们在享受算法决策带来诸多便利的同时,如果一味地放任自身的惰性而将所有决策权力交予算法,那么很有可能深深陷入算法精心设计的陷阱中,不仅会被形式各样的算法牢牢地“圈禁”,还会导致自身的主体性和创造力大幅受限。当前,算法在人们日常生活中逐渐显示出权力属性,持续推动人们的决策能力让位于算法的自动化决策,导致现代社会出现了屈服于技术理性的个体,个体行为也随着相关算法决策的结果而改变。特别是智能技术强化了算法的深度学习能力,算法能够部分甚至完全取代人们的决策能力,人们的决策活动高度依赖于算法程序的设计与开发,由此导致自我创造、发展、提升的能力停滞不前。乐于不去思考和判断就获得结论的信息传递方式,不仅加剧了人们对事物判断的偏见与喜好,还将影响其主动接受异质化的信息[7]。同时,算法决策本身也存在诸多缺陷,一方面,算法决策是基于海量数据之间内在关联的分析,在一定意义上具有较为明显的随机性,可能会在代码输入和运算过程中出现诸多偏差。另一方面,算法决策直观反映了特定群体的思想偏见和价值导向,在某种场合具有较为明显的主观性,如根据用户行为检测或推导的数据都可以作为算法决策的依据,这就使其难以真实发挥决策活动应有的指导作用。上述特性会对人们有效参与算法程序设计带来现实阻碍,因为算法决策的形成包括历史数据的收集与分析、模型和编码的系统构建、数据输入与输出的规定等,这就意味着那些无法生产数据的群体可能会丧失参与机会,或者只享有被动或间接参与相关决策的机会,导致他们难以充分表达自身合理的利益诉求和进行价值选择。同时,人们可能无法知晓某项决策是否由算法作出,无法实质性参与整个算法决策过程,即使清晰知晓算法决策的基本流程,也难以完全理解算法决策运行的内在机理和相关依据,导致人们持有具体异议且能质疑算法决策的空间极为有限。例如2018年,剑桥分析公司通过一款名为“这是你的数据人生”(This Is Your Digital Life)的问答应用获取了多达8700万份Facebook个人用户资料,后根据这些数据的分析结果为美国前总统特朗普在2016年的总统竞选活动提供帮助[8]。由此可见,算法决策的专业性和复杂性特征较为鲜明,人们的行动空间、掌控能力、救济渠道难有保障,伴随而来的便是知情权、参与权、救济权的逐渐丧失,甚至基本的自由和尊严也受到不同程度的侵犯。因此,人们不能把所有决策都交给算法来处理,应审慎判断算法在哪些方面能够帮助我们作出最佳决策以及算法本身是否存在明显偏见或缺陷。

(二)算法对人的劳动的“圈禁”

算法如同一个“神经系统”支配着劳动者的言行举止,扮演着管理和控制整个劳动过程的角色,无形中导致劳动价值日渐偏离、劳动压力日渐倍增。随着过去用于控制劳动者的机器和设备转变为虚拟的软件和数据,各类平台能够通过算法收集和分析海量数据,精准把握劳动者每时每刻的工作状态,有序实现透视可见的严密监督和规范管理,逐渐成为新型劳资关系中的绝对优势方。而在算法精准控制下的劳动者被异化为连续高效运转的“机器”,因平时密切联系、协作互动机会的日渐匮乏,逐渐成为新型劳资关系中的绝对劣势方。例如,2021年针对北京地区外卖骑手的问卷调查发现,近50%的外卖骑手表示自己遭遇过剐蹭、摔倒、碰撞等交通事故。“加速”与“重体力”对于女性进入外卖行业构成了某些障碍,加入其中的女性骑手不得不征用或者顺从“送外卖”语境下的男性气质[9]。当前,应用算法的各类平台掌控着外卖骑手、网络主播、网约车司机等劳动者,使得他们长期被困在算法特意打造的牢笼之中,被迫投入更多的时间和精力以赚取足够养家的生活费。如虽然各类平台算法对效率的追求可使消费者生活便利,但是海量的订单对于外卖骑手来说却是高压的劳动强度。算法不仅严重削弱了外卖骑手的自主反抗心理,还使他们自觉参与到日复一日的高强度劳动过程,疯狂接收大量订单并努力完成每日指定任务,始终坚持以良好的服务态度满足消费者需求。不难发现,平台通过算法机制重新定义了劳动过程并重新分配了劳动控制权[10]。事实上,各类平台算法之所以能够直接控制人的劳动,其中一个重要原因就是平台将劳动者与消费者连接起来,消费者能够通过平台评价劳动者的日常劳动成果,算法能够量化劳动者的日常劳动成果并使其成为评价劳动的关键指标。这种直观的量化行为看似解放了劳动者,实则让他们付出了包括情感劳动在内的各种劳动来迎合消费者。在网络内容生产领域,各类平台算法通过浏览量、点击量、播放量等流量指标,逐步实现对相关劳动者的實时监督和控制。如平台为了让网络主播增加粉丝量,往往会常态化推出一系列“人气PK”活动并制定奖惩制度,迫使广大主播不得不卖力表演以获得相关奖励,导致其劳动成果本质上与薪酬机制不匹配,持续受到更加隐秘甚至严酷的劳动控制。一旦流量指标成为衡量内容品质的关键,就有可能使劳动者的内容生产方向发生严重偏离,导致他们紧密结合消费者的喜好生产相关内容,自主创新能力完全被市场逻辑和流量逻辑所驱使,此举不仅没有减轻劳动者的重重压力,反而使劳动者成为被算法全面裹挟的“囚徒”。此外,当劳动者的劳动成果都依照流量指标来衡量时,另一种数字劳动者——网络水军也就随之产生,他们在利益驱使下人为改变一些流量指标,从而对他人正常劳动带来不利影响。随着各类平台愈加重视开发算法模型,平台控制将最终演变为劳动者自身的约束和管理,使人的劳动彻底被形式各样的算法所“圈禁”。

(三)算法对人的隐私的“圈禁”

随着算法广泛应用于各类平台,人们的基本数据甚至是隐私数据逐渐被收集,加之可穿戴设备、传感器技术的快速发展,算法对人的数据收集将深入到情绪、心理等生理层面。在数据收集的基础上,算法能够进一步发现数据背后更深层的奥秘,并以此对人们进行全过程控制。人们的言行举止都可能成为算法分析的依据,表面看似平常的一种活动或行为,实际上却被一系列算法程序演算过无数次。客观来说,算法技术确实能够带来诸多生活便利,但是需要人们将一些隐私数据让渡给相关平台,导致人们无法在完全意义上拥有自身数据的主导权和控制权。2022年3月,中国青年报社会调查中心联合问卷网就算法推荐服务问题对1144名受访者进行调查,结果显示75.3%的受访者曾被算法推荐服务困扰过,其中就涉及算法推荐服务对隐私的侵犯[11]。在算法的世界中,人们隐私权面临的威胁往往源自算法本身,因为凌驾于人们之上的算法在进行相关决策时,可能把原本与人们隐私无关的数据组合为真实可见的图像。为了让算法提供更加契合自身需求的优质服务,人们还需让渡更多的隐私数据以便使算法分析更加完善,当人们沉浸在算法技术带来的诸多生活便利时,浑然不知自身已经深深陷入算法的“圈禁”之中。个性化推荐算法和人工智能技术为人们带来便利的同时也给个人隐私保护带来新挑战[12]。如人脸识别技术依托的算法程序仍在持续升级优化,其在用户身份确认、金融机构支付、人机界面交互等方面应用广泛。虽然法律并不禁止有关人脸识别技术的算法研发和应用,但是技术研发和监管机制不成熟的现状加剧了人脸识别技术滥用的风险。市场上不同厂商的人脸识别技术标准不一,安全性有待进一步验证,部分基于二维图片的识别技术存在较大安全隐患,如一些人随意抓拍住户照片后即可进入拥有人脸识别门禁的小区。《中国消费者权益保护状况年度报告(2021)》指出:“互联网平台以收集个人信息甚至隐私的方式,提供‘免费或‘个性化服务,消费者让渡自身部分数据权利后,并不一定能获得便利快捷、公平安全的‘对价体验。”[13]在新闻传播领域,信息技术赋权下的新闻生产方式变得更加隐蔽,从信息的广泛采集到集中编辑再到精准投放,都极易产生一些复杂棘手的数据泄露问题。而当新闻生产借助算法技术过度收集、分析用户阅读偏好等数据时,便在一定程度上侵犯了用户的隐私权。当前,算法自动关联技术可以复原数据主体的特定行为,使网络服务者不仅可以深度挖掘数据主体提供的部分数据,还可以准确探知用户不愿提供的隐私数据。相较于技术的迅猛发展,当前平台在隐私保护方面的责任体系并不完善,信息内容审核制度不健全以及平台算法治理存在的缺陷,更容易导致用户隐私权益无法得到有效保护[14]。分散且孤立的数据主体往往在个人隐私数据保护方面处于弱势地位,在相关法律制度不够健全的现实情境下,人们遭受算法侵犯隐私的维权之路较为艰难。

三、解除算法对人的“圈禁”的对策

面对算法在诸多方面对人的“圈禁”,我们需要深刻理解不同算法的运行机理和潜在影响,积极采取一系列应对措施,坚持以科学的技术手段辅助人的决策、以主流价值观引导人的劳动、以健全的法律法规保护人的隐私。

(一)以科学的技术手段辅助人的决策

算法的广泛应用是智能场域信息传播的时代趋势,算法带来的诸多问题可以通过技术本身的优化完善来解决。

一是着重提升算法技术的透明度,平衡用户与算法平台之间的信息权益。算法规制实践分为四个路径:提升算法透明度、推进算法伦理审查、加强算法法律规制和构建算法治理体系。尽管世界各国对上述四个规制路径各有侧重,但相同的是均将算法公开透明作为算法规制的基础性举措,贯穿于其他规制实践之中[15]。算法技术的透明度不仅事关个人信息权益、数据权益的保障,也事关国家网络安全与制度监管的效率。为保障算法技术真正服务于人的各项决策,有必要实质性提升算法技术的公开透明度,明确规定算法披露的运行逻辑、重要参数、影响因子等具体事项,尽可能避免用戶与算法平台之间的信息不对称。一方面,应及时公开公权力机构使用的算法,因为公权力机构带有明显的权力垄断特质,如果其使用的算法具有黑箱属性,那么这种算法可能会产生歧视、偏见等问题,进而对广大民众带来不利影响。对于其他公共机构来说,可引入第三方监管机构保护其商业秘密和算法系统,从而在一定程度上摆脱算法技术的透明度困境。另一方面,不应强制公开非垄断性的商业机构所使用的算法,因为除了商业秘密和算法知识产权的现实考量外,这种商业机构往往具有优化自身算法的内生动力,算法的合理性可以通过市场竞争得到逐步改善。如消费者发现某家购物网站推荐的商品不合理,他们就可能会选择推荐商品较为合理的同类网站,而该网站就会产生极大的内生动力以优化自身的算法。

二是循序扩大算法推荐的信息范围,平衡个性化信息推送与多元化信息推送。算法推荐在一定程度上驯化了用户的信息获取方式,让用户牢牢依附于算法运行的逻辑理路,无形中导致用户的思想固化、认知窄化、实践泛化。这就要求从技术源头上循序扩大算法推荐的信息范围,在切实满足人们个性化信息需求的同时丰富信息推送内容,尝试向用户推荐他们可能不感兴趣但却需要重点关注的内容。算法要动态更新平台的关键词信息库,及时监测或屏蔽不良信息的关键词,赋权契合主流价值的关键词,助力优质信息内容的生成和传播。在某些特殊情形下,相关部门也可以设立有关算法推荐的管理委员会,通过管理委员会的审查机制来确保算法推荐的合理性。当然,算法在驯化人的过程中也会被人所驯化,因此身处算法裹挟下的用户还应具备驯化算法的能力,即在使用算法平台的同时调整自身行为,积极对算法进行反向驯化,如减少点击量、减少播放量、忽视信息推送等,从而尽可能减少算法推送此类信息的频次。用户还可通过算法平台浏览其他信息,如提高时政新闻的关注度、提高不同观点的接触率等,从而尽可能增加算法推荐信息的多元化。

三是大力完善人—机协同的信息分发模式,平衡信息推送效率与公共管理责任。算法精准筛选、推荐、分发信息旨在满足用户需求,不断谋求自身工具理性的拓展空间。在人们日渐依赖算法技术的背景下,人们的日常行为逐渐演变为对象化的数字活动,沉浸其中的个体逐渐让渡了分析、计算、判断等部分理性能力。信息推送效率是算法工具理性的集中展现,如何以人的价值理性规制算法的工具理性是一项重要课题。当前,自动化行政中的算法决策仅具有工具理性,主要作用就是辅助行政机关作出科学决策,其辅助形式会因不同级别的自动化行政而呈现多元化趋势。如算法在部分自动化行政中,往往通过数据识别与分析得出初步结论后再辅助行政主体作出决策。在完全意义上的自动化行政中,算法决策系统可以全程处理一些不需要裁量的行政活动,即算法决策可以直接代替人的决策,但这都无法掩盖其鲜明的工具理性。这就要求在算法设计和应用中重视人的主体性,特别是相关专家学者的有益意见和建议,通过大力完善人—机协同的信息分发模式,进而实现信息推送效率与公共管理责任的动态平衡,深度激发各类主体的参与意识和实践能力,进而有效提升信息推送效率、贯彻落实公共管理责任。

(二)以主流价值观引导人的劳动

作为一种形塑智能社会的软性权力,算法主要通过误导价值观来“圈禁”人的劳动,这就需要以主流价值观驯化算法并引导人的劳动。

一是以主流价值观推动算法技术创新。目前,算法仍处于依赖算法设计者意志和构想的弱人工智能阶段。在运算代码编排或推荐顺序策划之初,主动将主流价值观确立为算法运行的核心原则,可以从根本上保证算法技术的价值导向[16]。算法的技术因素是其发挥价值功用的重要依托,针对目前算法价值理性严重缺失的现实困境,正确的做法是深刻反思并全面推动算法技术创新,通过及时调整和优化原有的算法技术设计方案或框架,尽力消除主流价值观融入算法的多重技术障碍。在海量信息处理阶段,应将主流价值观贯穿于信息分析和归类的全过程,将更多契合主流价值观的信息注入算法“信息池”。在用户数据分析阶段,应深度挖掘用户数据价值,系统分析用户的信息偏好、信息盲点,从而为算法的多元化信息推送提供数据支撑。在场景信息推送阶段,应明确规定同质化信息推送的频次和频率,持续向用户推送集中体现主流价值观的信息。主流媒体要充分借助算法推荐平台传播主流价值观,充分利用与时俱进的算法推荐技术,彻底转变传统宏大叙事的话语传播方式,力争建构起兼具理性与情感的综合性话语表达,善于将抽象的宏大叙事进行具象化呈现,从而加快提升主流价值观在智能场域的引领力和凝聚力。

二是以主流价值观把关算法推荐信息。事实上,算法在很大程度上扮演着信息推送的重要角色,实质上承担了过去由媒体编辑把关信息的基本功能。这种由算法强势介入媒介传播形成的生态系统,潜藏着价值观偏离、私权侵蚀公权等诸多风险。特别是基于用户兴趣爱好的算法推荐,不仅造成了信息把关标准的降低,也造成了主流价值观信息资源的不足。当前,算法的把关能力还处于较低水平,其信息审核能力远未达到能够开展价值判断和选择的水平。在此情形下,各类信息的把关权还不能完全交由算法来执行,当前最合理的方式就是统筹结合算法把关和人工把关,在充分发挥算法技术优势的同时突出人工审核信息的能力。因此,算法推荐信息一刻也离不开主流价值观的引导和纠偏,要将算法审核与人工审核有机结合起来,充分发挥两者对于算法推荐信息的双重把关作用。这就要求逐步强化把关人员的媒介素养和辨别意识,着力提升其根据主流价值观审核算法推荐信息的能力,从而最大限度地将有违主流价值观的不良信息过滤掉。

三是以主流价值观教育算法从业人员。算法是由人类创造和搭建的技术形态,实际上内嵌着人类的情感偏好和价值导向,坚持以主流价值观教育算法从业人员,旨在全力推动算法的科学设计和良性运作。对于算法从业人员来说,相关部门要定期开展主流价值观教育活动,努力帮助其牢固树立正确的价值观、伦理观,使其具有强烈的社会责任意识和使命情怀。要进一步明确算法从业人员的数据清洁责任,将有违道德和法律原则的信息排除在算法模型外,从而防止弱势群体的数据被边缘化。无论是可能脱离人类控制的算法权力,抑或是在人类控制之下的算法权力,均肇始于算法设计者基于单向逐利的自主行为[17]。因此,算法设计者要以主流价值观为指导,合理解释算法的设计思路和基本逻辑,接受政府部门、业界专家及社会各界的全面监督,不得故意在算法输入端预留敏感数据的转码端口。算法应用者也要以主流价值观为导向,始终与其他经营者保持一定距离,因为如果算法应用者盲目追求个人利益最大化,可能会使算法的工具理性异化为实施共谋的技术手段,进而形成对市场长远健康发展有害无益的竞争格局。

(三)以健全的法律法规保护人的隐私

从世界各国的实践经验来看,健全算法领域的法律法规是时代趋势。基于此,我国应以健全的法律法规化解算法领域的潜在风险,力争将对各类风险的管控置于法治轨道之中。

一是健全算法推荐领域的法律法规。算法、数据、信息、网络密不可分,数据安全法、个人信息保护法、网络安全法、电子商务法的相关条款能够为算法规制提供依据[18]。当前,我国算法推荐领域的立法效率不高且滞后性明显,这就要求循序强化以防范风险为重心的前置立法,逐步加强专门法与配套法之间的统筹规划。相关部门要制定有关算法推荐技术发展和应用的法律法规,明确各类算法推荐主体的责任和义务,利用一套追溯和问责机制指导算法推荐行为的开展。要切实提高算法推荐领域法律法规的前瞻性和实效性,充分保障用户在算法推荐领域的隐私权、知情权等。为有效应对日益棘手的算法歧视和个人信息保护困境,需要进一步完善相关法律法规,规范算法收集和分析个人隐私信息的行为,厘清企業发展与信息流动、权利保护之间的关系。同时,还要建立合理、规范、高效的用户投诉机制,及时解决涉私非法信息的网络传播问题。

二是健全算法监管领域的法律法规。当前,我国尚未形成有关算法的直接监管机制,主要是将算法引发的不良后果和法律责任分给算法平台以实现算法监管。2022年3月1日施行的《互联网信息服务算法推荐管理规定》,明确了算法治理体制机制,科学构建了网络平台问责体系,实行事前事中事后全流程、全链条的政府监管。政府监管的重点在于合理利用调控手段,从社会整体视角对各方权益进行平衡保护[19]。因此,我国应该尽快完善对人工智能应用的立法,明文规定人工智能技术研究和应用的领域、应当遵循的伦理原则,明确规范人工智能技术的伦理要求、安全标准、监管机制[20]。健全算法监管领域的法律法规是保护人的隐私的关键,行业主管机构与各类媒体机构必须依法履行算法监管责任,定期向社会各界公开算法监管的一系列进展和成效。

三是加大不良算法平台的惩治力度。要加大对不良算法平台的惩治力度,积极探索源头治理策略并形成强大震慑力,不让任何一条非法信息的制造者、推送者逃过法律的制裁。执法部门要动态审查算法设计和应用的全过程,明确算法设计者和应用者学法懂法守法用法的基本义务,对于一些违背公序良俗的算法设计和应用,应严格追究相关主体法律责任并予以严厉惩戒。此外,算法平台要强化自律意识,在遵守法律法规的基础上主动实施自我约束行为,做到自我把关、自我管理、自我负责。必须看到,算法平台自律意识的养成是一个相对漫长的过程,应积极培育行业自律组织,推动算法行业自律公约的科学制定和全面推广。相关部门要鼓励算法平台运营商、算法技术供应商、算法内容服务商等建立形式各样的自律组织,力争以健全的行业自律体系推动算法领域自我优化机制的形成。

参考文献:

[1] 皮埃尔·布迪厄,华康德.实践与反思:反思社会学导引[M].李猛,李康,译.北京:中央编译出版社,2004:133.

[2]贾开.算法可以中立吗:“零工经济”的新可能[J].文化纵横,2021(4):123.

[3]陈钿莹,龙柏林.仿像·真相·具象:拟态环境与青年意识形态认同[J].思想教育研究,2020(4):49.

[4]王星.“后真相”网络环境下大学生价值引导力的提升策略[J].思想理论教育导刊,2022(9):150.

[5]许煜.论数码物的存在[M].李婉楠,译.上海:上海人民出版社,2019:1.

[6]冯月季.符号学视角下智能算法对人类主体性的消解及其反思[J].东南学术,2022(5):55.

[7]侯东德,张可法.算法自动化决策的属性、场域与风险规制[J].学术研究,2022(8):42.

[8]Meta与Facebook用户达成初步和解,同意了结剑桥分析数据丑闻相关集体诉讼[EB/OL].(2022-08-28)[2023-04-22].https://baijiahao.baidu.com/s?id=1742389352175740395&wfr=spider&for=pc.

[9]孙萍,李云帆,吴俊燊.身体何以成为基础设施:基于平台劳动语境下外卖骑手的研究[J].新闻与写作,2022(9):33.

[10]顾烨烨,莫少群.算法权力下的劳动控制:基于秀场主播劳动过程的研究[J].学习与实践,2022(10):138.

[11]姜晨,颜云霞.“何以向善”:大数据时代的算法治理与反思[J].传媒观察,2022(6):39.

[12]窦悦.数据开放共享与个人隐私保护对策研究:层次数据与算法问责[J].现代情报,2021(7):151.

[13]中消协发布消费者权益保护年度报告[EB/OL].[2022-10-15].http://www.bj.xinhuanet.com/2022-04/23/c_1128588628.htm.

[14]夏梦颖.算法推荐隐私保护机制研究[J].编辑学刊,2021(3):26.

[15]韩万渠,韩一,柴琳琳.算法权力及其适应性协同规制:基于信息支配权的分析[J].中国行政管理,2022(1):36.

[16]管秀雪.算法文化环境下青年价值表达的理论审视[J].思想教育研究,2022(9):153.

[17]赵一丁,陈亮.算法权力异化及法律规制[J].云南社会科学,2021(5):127.

[18]任颖.算法规制的立法论研究[J].政治与法律,2022(9):103.

[19]黄毅,宋子寅.大数据背景下“算法杀熟”的法律规制[J].中州学刊,2022(4):53.

[20]潘志玉.人工智能应用的伦理风险及法治应对[J].学习与探索,2022(7):67.

【责任编辑:张晓妍】

猜你喜欢

算法
基于MapReduce的改进Eclat算法
Travellng thg World Full—time for Rree
进位加法的两种算法
基于CC2530的改进TPSN算法
基于BCH和HOG的Mean Shift跟踪算法
基于增强随机搜索的OECI-ELM算法
一种改进的整周模糊度去相关算法
一种抗CPS控制层欺骗攻击的算法
Wiener核的快速提取算法
带跳的非线性随机延迟微分方程的Split-step算法