APP下载

“人·机·环”关系重构:对算法伦理风险与应对的再审思

2022-03-24吴信训

新闻爱好者 2022年10期
关键词:伦理用户算法

□王 敏 吴信训

作为技术与社会的物质性中介,算法正在成为“影响世界运行的基础性规则”。[1]与此同时,也引发了算法偏见、侵犯个人隐私权、群体极化等诸多伦理风险。算法作为智能技术的工具理性和人类道德生活所要求的价值理性之间的对立,常被视为导致算法伦理风险的本质原因。由此,为算法嵌入正确的价值理念、要求全方位的算法信息公开等措施成为许多研究者提出的建构算法伦理的重要路径。这些路径无疑是十分必要的,但还不足以应对实践过程中的算法伦理风险。

当我们从批判理论的视角出发,就会发现在算法的工具理性和价值理性之间实际上内嵌着宰制的趋势。宰制的力量来自作为中介的算法背后所交织着的复杂权力关系和资本利益。人工智能时代,算法作为一股强大力量重构了人、机器和环境三者的关系:“人·机·环”关系在计算机介入下由传统媒介时代主客二分的物理关系转变为万物互联的数字关系。隐藏在算法背后的复杂权力关系和资本利益导致了人与技术、平台之间权力关系的不对等:人在某种程度上失去了主体地位,隐私权利的边界被日益模糊化,对生活事务的决策权也被技术所接管。这是引发算法伦理风险的重要原因,但是尚未引起研究者足够的重视与深入探讨。

同时,这种人机关系所造成的决策指令作用于社会环境之后,某些有悖于人类社会行之有序的伦理后果也会反过来对既有的人机关系形成质疑,并对应当重构怎样的“人·机·环”关系提出考问。这也正是还有待当今研究者对算法伦理深入探讨的重要课题之一。本研究旨在通过探讨算法如何重构了人、机器、环境三者的关系,揭示算法伦理风险的重要成因,并以此为基点,力求为有力推进算法伦理建构提出一点可资参考的理论贡献。

一、关系重构:算法建构的“人·机·环”关系有待矫正

当我们讨论算法伦理时,是将算法看作一种连接技术与社会的物质性中介,“由规定的计算机编码、人类实践和规范逻辑构成”。[2]作为计算机科学的底层技术架构,算法是“一套由计算机运行的明确的指令和步骤”,能根据规范的输入,在有限的时间内获得有效的输出结果。[3]同时,作为中介,算法重塑了人机交往互动的框架,人与机器作为算法平台社会中的主体,共同参与算法机制的生成与反馈过程:算法的技术性机制直接建构用户行为、影响偏好形成,用户行为数据的变化,又将调整与更新算法自我学习过程所依赖的大数据集,从而重塑算法。

作为连接技术与社会的物质性中介,算法重构了人、机器、环境三者的关系:传统媒介时代,人作为主体,生存在物质社会中,和机器、环境建立起各种各样的物理关系;算法时代,这种物理关系转变为万物互联的数字关系,人的生存环境也由物质社会扩展为现实和虚拟互融的算法平台社会。在算法作用下,“人·机·环”三者互融,人机关系由简单机械的单向传播发展为双向的人机互动,并向“具有主体特征的更复杂的人机交往转变”。[4]人不再是绝对的主体,技术也不再是外化于人的东西,包括人本身在内的“一切都成为媒介”。[5]但是,在这之中,个人与算法、平台的关系“并不对等”。[6]

算法依据个人在网络空间中留存的数字痕迹重新定义个人的身份,赋予个体一种有别于现实主体的“算法身份”(algorithmicidentity)。[7]对个人而言,“身份是一种体验,这种体验来自于对技术的使用,这些技术构成了一个超越个人生活的痕迹世界”。[8]复杂多变的算法依据用户行为数据的改变,不断对个人的算法身份进行重新配置,从而改变了个人的身份体验,使得个人从运用算法技术的主体转变为被处理与开发的客体。[9]个人将不得不在算法身份和“隐私的、下意识的自我”[10]这两种身份之间切换、协调、妥协。

在身份被算法重新定义、配置的过程中,大量个人身份及行为数据的采集、存储、分享和使用模糊了隐私边界。算法的应用场景决定了它需要进入个人私密空间甚至人体,收集和记录个人行为数据,并就此做出分析和预测,这就使得原本私密的空间处于各类算法的监控之下。要想获得算法服务,个人也不得不交付自己的隐私数据。与此同时,算法技术根据个人的特征和偏好进行分组,在群体层面对人们进行推断,大量个人隐私信息被匿名化和去标识化处理后,汇集在一起成为公开或半公开的群体数据。个人隐私在网络空间由个体层面的“匿名”变为群体层面的“透明”。作为信息所有者,个人失去了对自身隐私边界的控制。与个人没有实际交互,但因有相同特征和偏好而被归类在一起的他人以及掌握大量用户隐私数据的平台或企业成为共同的隐私管理者。

在不同场景下,算法的感知和决策能力远超过人类。对于个人而言,为了获取更便利高效的体验,将大部分事务的决策权让渡给算法成为一种“没有选择的选择”;对于平台而言,算法是“实现内容市场供需适配的必然选择”[11],如果没有算法,光是每天的内容审核,都难以完成;对于社会而言,算法推动了传统治理模式的变革,形成了一种以技术为导向的智能治理模式,提升了社会治理的效率和效能。[12]算法在各个层面逐渐显现的主导性作用使得人对生活的决策权逐渐被技术全面接管。

二、风险挑战:“人·机·环”关系重构面临三重伦理困境

在上述由算法所重构的这样一种不对等的“人·机·环”关系中,算法的应用面临着个人、技术和社会三个层面的伦理风险和挑战。

在个人层面,算法伦理的风险之一体现在算法对个人认知能力的伤害。传统信息时代,个人在进行物质消费、文化消费、信息消费时,有一个探索、学习和交流的过程。但是到了智能时代,人们依赖算法对大多数事务作出决策。作为结果,个人将自主作判断的能力让渡给算法[13],失去了批判性思考和自主解决问题的机会。久而久之,个人在享受算法个性化服务时,将逐渐失去作为人的主体性体现的思辨能力、判断能力、选择能力。“用得越多,越是你想要的”。[14]在这样的机制作用下,个人极易陷入自我化、封闭化的“囚徒”困境中。尽管算法是否必然导致“信息茧房”尚且存在争议[15],但是算法在强化人们原本就有的选择心理、固化选择路径方面的影响是很大的[16],由此引发的个人信息视野狭窄以及观点、立场固化和智能鸿沟问题需要我们高度警惕。

技术层面的算法伦理风险在某种程度上可以说是作为带有社会属性的“人”与技术双重作用的结果,表现之一为算法对社会偏见和歧视的承继及放大。作为一种建立在技术基础之上的“制度性安排”,多样化的算法选择背后是多种权力与利益博弈后的策略性选择。[17]其中,不仅有政治内嵌与资本介入、社会结构性偏见的循环,还存在量化计算对有机世界的遮蔽,这些都导致了算法的内生性偏见。[18]一旦某个个体或群体具有了带有偏见的算法身份,相应的同样带有偏见的数据会被反复带进下一轮的算法运算中,成为算法作出新推断的依据。如此一来,在不断累积的偏见数据的影响下,算法便陷入了“误导性佐证”[19]的循环中,进一步放大社会偏见和歧视。表现之二是算法霸权。算法作为一种技术权力,掌握在平台或企业手中。由于缺乏监管、过度资本化、算法“黑箱”等原因,算法权力极易被滥用,并异化为算法霸权。例如,掌握着算法技术的平台或企业可能会利用算法权力来达成固定价格、限制产量等协议,进而排除、限制市场竞争,以获取超额垄断利润,形成具有隐蔽性的算法共谋。[20]同时,平台或企业还会通过措施将算法权力合法化。例如,王茜的研究发现微博使用一系列策略来使“热搜”生成过程看起来浑然天成且不可避免,包括人气值的实时更新、搜索框提示“大家正在搜”以及“呈现”“反映”等修辞的使用,以此建构算法把关的合法性话语。[21]

就社会层面而言,算法所导致的个人层面认知力、判断力、决策力倒退或停滞的风险将导致社会创新力的下降、群体态度极化等问题。在算法推荐机制的作用下,认知个性化成为主导,共性被消解,具有相似特征和偏好的社会群体陷入信息和态度同质化的“回音室”中,不同群体之间的认知差异加大,公共空间与社会共识难以形成。在社会群体的阶层强化和自我强化过程中,一系列具有极端性思想文化和观念的孤岛将形成。这样的孤岛内在黏性强,但缺乏自我更新能力,潜藏着意识形态极化的风险,并可能进一步造成社会撕裂的后果。此外,算法的广泛应用使“可见性”(visibility)的控制过程变成了一个计算机程序运行的过程[22],信息的分发与编审权从人让渡给了算法,它能够带来感官刺激、吸引网络流量的低质内容得以实现对个人隐蔽性、精准性和长久性的“信息喂养”。长此以往,许多更有价值的或者应该被关注的信息面临着“不可见”的威胁。这将强化社会文化生态存在已久的“劣币驱逐良币”现象,对社会文化生态造成破坏。

三、伦理建构:理念与政策协同的整体性路径

为应对风险,研究者们对如何建构算法伦理进行了诸多讨论。许多学者认为,算法不可避免地内嵌了人类的价值观,因此要在算法设计中以人类社会的价值体系作为商业运作和技术开发的前提,在算法设计过程中嵌入“以人权、社会公正、人类福祉、美德为其价值基础”的价值理念[23]。另有学者提出,为了更好地实现对算法的监督,算法平台要遵循算法透明的原则,全方位公开算法利用的各类数据或非数据信息、算法的内部结构、算法自动化决策的原理、算法与其他社会诸要素之间的互动和这些互动对算法本身的重塑以及算法相关信息公开过程中所涉及的信息。[24]这些措施对于算法伦理风险的治理无疑都是必要的。但是,如前所述,算法伦理的风险不仅因为工具理性和价值理性的对立,更因为在复杂权力关系和资本利益宰制下形成了不对等的“人·机·环”关系。这也是价值理性引导工具理性、算法机制全方位公开等措施在执行过程中面临挑战的原因。

我们认为,解决算法伦理风险的关键在于,在利益导向的环境下,如何改进工具理性所造就的不对等权力关系。因此,算法伦理的建构还有必要从以下路径展开:

(一)以公正的眼光看待算法面临的工具理性和价值理性的矛盾

需要明确的是,作为一项技术的算法是没有“原罪”的。算法存在的正当性在于算法是高效率、具有服务精神,且在不断改进中的。而工具理性和价值理性的矛盾是原生的哲学矛盾。算法技术背后是多主体在博弈:第一,算法的开发和应用需要投入大量人力和物力,这就使得算法应用不得不依赖平台的资本力量,而资本的原始属性是以利益为导向的;第二,受利益导向和个人价值观念驱动的算法管理者、开发者参与算法规则的制定与形成;第三,算法的运行结果还取决于用户和社会的反馈——算法迎合和服务用户需求,用户根据体验将新的数据反馈给算法,算法依据新数据集调整决策结果;第四,组织和超组织的社会环境条件也影响着算法的开发、校准。[25]

因此,算法中内嵌的价值性与外在的工具性是共在的。我们不能将算法伦理风险的一切责任归咎于算法,要看到算法的工具理性和价值理性间的矛盾是受资本和权力宰制的。算法伦理风险的责任主体不是单一的,而是包括算法、算法平台、算法工程师、个人以及社会在内的链条式的责任闭环。

(二)努力摆脱用户对算法伦理的“无意识”状态,将选择权归还给个人

目前尚处于弱人工智能时期,算法虽然表现出许多超越人类的能力,但还在人类可控、可预知的范围内。需要警惕的是,随着强人工智能时代的到来,算法可能发展出不受人类控制的自主意识,通过自主设计进化规则、自我改进超越人类认知。[26]因此,在算法不断智能化发展的同时,应该彰显人的自我实现、人的全面发展、人的信念和价值,以实现“在人主导之下人类智慧与机械智能高度融合”。[27]其中,很重要的是要摆脱大多数用户对算法机制、算法风险及算法伦理处于“无意识”[28]状态的局面。

用户的“无意识”是学界和业界要求算法平台公开算法机制面临的实际难点。尽管随着算法技术的广泛应用,算法对于个人而言已不再是一个神秘莫测的新事物,但是受制于技术的高门槛和隐蔽性,个人和专业人士之间的技术壁垒尚未完全消失,算法对于公众而言几乎是不可见的,许多算法信息即使公开了用户也并不一定能够理解。培养用户的算法素养,提高用户在应用算法平台过程中的风险意识与伦理意识,将有助于用户更好地选择、判断、监管算法所提供服务的合理性。

同时,还应该将选择权归还给个人,让与算法实际应用最接近的用户采取行动以某种方式改变算法系统。[29]正如中国国家网信办等四部门联合发布的《互联网信息服务算法推荐管理规定》所要求的,算法平台应当以显著方式告知用户其所提供的算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等。

(三)与政策、法规的制定与执行相协同,实现合法性与最佳性耦合

当算法日益成为一项形塑个人与社会的基础性力量,只是靠用户和平台自觉不足以钳制算法背后交织的复杂力量,还需要国家和社会组织机构发挥监督与监管的作用,以相应的政策或法规引导算法优化。

政策和法规之所以有理由介入算法,是因为算法作为一种如此广泛而普遍的重要权力,应当被理解为一种公共基础设施,它塑造了数字空间中的信息获取和公共讨论的方式,决定了人们如何消费信息、如何交流、如何评价彼此,以及如何针对共同关注的重要问题开展讨论。[30]以全球最大的在线社交媒体平台Facebook为例,Facebook在全球范围内建立起了超过29亿人的社区,这些用户分布在不同国家,有着不同的社会和文化规范。在这个全球性社区中,算法形成了一种“准国家权力”性质的公共力量,应当被视为一种与“正当程序”有关的重要权力。[31]而“正当程序”的正当性必须有更高层级的监管部门对其进行评估、规制与监督。

当然,算法并不具有法律人格,也无法对算法伦理问题担责。因此,针对算法的政策和法规面向的并非算法本身,而是算法设计者、使用者以及监管者。作为算法伦理建构的外部路径,通过政策和法规监管算法的很重要的一点是要实现“合法性与最佳性的耦合”。[32]具体而言,既要由以政府为主导的监管机构推行各类算法伦理风险的防治措施,又要依托市场经济的自我调节与激励机制形成算法平台或企业的自我约束、自我规范;既要保证政策和法规实施的有效性,又要将干预和限制降到最低限度,以充分发挥算法平台和企业的创新能力;既要从技术规范角度规制算法平台的用户数据访问权限,又要从伦理角度充分保障算法在提升公共利益、促进人类发展、为社会创造福祉的优势。

猜你喜欢

伦理用户算法
《心之死》的趣味与伦理焦虑
护生眼中的伦理修养
基于MapReduce的改进Eclat算法
Travellng thg World Full—time for Rree
进位加法的两种算法
关注用户
关注用户
一种改进的整周模糊度去相关算法
关注用户
如何获取一亿海外用户