APP下载

选择性暴露:算法推荐背景下信息茧房的社会效果研究
——以综合性互动视频社区bilibili为例

2023-01-09李云蔚李毓欣梁译丹程柯妮蔡思翔

中国传媒科技 2022年9期
关键词:茧房算法用户

李云蔚 李毓欣 梁译丹 程柯妮 蔡思翔

(中央民族大学,北京 100081)

1.研究背景及现状

1.1 大数据的崛起

由于互联网时代的到来,数据呈现出生产、累计、规模不断扩大的正指数增长的趋势。近年来,物联网、云计算等相关技术不断发展,展开了一场社会领域的数据革命,这场革命带领着人们进入了大数据时代。时至今日,数据已然成为一种渗透到各行各业中的重要生产资源。

1.2 信息茧房的广泛关注

在互联网用户数量呈现指数飞增的背景下,以用户为中心的信息生产模式造成了互联网信息的爆炸式增长,因此“信息过载”问题日趋严重,算法推荐机制就是解决“信息过载”的一大途径。机器越来越懂人类,人们关注的信息领域会习惯性地被机器分析得出的“兴趣”所引导,进而产生信息茧房效应。信息茧房正逐步使人们更加容易被圈层化,难以接触到多面性的信息。社交平台过度收集用户信息,也使用户引发心理上的不安与困惑,甚至引发社会信源危机。

1.3 综合性互动视频社区中的信息茧房效应研究愈发紧迫

当今互动视频平台非常流行,成为青年社交、生活的常用软件,为提高效率、吸引用户,平台的算法机制也十分普遍,因此研究算法推荐导致的信息茧房机制及其影响非常重要。[1]在算法数据的获取与使用维度上,技术开发方、App运营方不能成为各自为战的“数据孤岛”,只求技术更迭,忽略信息茧房的风险,同时平台也应考虑个体被剥夺信息选择权的维度,兼顾到网络信息时代下对用户的信息引导。由此可见,现阶段的算法推荐机制已被视为影响公民网络健康安全的威胁,其导致的信息茧房效应更是成为禁锢人们思维、危害身心健康的利器,意识到信息茧房带来的影响刻不容缓。

2.文献综述

2.1 信息茧房研究

20世纪90年代,美国学者尼葛洛庞帝(1995)在他的《数字化生存》一书里预言了数字化时代个性化信息服务的可能,并将之命名为“我的日报”(The Daily Me),信息茧房的思想初具雏形。2006年,美国学者Sunstein(2008)在《信息乌托邦——众人如何生产知识》一书中开创性地提出了信息茧房的概念,信息茧房意味着我们只听我们选择和愉悦我们的东西。[2]在更早出版的《网络共和国》一书中,桑斯坦也表达了对科技力量带来的消费者过滤所读所看所听的越来越强大力量的担心与反思,由此学术界开启了“信息茧房”效应的研究。

国内有关信息茧房的相关研究源于2009年,国内学者程士安、沈恩绍(2009)从科技进步与传播规律演进的视角,结合数字化时代的信息聚合与信息茧房效应现象,对组织传播学的相关理论进行解释与重构[3];喻国明(2016)发表《“信息茧房”禁锢了我们的双眼》,开启了国内对信息茧房负面效应的研究。[4]后来另一研究者提出的“过滤气泡”这一概念更是直接强调了信息过滤对用户的影响。

虽然目前研究者对信息茧房的定义仍没有达成共识,但基本上人们提到信息茧房时,都会涉及信息偏食导致的视野局限,以及由此对观念、态度与决定等的影响。本文也是基于这样的理解来研究信息茧房现象。

2.2 社会效应

当前学界主要聚焦于讨论信息茧房的负面影响。王慧芳(2018)认为信息茧房对大学生产生信息接收不平衡、碎片化阅读和群体极化现象加剧等负面影响[5];朱春阳(2018)阐述了信息茧房对受众信息接触与群体意识的负面作用[6];吴霞(2019)基于今日头条App指出了信息茧房导致受众信息窄化的可能。[7]综上所述,本研究将对信息茧房所引发的社会效应进行描述,试图为信息茧房的社会层面影响提供一个更加全面、完整的分析框架。

3.用户访谈分析

本节内容将以用户为主体视角,探究信息茧房效应带来的社会影响。

3.1 用户个体认知层面

3.1.1 减少信息超载负荷

卡斯特(2001)将20世纪90年代以来全球新经济的兴起归因于网络信息技术和全球化的发展。[8]电子行业的高生产力引发了数据爆炸式增长,而个体在应对海量信息时难以从中高效筛选出个人偏好的目标内容。算法推荐通过筛选、适配等技术,为个体打造了个性化的先进服务活动空间,针对消费者需求进行内容快速匹配。据访谈中一名大学生说,紧凑的课程安排让自己在休息间隙时更加渴望看到感兴趣的内容:“我在课间休息时间会点开bilibili网站(简称B站)放松一下,个性化推荐机制让我能快速看到自己想看的视频。如果没有推荐功能的话很可能整个课间都被浪费在翻找内容上了。”

在由推荐视频所构成的服务空间中,用户与UP主实现了信息传播链上的连接。UP主发布的视频被精准推送给特定用户群,个体找到了偏好内容的信息源。信息茧房效应一定程度上减少了个体筛选信息的压力、提高用户的平台黏性、让个体能够被偏好内容包围,实现平台内容的高效投递。

3.1.2 联想思维弱化与创造力降低

信息茧房效应对个体所产生的最直接的影响就是用户思维方式的改变。用户在点开视频后可以直观地发现视频关键词下方的相关推荐,这些推荐几乎都是在内容、创作者、主题等层面与用户点开的界面有相似性的视频。14/15的受访者表示在点开首页视频之后会注意到关键词下方的相关推荐,并且多数时候会被吸引。同样地,推荐视频的关键词下方也有与该视频在某些方面具有相关性的另一些推荐视频,而它们不一定与用户最初打开的视频有相似性。

综上所述,B站的视频下方推荐内容是基于用户协同过滤和内容协同过滤的双重机制而产生的,用户在一个接一个地打开算法推荐视频的过程中逐渐偏离了自己最初感兴趣的内容。这一过程对企业而言是作为增加用户使用时间的盈利方式,然而对用户而言,会在一定程度上损伤个人的联想思维能力和创造力。有学者提到,算法推荐使用户被动接收推荐页的相关内容,从而逐渐降低了他们主动在搜索框中寻找更多相似信息的频率,不利于大脑联想思维能力的培养。此外,该学者还表示,创造力与相关性之间最显著的区别在于联想事物的方式:创造力来源于高度异质性事物的拼接,而相关性来源于相似事物的顺序排列。若用户习惯于在链条式相关的推荐链接中完成对某一信息的扩展了解,个人的创造力将会受到极大程度的抑制(帕里泽,2020)。[9]

一位UP主受访者对上述观点表示认同,尽管在6年的B站使用经历中他并没有明显感觉到自己创造力的弱化,但他认为,在他构思视频主题时算法推荐的确会对寻找灵感时的发散性思维有一定限制作用。受访者用自身感受说明了算法推荐如何吸引用户停留在平台页面,以及算法推荐引发的信息茧房效应对发散性思维的限制作用。不过,当下还没有学者专门针对算法推荐程度与用户联想思维能力和创造力下降之间的关联性进行量化实证研究,尽管伊莱·帕里泽(Eli Pariser)的观点得到了部分受访者的认同,但此结论仍有待后续实证研究数据检验。

3.1.3 隐私悖论现象的产生

信息茧房效应在大脑思维模式等生理层面给用户带来了一定程度的影响,与此同时,在人际互动、自我暴露、公民权利等社会互动与社会意识层面,该效应也在用户群体中引发了隐私悖论的现象。

“隐私悖论”是指个体对隐私保护的认知与实际生活中对此采取的行动之间的矛盾,即用户意识到隐私保护的重要性且具有较高的隐私担忧水平,却在使用网络的过程中不断采取暴露个人隐私的行为(徐敬宏,侯伟鹏,程雪梅等,2018)。[10]

在调查过程中研究者发现,大部分受访者都具有一定的隐私保护意识,表现为生日的设置日期与真实生日不同、ID名称与本名之间没有明显关联等。其中,用户的受教育程度越高,对隐私保护的认知水平越高。例如,几位受教育水平为本科及以上的受访者都明确指出了对平台数据的保密安全度以及个人隐私权利的保障程度表示担忧,对个人数据在平台中的流向持怀疑态度。

然而研究者还发现,在隐私保护的实际行动层面,用户对平台的黏性越高,隐私披露的可能性越大、隐私披露程度越高。学界目前将隐私悖论现象的成因归纳为需求满足、人际互动需要、自我印象管理等(Paul Haridakis&Gary Hanson,2009[11]; Jeffries&Szarek,2010[12];Bargh,Mckenna&Fitzsimons,2002[13])。大部分B站用户受访者将自己的隐私披露行为归因于满足观看体验的需求。

与非UP主用户不同,对UP主用户而言,在B站的隐私披露行为,如穿搭博主标记身高体重,可能是为了管理粉丝对于账号的印象,也可能是为了增加视频内容的丰富度,便于算法推荐将视频精准推广给潜在粉丝。

总而言之,B站大多数用户和UP主都对个人隐私保护具有一定的认知水平,但在行动层面上,为了满足观看体验的需求,用户可能会允许平台记录并分析自己的使用习惯。而一些UP主可能出于自我印象管理和丰富视频内容的目的允许自己在一定程度上的个人信息暴露。

3.2 网络公共空间层面

3.2.1 个性化推荐内容市场的扩充

喻国明等(2018)认为,信息的生产和流动将市场分为共性需求市场、分众化需求市场以及个性化需求市场。传统媒体和官方机构的平台账号作为共性需求市场的主要生产者,为用户提供整体性内容。而算法推荐技术则将零散、海量的自媒体生产方进行整理与统合,将内容与用户进行匹配,建立为用户量身打造的个体性内容市场。[14]

信息茧房效应为个性化内容市场提供了精准分发的环境,在多维化市场中扩充了消费的先进服务活动空间,实现了用户的产品体验优化和商品购买的信息适配。

3.2.2 网络公共空间中的凝聚力建构困境

“公共空间”的概念意为独立于国家政治权力与私人空间之外的社会空间(常晋芳,2013[15])。B站作为一个允许使用化名身份注册账号的网络公共空间,使用户能够以匿名形式在平台观看视频、点赞、投币,以及与其他用户互动,这在一定程度上增加了视频留言区和弹幕中出现非理性、偏激观点的可能性。这些态度较为极端的观点在网络公共空间得到认同者的支持,可在留言空间内形成集聚效应,造成认同者内部的群体极化现象。“群体极化”这一概念最早由美国学者Stoner(1961)提出,是指群体内的成员最初具有某一偏向,在互相之间讨论过后使得这一偏向逐渐极端化的过程。[16]部分受访者认为,信息茧房效应加重了群体极化的程度。算法推荐给用户提供与他们的某种观点一致的视频,让他们在信息茧房之中强化对该观点的认同感,并对那些持相异观点的其他用户表示排斥,从而引发两个群体之间的对立。

用户受制于算法推荐的内容,大多数情况下只能接收到与自我偏好相符的视频推送,由此强化了对原有观点的认同程度,使用户对持相同观点的人群产生高度认同,同时对那些持相左观点的其他用户表示排斥。在信息茧房效应下,缺乏沟通与理解的不同群体之间难以就某事协商达成共识,导致群体极化程度加深、难以在社会范围内构建稳定的凝聚力。研究者认为,此种情况不利于建设多元和谐的互联网生态环境,同时会对维持社会稳定局面形成较大阻力。

3.2.3 网络公共空间中的话语霸权现象

法国哲学家米歇尔·福柯(Foucault Michel,1972)曾就话语的意涵展开讨论,他认为话语展现着社会中的权力关系,也再生产了支配与被支配的结构,这一观点在网络公共空间之中也得到了印证。据研究者观察,在B站首页排行前5名的热门视频中,平均有3个视频的制作者身份为“百大”UP主;在全站排行榜前10个视频的制作者中,约有7名UP主的粉丝数量超过100万,且10名UP主的粉丝数量均在10万以上。这体现出B站当前的话语权力的分配模式:粉丝数量越多的UP主,视频热度越高,所占有的话语权力也越大。

研究者发现,在视频下方的推荐页里,粉丝数量越高或播放量越高的视频,越有可能出现在页面前端位置。有12名受访者表示自己在推荐页里点击视频链接时,会更倾向于考虑那些排在页面前端的视频,而在其中自己更偏好播放量更高的内容,因为“大家都看的视频,说明它做得很好、很有代表性啊”。

于是,播放量原本就很高的视频,在算法的优先推荐下,不断积累热度,与那些制作者热度较低、播放量较少的视频逐渐拉开距离,使前者的影响力、传播范围、商业价值达到了让后者无法企及的高度,令其制作者最终占有了网络话语层面的霸权地位,并且信息茧房效应在一定程度上加速了这一权力结构的形成。这对B站UP主之间形成良性竞争环境以及视频再生产质量而言将起到一定的负面作用。

4.对受信息茧房效应影响的各方主体的建议

4.1 对政府主体的建议

2021年8月27 日,国家互联网信息办公室发布《互联网信息服务算法推荐管理规定(征求意见稿)》(以下简称《意见稿》)并公开征求意见。国家主体在算法推荐的大背景下用法律来进行了各类算法推荐应用软件的规定。研究者根据《意见稿》内容,对国家主体的立场和态度作出了法律法规制定、平台监管与治理、社会舆论引导3个方面的探讨。

4.1.1 法律法规制定

根据最近的政策规定,《互联网信息服务算法推荐管理规定(征求意见稿)》已完成意见征集阶段,于2022年3月1日起施行。官方报道指出,《互联网信息服务算法推荐管理规定》(以下简称《规定》)出台背景是基于两大需要:深入推进互联网信息服务算法综合治理的需要,以及积极促进算法推荐服务规范健康发展的需要。国家及政府主体已然深刻意识到信息茧房背后的核心机制是算法推荐平台,在法律法规制定时,主要是围绕着算法服务规范来进行。在研究中,各个平台的数据会存在一定的关联性,因此在针对算法服务制定法规政策的同时,国家及政府主体还需要关注到用户行为数据的安全性和私密性。

4.1.2 平台监管与治理

由《规定》可知法律法规的实施根源是互联网信息的算法备案,从而形成一套“备案—审核—实施—监管—治理”的运作模式,在算法执行之前便对其进行审核,能够有效控制算法的使用。同时对已经在市场上使用的算法推荐模型,政府主体也应当对其跟进这套运作模式,实现算法推荐的复核,将相关涉及用户权益的内容进行监管,如算法知情权、算法选择权、多主体的算法治理。

4.1.3 社会舆论引导

《规定》的第十一条涉及了技术的非中立性:技术被人类利用与创造,在社会中运行,便必然会受到政治与经济的干预。

在算法的作用下,负面信息在平台的内容分发上被给予了远超其在传统媒体中内容分发的权重。Facebook为了提高用户参与度,发现最好的参与方式便是向用户灌输恐惧和憎恨。在负面情绪的引导下,用户会下意识地受到心理影响浏览更多相关信息,进而延长平台的使用时间。对互联网平台而言,如果单纯以商业利益为导向,其所采用的算法推荐必然会对负面信息的分发推波助澜。再搭配“过滤气泡”的作用,就会在某一群体内促成自我强化的偏见(self-reinforcing bias),并最终导致群体极化。这样的干预对于国家主体而言会引起不稳定的社会治理因素,因此国家此时必须出台一些法规来对此进行管理。

4.2 对企业主体的建议

总体上来说,企业应优化算法推荐,捕捉用户多元兴趣点,提供用户个人专属“舒适圈”,提升用户效益,但也应该意识到立足长远,找到市场定位,具体措施如下。

4.2.1 算法推荐适当公开透明,提升用户主动性

B站应当以显著方式提示其用户关于算法推荐服务的权益与当前情况,同时适度公开B站算法推荐的运行机制,提高信息透明度。此外,B站的推送应当不着重聚焦于用户的个人特征,开发运行快捷的算法推荐关闭按钮,让用户可以选择、删改用于算法推荐服务的用户标签,提升用户对自身标签的管理权。从功能设计的层面上提高用户的主动性与选择。

4.2.2 鼓励多元向上信息的参与和扩散

B站需要提升算法推荐相关页面的生态治理,完善人工过滤、干预不良信息机制,加强用户自主选择性,鼓励多元向上信息的参与和不断扩散。利用B站庞大的信息控制技术优势,在繁杂的信息分配中着重强调“我应该知道”而非“我想知道”,加强不同社会群体间的交流,构建公共空间,凝聚社会共识。不定期审核、查验、评定算法机制机理、模型、数据和应用结果的准确性和合理性,改良或是删除诱导未成年用户深度沉迷或者高额野蛮消费等不利于用户身心健康的算法模型。

4.2.3 加强乱象监管

第一,B站应借助大数据和云计算的力量对即时监测到的广大数据进行深度挖掘分析,降低风险与后患。第二,建立智能语料库,囊括极端言论与敏感词汇、人身攻击语言等,通过技术手段监控、识别不同情境下的语意;追踪最新热点,掌握重大舆情和公众焦点话题中用户的不同派别观点。第三,设定舆情预警功能,若是大数据判定某个热点话题的转发、分享、评论的次数达到一定的阈值,则立即设置风险提示窗口,研判舆情。第四,建立分众化识别模式,识别各大网络社区的信息接收与讨论形式,甚至于极端言论的形成方式。合理回应不同群体的差异化多样化诉求。在B站中设计简便的投诉与举报选项,完善用户申诉的路径,及时受理用户意见并给出反馈,保障用户合法权益。

4.3 对用户主体的建议

4.3.1 调整心态,摆脱桎梏

算法推荐下的社会群体心态处于不断调整、适应、分化、易变的动态过程中,引发一定程度上的群体极化,每一个B站用户和小圈层群体都要从自身的现实条件出发,认识了解现有舒适圈是否成为信息茧房的回音室,主动跳脱出桎梏,最大化利用舒适圈的便捷,规避信息茧房效应的负面影响,合理评估自我目标,合理援引外界的评价标准,形成正确的对自己、对他人、对社会的期待。

4.3.2 提升网络素养,保护个人信息

被纷繁复杂甚至意见相左的网络评论包围时,B站用户必须时刻保持冷静、理性的态度,提高在兼容异质人群和异质信息、意见等方面的素养,提高对算法风险的知觉意识与防范能力与对信息茧房的警惕与自省意识,提升自身的网络信息鉴别能力与网络媒介素养,树立个人信息的保护意识。

4.3.3 及时合法维权

如用户认为算法推荐服务提供者应用算法对其权益造成了重大影响,有权要求算法推荐服务提供者即B站平台根据国家相关政策法规予以说明并采取相应改进或者补救措施,并追踪监管。

猜你喜欢

茧房算法用户
哪种算法简便
织就“信息茧房”的人,或许就是你自己
织就“信息茧房”的人,或许就是你自己
织就信息茧房的人,或许就是你自己
Travellng thg World Full—time for Rree
进位加法的两种算法
关注用户
关注用户
一种改进的整周模糊度去相关算法
关注用户