APP下载

智能传播时代算法新闻的伦理失范和应对研究

2023-05-03付欣歌

新闻研究导刊 2023年3期
关键词:社会治理算法

摘要:人工智能技术得到广泛应用,人机交互程度不断提升,实现了大众传播向智能传播的转向,人工智能也逐渐由“弱智能”向“强智能”转化。算法新闻给以往的新闻生产和传播方式带来了深刻的变革,在提升效率、优化用户体验的同时也带来了“信息茧房”、群体极化、“算法黑箱”、算法歧视等伦理失范问题,其本质在于算法技术和算法新闻生产传播中商业价值主导的技术理性与人文价值的冲突。文章从官方、平台、用户的维度探索对算法新闻进行协同治理的具体路径,旨在探究如何为算法技术与人文价值的对话创造良好媒介环境,例如有关部门应完善相关法律法规、提高算法透明度,算法新闻平台和机构应坚守新闻专业主义、提升算法新闻的人文价值,同时需要培养大众的媒介素养及算法素养,增加受众对算法风险的认知。

关键词:算法;算法新闻;智能传播;伦理失范;社会治理

中图分类号:G206 文献标志码:A 文章编号:1674-8883(2023)03-0001-04

算法新闻是指包括算法新闻写作、编辑、算法推荐机制和平台聚合分发机制及营销等业务的自动化新闻生产流程[1]。算法正在成为新闻传播领域的底层技术,重塑着当今的媒介环境。目前,我国正在加大力度发展和应用人工智能技术,探索将人工智能运用在新闻采集、生产、分发、接收、反馈中,全面提高舆论引导能力。依托于人工智能技术的算法新闻不仅控制表层的信息流转,而且进一步规训公众的社会生活[2]。人工智能技术的广泛应用和不断成熟标志着人类已经进入智能传播时代,可以独立完成文案写作、方案策划以及回答用户任何问题的超级人工智能ChatGPT横空出世,更是意味着人工智能已向“强智能”过渡,但目前总体而言人工智能仍属于“低智能”的范畴,人工智能核心算法也并非绝对技术中立,其背后隐藏着商业利益、价值取向等多种因素。算法技术在为人们获取信息提供巨大便利的同时,也造成新闻传播领域甚至社会大环境的伦理困境。如何更好地实现人机共生的繁荣局面,创造技术与人文的积极对话范式,将算法纳入法治化健康发展的轨道,是智能传播时代人工智能向“强智能”转型过程中亟须解决的问题,目前对算法的监管也成为衡量国家风险管理、国家治理体系和治理能力现代化的一大因素。

一、算法新闻承担伦理责任的论述起点

技术理性往往注重提升效率,但人类总是更加在意公正公平,这是因为人类社会里充斥着由道德伦理主导的人文价值取向。作为非生命体的算法技术是否应当成为伦理建构的因素和承担伦理责任的主体?以往研究表明,行动者网络理论能够作为对算法进行社会伦理研究的理论基础[3]。

行动者网络理论是由法国社会学家布鲁诺·拉图尔(Bruno Latour)等人提出的社会学分析方法。首先,行动者可以是任何事物,可以是人,也可以是非生命的算法技术,或是观念、组织等其他事物,不同行动者相互作用形成动态关系网络。从行动者网络视角看来,算法并不是绝对理性和客观的,算法作为行动者具有强大的链接能力,建构起整个媒介生态网络,因此算法可作为承担伦理责任的主体。其次,社会责任理论视角下,人类并非具有绝对正确的价值观念,新闻传播机构应该起到对公众、对社会负责的作用,发挥及履行宣传教育、引导树立正确价值观的功能和义务。因此,算法作为与人相互影响的行动者,处于整个行动者网络中心的关键部位。再次,行动者网络理论思考了人与非人、自然、社会的共生关系。智能传播环境正是人文价值、技术理性和媒介环境的耦合,人机共生构成了媒介生态网络。最后,行动者网络理论中人文与科学辩证关系的讨论与新闻算法中算法技术和人文价值的对话研究视角相吻合。

二、算法新闻带来的伦理失范

任何技术的发展都具有两面性,算法在提升新闻传播和用户接收信息效率的同时,也挑战了新闻权威性,“把关人”目标的转变和新闻价值的消解,阻碍受众认知,加剧群体极化,损害受众知情权、隐私权,算法不透明导致其背离社会责任等社会公共领域的伦理失范问题,对社会风险治理提出了新的挑战。

(一)算法驱动新闻的价值危机

智能传播时代的算法技术取代了人类作为新闻生产主体,带来了新闻价值的重构。算法驱动的新闻写作已广泛应用于新闻传播领域,例如腾讯财经的“Dreamwriter”、新华社的“快笔小新”、南方都市报的“小南”等都是较早应用于算法新闻写作的人工智能机器人;再如今日头条的“Xiaomingbot”写作机器人,可以轻松对数据进行抓取、加工,匹配自然的语言模版并生成贴近人类写作口吻的新闻。

传统媒体时代,时效性和真实性是新闻的两大特性。维护新闻真实性是新闻工作者的目标和职责,正是新闻生产过程中“把关人”的存在,才使新闻具有极高的社会价值。算法应用于新闻生产过程在一定意义上重新建构了新闻“把关人”的概念,从新闻的线索、熱点、题材选择到文本建构和分发推荐,传统新闻生产过程中记者、编辑、专业审核人员等重要角色完全被程序取代,人对新闻事实和意义符号的加工权力已让渡给算法技术,尊崇商业逻辑的算法技术和遵从伦理逻辑的新闻原则之间的冲突构成了算法新闻的价值危机。

从信息生产视角看,传统媒体时代,新闻“把关人”判断新闻价值的标准是时新性、重要性、接近性、显著性、趣味性五个要素,工作原则是新闻真实性[4]。然而智能传播时代,不同新闻机构和平台的市场份额竞争极为激烈,人的注意力被喻为“原油”,导致算法把关和传统新闻生产把关目标完全不同。算法把关尊崇“流量至上”,即“注意力至上”的生产和分发原则,由商业价值及利益主导。

从伦理视角看,智能传播时代的新闻同样应该承担公共责任,如果疏于监管,一些低俗、虚假新闻存在被广泛传播的可能,由此造成新闻信息的低俗和同质化,严重损害新闻的权威性以及新闻机构的公信力。

从新闻专业主义视角看,算法新闻的推荐机制造成了算法逻辑和道德逻辑上的冲突。算法更在乎如何通过受众画像、兴趣模型去分发新闻,“注意力至上”原则在一定程度上是对新闻专业主义中“求真求实”“应知”等价值向导的消解。此外,人们乐于关注更具噱头和能够引发情绪的新闻事件,因此基于用户兴趣导向的算法新闻推荐机制更容易推荐一些不论其价值取向而更具看点的事件,这种新闻传播机制构成了新闻价值导向危机。但事实上,无论媒介时代如何更迭,新闻的核心价值不会改变,算法新闻仍需坚守新闻专业主义的价值理念。

(二)算法推荐依赖下受众的认知危机

媒介从模拟人类身体的延伸到模拟“中枢神经”的延伸,进入智能传播时代,大数据技术、算法推荐技术模拟人类意识的延伸,甚至成了控制人类意识的机制。算法代替了受众的大脑选择,一方面节约了时间成本,为受众推荐他们潜意识中想要看到的内容,另一方面在无形中制造了“信息茧房”。被困于“茧房”中的受众在算法的监控中,仿佛置身于“全景监狱”,只能在算法既定框架下作出选择,从而失去了接触信息的多元化路径。“茧房”中,受众所接触到的其他用户的讨论和反馈大多是与自身意见相似的回响,进一步加剧了“回音室效应”。长时间单一的意见会加固受众的既往认知,造成片面和狭隘的认知效果,这种认知的窄化在个人层面是一种唯心主义,在社会层面属于一种不利于社会整合的个人情境,若每个人都陷入“信息孤岛”,则必然导致群体极化。

群体极化由美国社会学家詹姆·斯托纳(James Stone)提出,即在集体决策中,最终结论往往向越发保守或冒险的两个极端转移。“信息茧房”带来的极化效应在损害受众展开多元化讨论的权利的同时,减少了异质化观点的存在,给多元化观点讨论带来阻碍。然而社会的进步需要思想的碰撞和多种话语体系,高度的群体分化会导致群体分裂,群体极化成为阻碍社会发展和社会稳定的威胁。总之,算法新闻推荐机制可能会使用户更偏向于沉浸在个人议程中,而不会被公众议程干扰,因此使用者之间无法实现文化资源共享,一是会造成受众认知窄化和程序化,二是长远来看,人们在形成认同感和维护集体情感时,公共媒体的社会整合作用就可能失效[5]。因此,算法新闻的推荐制度对受众的认知影响以及社会发展、治理提出了一定挑战。此外也有学者指出,“信息茧房”的形成会受到受众主观行为的影响,并非算法技术的特有产物,应当辩证地看待。因此,如何广泛提升大众媒介素养和数字素养,使大众有意识地识别和规避互联网中的潜在风险,是智能传播时代社会治理中亟需思考的问题。

(三)算法技术的社会責任危机

算法技术潜在侵害用户权益。随着算法技术迅速发展,如果不能及时确立和普及相关法律法规,就极易造成潜在的侵权危害。由于算法技术的核心需要收集用户信息以实现内容的精准分发,由海量用户数据构成的透明“全景监狱”极有可能造成信息泄露,也产生了诸如“用户的浏览记录归谁所有”“平台任意调取用户数据是否应被授权”“分析使用用户数据应被谁授权”等不易被用户察觉的对知情权、隐私权的侵害。

算法偏见违背公正平等的价值观。算法偏见主要产生在用户画像描绘时,“算法自动确定个体的性别、阶层、种族等身份特征”[6],每个人都被赋予了由一个个标签组成的算法身份。算法进行信息分发时,算法设计者的价值观决定了算法如何分析信息,也决定了算法会过滤和强化哪些信息,这样的隐形链接下蕴藏着多种因素的博弈,即算法使用者自身对性别、年龄、种族、阶层、态度倾向等偏向,在应用过程中可能导致严重的社会问题。

算法偏见与“算法鸿沟”相依存。“算法鸿沟”指受众在获取算法新闻内容和对算法技术使用方面的感受差异。传统媒体造成的“知沟”往往由受众所处环境条件和受教育水平导致,而“算法鸿沟”则是由算法对用户的教育程度、身份地位、职业特征、所处地区等因素进行的信息收集和分析所预设出的,算法带来的个体标签化趋势愈发明显,不利于维护社会的公平公正。

由经济、政治、个人价值观影响的算法运行机制造成的平台和用户信息不对称、不公开即“算法黑箱”的核心所在,受众无从得知算法的目标和意图以及算法运行的价值指向,因此难以对算法进行评判及监督[7]。造成算法伦理失范问题的潜在因素存在于算法的每一个环节,看似无法避免,实际上算法背离社会责任的根本原因是其背后人的意志。例如有学者认为算法偏见来源于算法设计者的偏见、输入数据的偏见、算法局限的偏见,其中设计者的偏见是能够避免的[8],算法决策会受到人为因素的干扰,因此可以通过优化算法和加强法律约束来规避伦理失范。

三、算法新闻的协同治理

算法具有极强的跨界属性,算法技术和算法新闻的生产传播作为一种看似“中立”的技术产物,所带来的影响应受到监管。算法带来的一系列伦理失范问题如“Facebook偏见门”、谷歌将黑人女性照片识别为大猩猩、“剑桥分析事件”以及爱奇艺起诉字节跳动旗下今日头条内容侵权案、短视频平台算法侵权案等事件,造成了很大的社会影响。算法具有极强跨界属性的根本原因在于算法由人设计,虽然如今的算法已具有一定程度的自我深度学习功能,但其背后裹挟着平台和商户对于优化用户体验、增强受众对产品黏性的需求和实现自身价值利益最大化的取向,并非绝对技术中立。2021年,《关于加强新时代文艺评论工作的指导意见》提出,要做好对互联网算法的研发与引导工作,并对互联网算法推荐进行综合治理。算法的“伪中立性”为公众科学看待算法和推进算法的综合治理提供了前提和基础。

(一)官方视角:完善相关法律法规,提高算法透明度

改善大数据主导的智能传播的媒介生态环境,需要从官方的角度对新闻推荐算法进行宏观管理。西方国家对人工智能、大数据的监管实践起步较早,从实践效果来看,对算法进行立法管理、行政管理、社会管理是大势所趋[9]。哥伦比亚大学Tow数字新闻中心于2014年发布的《算法新闻责任报告》强调要提高算法本身的透明度,例如主动提供或依照美国的信息公开法案向请求者提供算法的源代码[10]。

透明性原则是打开“算法黑箱”的关键钥匙,例如一些国家和地区要求各使用大数据和算法的平台和机构需要建立一种可被解释和被受众理解的算法模型。2016年,欧盟通过的《一般性数据保护法案》明确了算法透明的理念,提出算法必须遵守透明性原则,例如该法案规定收集用户个人数据的平台必须将其收集分析数据的过程主动告知用户。再如2017年,美国计算机协会发布了《算法透明与追责原则》,涉及知情原则、接入和纠正原则、追责原则、解释原则、数据来源原则、可审查原则、验证与测试原则,以解决算法在实践中可能造成的种种问题,其中多个原则都旨在提升算法透明度。例如解释原则规定算法使用主体有义务对算法的原理和使用结果进行解释,验证与测试原则鼓励算法使用主体公开算法模型的测试结果。

目前我国正在积极制定相关法律法规,例如2022年施行的《互联网信息服务算法推荐管理规定》明确了“具有舆论属性或社会动员能力”的算法推荐技术的信息规范服务与责任,同时也提出了用户知情权、算法选择权等提高算法透明度的用户权益保护机制。

算法新闻的各个生产环节都需要被纳入社会监督,开放相关监管部门和平台与公众对话的渠道。算法新闻需要找到商业价值和社会公共性的“最大公约数”,需要在新闻议程中对社会及相关群体给予足够的关注。这些举措都是在推动新闻伦理与技术的进一步交互,是技术伦理建设过程。政府从宏观层面倡导算法及算法新闻的主流价值导向,不断更新算法技术风险治理的方法理念,还需进一步细化算法作为责任主体的伦理责任,将透明性原则和问责制度作为重点,完善信息监管机制。比如可以成立第三方监督组织,对算法新闻领域进行全方位的社会监督,保证互联网信息安全,构建健康的智能传播环境,为算法技术和人文价值的对话创造良好条件。

(二)平台视角:坚守新闻专业主义,加强人文关怀

智能传播时代,算法新闻生产和传播呼吁的透明化不仅在于对用户信息及其合法权益的保护和对平台的监管,也在于新闻机构和平台的建设以及算法工程师等相关技术人员的职业道德操守的引导与培养,促使行业健康有序发展。

第一,算法新闻机构和平台在算法生成新闻及算法推荐技术方面需不断优化已有的算法程序,秉承新闻专业主义,增强新闻的公正性和真实性,传播正能量和正确社会价值内容,谨防伦理失范问题出现,加强对算法透明性法则的应用。

第二,在人工智能由“弱智能”转向“强智能”的过程中,不断优化增强算法的深度学习功能,但鉴于目前算法并没有发展到自身具备强学习能力和分辨伦理道德的条件下,需以算法技术和人工审核相结合的方式,提升人机协调能力以及算法新闻的人文价值和新闻真实性,从而更好地实现算法的服务效果。增强新闻机构及平台的专业性、透明性和公正性,弥补算法运行过程中可能出现的风险和漏洞。

第三,在计算机相关专业的高等教育过程中,完善计算机伦理教育课程和加大实践力度。新闻机构及平台对算法工程师、审核人员及相关专业工作人员的培养方面,应增加媒介素养教育的相关培训设置,工作人员需要与时俱进,树立正确的媒介伦理观,把握正确的新闻价值取向,这是身处智能传播时代作为技术操控者的义务,能够在一定程度上改善算法歧视現象,对用户的算法身份进行“去标签化”,更好地维护用户的合法权益。

(三)用户视角:培养大众算法素养

提升用户媒介素养或数字素养是诸多研究者用来应对网络新闻传播领域算法伦理失范问题的重要方式之一。大众传播时代,受众媒介素养概念被提出,智能传播时代的媒介素养范畴再一次被扩展,算法素养可作为媒介素养的延伸。

智能传播时代,算法不仅应用于新闻传播领域,而且充斥于人们生活的方方面面,例如导航系统、社交软件、短视频和线上购物等领域都被算法这一底层逻辑主导。在此背景下,算法素养不仅要求公众了解算法及相关概念,例如对相关名词的理解,还需增加受众对算法所造成伦理风险的认知,警惕算法背后隐藏的意识形态,具备主动识别数字陷阱的能力,从主观层面规避技术的无意识伤害,充分发挥自身的主观能动性,共同建设和维护媒介生态网络。

值得注意的是,虽然大众媒介素养培养已被倡导多年,但事实上目前专业学习领域外较少有能够接触媒介素养相关知识的场景。媒介素养、算法素养的科普是一项亟待解决的事情,需加大覆盖各年龄段的知识科普和各大主流媒体的宣传科普力度,从基础媒介素养着手,打造健康的智能传播环境。

此外,“知沟”假说提出了信息社会的根本矛盾是信息接收者享有信息量的多少造成的两极分化矛盾,应警惕智能传播作为大众传播的高级形态,“知沟”具有扩大的趋势,因此在科普中不应忽视农村和低收入等群体,避免“知沟”现象加剧,以维系国家和社会的均衡发展。

四、结语

每一次技术的迭代都带来媒介环境的巨大变革,每一场变革的背后又必然引发新的问题。“媒介即讯息”揭示了人工智能技术是给社会带来变革的主体,大数据依托的算法技术和新闻生产方式实现大众传播到智能传播时代的转变,在重构媒介传播范式的同时也带来了新的社会治理问题。

算法新闻平台、机构在商业利益的导向下,技术理性和人文价值的冲突给算法新闻埋下隐患,造成伦理失范。使用算法的新闻机构和平台应当承担社会责任和公共管理职能,但归根结底,算法新闻的伦理失范研究中的核心是算法本身,相关部门需要依据人工智能的发展水平和实践效果,及时完善和调整监管体系,加大算法素养的科普力度,为人工智能向“强智能”转向做好充分准备。

参考文献:

[1] 刘树楠.智媒时代对新闻生产中算法新闻伦理的思考[J].传媒论坛,2020,3(8):28-29.

[2] 彭桂兵,丁奕雯.智能传播中短视频平台版权争议及其治理路径:兼评“首例算法推荐案”[J].新闻记者,2022(9):86-96.

[3] 王仕勇.算法推荐新闻的技术创新与伦理困境:一个综述[J].重庆社会科学,2019(9):123-132.

[4] 陈昌凤,霍婕.权力迁移与人本精神:算法式新闻分发的技术伦理[J].新闻与写作,2018(1):63-66.

[5] 陈昌凤,师文.个性化新闻推荐算法的技术解读与价值探讨[J].中国编辑,2018(10):9-14.

[6] 刘培,池忠军.算法的伦理问题及其解决进路[J].东北大学学报(社会科学版),2019,21(2):118-125.

[7] 张淑玲.破解黑箱:智媒时代的算法权力规制与透明实现机制[J].中国出版,2018(7):49-53.

[8] 张超.作为中介的算法:新闻生产中的算法偏见与应对[J].中国出版,2018(1):29-33.

[9] 匡文波,张一虹.论新闻推荐算法的管理[J].现代传播(中国传媒大学学报),2020,42(7):120-124,146.

[10] 周建明,马璇.个性化服务与圆形监狱:算法推荐的价值理念及伦理抗争[J].社会科学战线,2018(10):168-173.

作者简介 付欣歌,研究方向:广播电视。

猜你喜欢

社会治理算法
基于MapReduce的改进Eclat算法
Travellng thg World Full—time for Rree
进位加法的两种算法
算法初步两点追踪
基于增强随机搜索的OECI-ELM算法
结构性嵌入:社会治理视域下强制隔离戒毒“民警+社工”工作模式研究
社会治理视域下的
社会转型期基层社会治理创新的实践和经验研究
社会治理面临的现实困境与路径选择
政府主导型社会治理模式下社会组织发展理路