APP下载

人工智能如何“人性化”:新闻伦理失范分析与对策

2021-01-02苗壮方格格

传媒 2021年23期
关键词:人性化人工智能

苗壮 方格格

摘要:随着人工智能技术的迅速发展并实现与新闻传播领域的深度融合,新闻生产实践面临伦理冲击。人工智能对新闻生产的介入重构了媒介组织结构与新闻生产流程,由此带来了新闻采集、新闻写作编辑、新闻把关、新闻分发、受众反馈各环节的伦理失范现象。本文依照新闻生产流程顺序并结合国内外相关案例,剖析新闻伦理失范状况背后的成因,在治理对策与建议部分以实现“人机协同”发展为目标,在工具理性与价值适切中寻找平衡。

关键词:人工智能 算法新闻 伦理失范 人機协同

2018年后,算法驱动的智能化信息平台逐步取代传统媒介成为社会信息传播的主要渠道。随着信息通讯技术的革新,人工智能技术与新闻传播实践实现了深度融合,新华社小程序新闻雷达、写稿机器人“快笔小新”、路透社研发的Retuers News Tracer(新闻追踪者)、美联社研发的Heliograf(新闻机器人)等正在全流程介入新闻生产。

新闻伦理涵盖新闻工作者的职业道德或职业伦理,也包含新闻媒体的价值取向、道德功能与伦理规范。当人工智能拓宽了“新闻工作者”的边界,全新的传媒生态给新闻伦理与新闻职业道德建设提出了新的问题与挑战,学界也不断深入对人工智能技术的价值观风险、公共性与正当性等问题的批判性反思,温德尔·瓦拉赫认为“机器越自由,就越需要道德准则”。2021年时值中国共产党建党百年与全面建设社会主义现代化国家新征程的开启之年,笔者将聚焦新技术下的新闻传播伦理失范问题,探寻治理对策来反哺新闻生产实践。

一、智能化新闻实践中伦理失范的状况

新闻及其生产惯例一直受到技术的影响,在信息技术与新闻生态革命的过程中,新闻从业者的职业伦理共识也处在“流动”之中。人工智能技术介入新闻生产各环节时将面临伦理失范的风险。

1.新闻信息采集:新闻价值遭受重创,新闻线索严重失衡。人工智能参与新闻线索采集会带来“信息权的弥散化”——新闻来源由掌握垄断权力的专业媒体或政府机构向公众转移。在新闻策划与信息采集上,人工智能通过大数据计算捕获受众的阅读偏好与关注焦点,并提出选题方案,以此迅速获取新闻线索。如人民网的舆情监测系统与美国的News Whip(新闻鞭)可实时追踪社交平台上千万级别的数据,为新闻从业者提供新闻热点与线索,预测事件的热度与优先级。在判断“什么能成为”新闻的过程中,大数据抓取与筛选同样面临着价值偏移风险,人工智能抓取的新闻线索虽然吸引力高,但在新闻价值的多维考量中却处于失衡状态,大数据筛选机制也使得记者在新闻选择中的主体性减弱,新闻价值判断中的人性化考量被边缘化。

作为人工智能的内核,算法程序倾向于选取相同或相似的新闻素材与报道角度,由此导致新闻内容搭配失衡与新闻价值选择模式被解构。弱势群体的声音与真正重要的议程在大数据测算中“失声”与被边缘化,并可能使暴力、色情、娱乐、猎奇等题材占比较大,传统的新闻价值序列被解构,个人趣味成为主流而社会公共价值被边缘化,损害了新闻生产中长久积淀的价值选择标准。

2.新闻生产流程:AI写作缺乏人文情怀,把关机制不完善。首先在新闻写作编辑中,AI新闻追求效率,人文情怀受到压缩。人工智能与新闻写作编辑深度融合,算法能从数据源处自动获取数据并进行内容整合,而后完成拟人化的内容生产。国内外新闻行业相继推出“机器人新闻”“传感器新闻”“无人机新闻”等算法新闻样式。随着算法新闻的普及,新闻写作的伦理衡量标尺日益让渡给大数据与算法。2017年以来,“今日头条”因内容侵权、虚假广告、低俗内容等问题,被《人民日报》、央视新闻等权威媒体及国家相关部门点名批评和约谈整改20余次。缺乏监管的AI新闻在追求点击率的商业逻辑下容易生产低质量新闻作品。另外,算法程序无法表达人类世界的复杂情感,人工智能难以驾驭人文、民生等题材的新闻写作。有学者通过实证研究发现,美国用户更喜欢人类记者撰写的新闻作品,而人类记者的新闻作品从消息来源到写作内容的可信度都高于组合作者(人与机器的组合)及机器人作者。

其次在新闻生产把关环节,事实核查存在诸多遗漏。人工智能时代,信息把关这一传播权力已经从新闻从业者向智能算法过渡。人工智能虽能成为新闻写作的主体,却不能实现有效的自我监督。算法把关会产生一系列结构性问题:基于用户画像的算法把关产生“过滤气泡”效应,缺乏透明性的算法把关容易受到外部因素干扰从而排挤掉有价值的新闻。传统新闻生产的“把关”环节会被侵蚀,媒体的环境监测功能也会不复存在。

另外,人工智能生产的算法新闻无法进行有效的新闻事实核查,传统新闻生产中层层递进的把关环节检测和过滤出虚假消息,保证了报道的严谨性与媒体的权威性。而若将新闻选择权交置于不透明状态下的算法程序手中,新闻生产缺乏责任主体,极易造成疏漏。

3.新闻分发推送:受众思维固化,深陷“信息茧房”。传统媒体的新闻以传播者的价值考量为主要依据,而算法分发和个性化推送以受众兴趣为主要考量,将数据、算法、人机有机结合起来,建立用户和资源的个性化关联机制,为用户进行精准新闻投放与分发。平台中新闻与意见的群体聚合是基于兴趣产生的,这类以“用户为中心”的新闻分发模式在一定程度上会带来受众信息接收的“窄化”与“茧房化”,使网络传播环境的多元性被削弱。同时,过度依赖算法推荐产生的新闻排序,影响着新闻受众信息自由、信息触达的权利,而当信息推送与分发权从公共媒体机构迁移到网络技术公司,媒体空间中的公共价值受到威胁。

4.受众“反馈”:存在隐私侵权风险,受众权益无法保障。人工智能技术采集、分析与运用数据开展相关互动时,存在侵犯用户的隐私权、著作权等行为。2016年美国大选期间,脸书上超过5000万用户的数据信息被“剑桥分析(Cambridge Analytica)”公司泄漏并用于目标受众的广告推送以影响大选结果,而且美国皮尤研究中心证实美国公众总体上对算法的能力持怀疑态度,公众担心算法会侵犯隐私并会暴露某种程度的人类偏见。2021年5月,国家互联网信息办公室对非法获取、超范围收集、过度索权等侵害个人信息的现象展开调查,以抖音、快手为主的105款互联网平台存在侵犯用户隐私权的行为。用户不应当陷入“便捷”与“隐私”的两难境地,信息服务商如何在提升服务品质的目标下合法、合理地开展数据采集与分析,成为亟待解决的问题。

二、智能化新闻实践中伦理失范的原因

当人工智能技术进入新闻生产领域,新闻采集、新闻写作编辑、新闻把关、新闻分发、受众反馈各环节的伦理失范现象层出不穷,深入分析可以发现智能化新闻实践的伦理失范存在以下原因。

1.技术发展不适配,算法运算存在偏见。算法进入新闻生产与传播的各个环节都是不透明的,其生产的新闻也存在着非客观、非公正的部分,而且任何具体的计算法则与排名方式都凸显着“优先级”与“选择性”,选择哪些话题作为新闻,将哪些信息放置在新闻中,给予每条新闻多少推荐量等各环节运算都有可能造成偏见。而这种偏见的解决办法可以回归到传统新闻价值取向的“平衡性”与“组合性”上,即通过人工排布的方式,均衡新闻主题与类型,使受众可最大限度接触到具备重要价值的社会新闻。

2.新闻审查存在不足,人工核查缺位。在技术飞速发展的同时,人工核查新闻的缺位也加剧了伦理失范现象。众多算法新闻人工核查不细致甚至未进行人工二次核查就直接投放给受众,导致信息失实或侵犯用户权利的失范行为屡见不鲜。

3.规则体系不健全,内容监管维度需完善。目前,规制人工智能技术的内部监管流程与外部监管体系并未成熟。在内部监管流程上,新闻行业内部关于人工智能介入新闻生产各环节的筛查并不严密。很多专业媒体在信息采集与写作编辑上,对新闻价值与社会效益并未严密把控,致使生产出质量低下甚至虚假的新闻作品;在新闻把关与分发上,专业媒体的分发也未有效避免信息“窄化”,投送内容同质化且事实核查也不严密。在外部监管体系上,目前我国关于人工智能技术应用规范、定罪量刑法律体系还存在很多空白点,法律约束与政府监管不足,导致伦理失范现象频发。

三、规制智能化新闻伦理失范的对策

智能算法为生产关系带来深刻变革,由于算法的不透明性、扩散性与分散性,给社会治理带来了挑战,需从新闻参与者、媒介平台、技术开发者和政府等多元主体共治的路径提出新闻伦理失范的纠正建议。

1.新聞参与者:坚守职业道德,提升人文关怀。为应对人工智能技术对新闻行业的全流程介入,《中国新闻工作者职业道德准则》2019版中第五条增加了“保持思维的敏锐性和开放度,认识新事物、把握新规律”与“增强新闻报道的亲和力、吸引力、感染力,采写更多有思想、有温度、有品质的精品佳作”的要求。

面对人工智能时代下的伦理失范困境,新闻媒体工作者首先应遵守新闻职业道德准则,坚守新闻正义;其次,在完成真实客观的文本写作之外,还应创作更具人文关怀的深度报道,将更多精力放在把握新闻行业的顶层架构上,在合理的框架内创作出更具深刻洞见的新闻内容;再者,应始终坚守新闻真实的底线,收集与核实一手资料,力求完整全面地还原新闻事实;最后,在成为致力于向用户推荐新闻的生产者的同时,需要掌握与适应平台推荐与审核的算法规则。

2.媒介平台:提升生产透明度,加强新闻类型适配。媒介平台是新闻算法开发与运用的重要主体,也是算法治理的重要参与者。为达到“科技向善”“科技惠民”的目标,应当采纳公私合作的治理模式,发挥政府规制与企业自治的双重作用。在相关法律法规中对新闻生产责任主体进一步明确,针对AI新闻引发的伦理失范问题建立健全审查机制。同时,政府应从宏观维度把握与指导新闻平台的公共价值导向。

在涉及新闻传播业务的网络平台企业自治与行业自律方面,首先,媒介平台应提升新闻生产的透明度,传授给公众对新闻生产和传播技术应用的必要认知和理解;其次,通过人机协同加强事实核查,运用大数据比对实现“技术与网络公众协同”的事实核查,最大程度降低人工智能技术带来失实报道、失范报道的风险;最后,阅读不同类型的新闻时,用户有不同的期望和需求,比如,财经和体育类新闻主要通过提供实时的数据更新展现价值,而民生新闻中受众更期待获取情感共鸣、文化共识与人文内涵,这意味着媒体平台应该检查该类新闻是否适合使用机器人写作,根据新闻类型的不同进行相对应的技术选择。

3.技术开发者:改善技术弊端,避免信息“茧房化”。技术开发人员应不断完善优化算法,构建更科学合理的算法模型,寻求交往理性提升“人机协作”能力,使技术效用与人工生产流程更契合、更匹配,融合协同发挥互补价值。

一是了解用户的认知过程,调研受众反馈的可用性、满意度,并在设计工作中加以反映,构建更科学合理的算法模型,增加算法新闻各个生产环节的把关力度,从新闻采集到受众反馈进行严密的人工核查,对存在新闻伦理失范的算法新闻进行修改、排除;二是在智能算法程序设计端进行提升,加入“人性化”的需求,不仅通过算法识别的用户个人兴趣来分发新闻,还要基于社会发展的政治、经济、文化现状实时推送分发改善极端个性化的分发机制,必要时刻采用人工干预的手段降低用户接收信息过分“窄化”的风向。

4.国家规制:制定法律法规,寻求外部监督。规避人工智能给新闻传播带来的伦理风险首先要做到有法可依,从社会法规和行业法规两个维度对新兴技术、新兴产品进行规范。一是明确大数据抓取、提取和使用的边界,从而保护用户的基本权利,包括隐私权、名誉权、肖像权等,部分国家和地区已对人工智能进行立法,例如,欧盟的《一般性数据保护法案》与美国纽约的《算法问责法案》;二是算法新闻生产传播的各个环节需要被纳入社会监督,国家相关部门应引导内容生产平台对其生产流程进行透明化、公开化处理,并开放畅通渠道接受公众意见;三是算法新闻需保持商业与公共性的平衡,需要在议程设置中保持新闻对社会重要议题、弱势群体的关注,新闻内容的均衡应当受到社会各方的检阅与监督。

随着媒介化社会的趋势加深,算法作为媒介的底层逻辑深深嵌入生活的方方面面,算法治理的责任主体包括但不限于以上提及的四个主体,还需关注与算法生产有联系的各个组成部分。只有多环节实现协同治理,才能实现算法的“人性化”发展路径。

作者苗壮系湖南大学新闻与传播学院2019级硕士研究生

方格格系清华大学新闻与传播学院2019级博士研究生

参考文献

[1]喻国明,杨莹莹,闫巧妹.算法即权力:算法范式在新闻传播中的权力革命[J].编辑之友,2018(05).

[2]喻国明,杜楠楠.智能型算法分发的价值迭代:“边界调适”与合法性的提升——以“今日头条”的四次升级迭代为例[J].新闻记者,2019(11).

[3]罗昕,肖恬.范式转型:算法时代把关理论的结构性考察[J].新闻界,2019(03).

[4]赵瑜.人工智能时代的新闻伦理:行动与治理[J].人民论坛·学术前沿,2018(24).

[5]陈昌凤,虞鑫.智能时代的信息价值观研究:技术属性、媒介语境与价值范畴[J].编辑之友,2019(06).

[6]刘海明.算法技术对传统新闻理念的解构与涵化[J].南京社会科学,2019(01).

[7]师文,陈昌凤.驯化、人机传播与算法善用:2019年智能媒体研究[J].新闻界,2020(01).

[8]郑保卫,赵新宁.新时代 新准则 新要求 新境界——对新修订《中国新闻工作者职业道德准则》的解读[J].中国记者,2020(01).

【编辑:朱垚颖】

猜你喜欢

人性化人工智能
骨科护理的安全隐患及人性化护理的探讨
探讨人性化护理在妇产科护理中的应用效果
人性化护理干预对人流手术的影响
人性化护理在急诊护理中的应用效果观察
骨科护理的安全隐患及人性化护理的探讨
内科老年病实施人性化护理的应用效果探讨
人工智能之父
2019:人工智能
人工智能与就业
数读人工智能