APP下载

人工智能背景下规范传媒伦理的对策探析

2019-03-20曾红宇

传播与版权 2019年10期
关键词:伦理媒介受众

曾红宇

(湖南大众传媒学院管理学院,湖南 长沙 410100)

人工智能技术已经渗透到传媒行业的各个方面,机器新闻写作和算法分析型的人工智能技术在传媒行业得到具体应用。传媒已经成为现代人们生活的重要组成部分,传媒帮助人们了解世界、传播信息和提供娱乐。但是,传媒业借助人工智能技术在给人们带来更多丰富信息产品的同时,也出现了受众信息狭隘化、传媒信息过度娱乐化、低俗化和传媒过度追求经济效益等问题,人工智能时代传媒伦理更需要规范和约束。

一、人工智能技术引发的传媒伦理失范问题

(一)人工智能造成受众信息狭隘化

传播学家麦克卢汉在1964年在《理解媒介:人的延伸》中提出了媒介是人体的延伸,随着广播、电视、互联网以及各类电子媒介的发展,媒介使我们的眼界更开阔,耳朵听到更远的声音。而人工智能时代的传媒技术让我们的生活圈从地球村又回到小众群体圈的方式,受众在各自喜好的圈子里获取信息,眼睛、耳朵和手脚只在自己喜欢的小圈中活动,让受众接受信息狭隘化。

人工智能技术在传媒业的应用主要有通过算法进行个性化内容推荐,根据受众喜好进行各类信息推荐,让受众沉浸在自己偏好的传媒世界中。用手机看热点新闻或娱乐视频是很多人每天都在做的事情,像腾讯新闻、今日头条和抖音等应用之所以火爆,主要是其采用了人工智能技术,应用程序能很好地归纳出用户看新闻或视频时表现出来的习惯、爱好及观看时长,然后给用户进行不同新闻和视频的推送。人工智能技术在算法上的个性化内容推荐特点在于信息的读取是双向的,当受众在媒体平台获取信息时,媒体也在读取受众的信息。受众的个人画像信息不断被描绘记录:阅读偏好、消费偏好等,通过智能算法媒体平台能十分精准地推送受众偏好的信息,这种完全依靠机械数据和机器算法的仅以受众偏好为标准进行信息推送。2006年美国哈佛大学教授桑斯坦在《信息乌托邦》中提出了“信息茧房”,他认为,受众在选择信息的过程中,通常只会关注能让自己愉悦的,久而久之就失去了解其他信息的能力和接触机会,这就像给自己造了一个蚕茧一般的“茧房”。[1]

(二)人工智能促使传媒信息过度娱乐化、碎片化

当前,基于人工智能技术推荐的众多信息是针对人的感性需求,主要为满足受众感官刺激或者实用需求,在茧房效应的推动下,媒体平台会强化固定该受众的需求加大供给。现在以娱乐为主的APP和直播平台非常多,加上准入门槛低,只需拍摄视频能博人眼球,有关注度就能走红,各类APP成为低俗化娱乐内容平台,造成低俗价值观传播。部分影视剧和电影为迎合大众口味,降低内容筛选标准,使传媒成为浅薄、庸俗和无聊的传播地。近年来一些媒体为了满足受众好奇心,不断挖掘、跟踪、偷拍各类明星艺人私生活,碎片化的明星艺人琐事一度占据各类资讯平台的主要版块,造成传媒在网络空间中传递信息过度娱乐化、碎片化甚至低俗化,极大地降低了公众对主流新闻和传统价值观的关注,公共意识面临弱化。

(三)人工智能推动传媒过度追求经济效益

施拉姆认为大众传媒有政治功能、经济功能和社会功能。媒介借助人工智能的翅膀飞速发展,对人们的生活有着极其重大的影响,因此要承担更多的社会责任,对整个社会的价值导向起着非常重要的指引作用。[2]事实上,众多媒介为追求经济效益,迎合大众口味传播低俗、没有任何营养的信息只为博取大众眼球,获取高额利润。人工智能技术加快了传媒的发展,让更多资本流向传媒,在利益的驱使下,让媒介更便捷地获取受众想关注的信息,无视信息作品是否符合社会伦理要求,无视信息作品的质量高低,缺乏对受众的尊重和关怀。

二、人工智能技术下规范传媒伦理的对策

(一)媒介从业人员需利用人工智能技术做好把关人,规范信息传播

美国著名传播学家库尔特·卢因提出了把关人理论,他认为在群体传播中,信息流动应该在一个有“门区”的渠道里实现,在这些渠道中要有一些把关人,将符合群体规范或者把关人价值标准的信息才能放入传播渠道中。人工智能技术下由机器个性化推荐信息向受众,众多媒体引入机器人写稿,新闻从业人员仍需做好把关人角色,将符合善良、正确的价值标准信息传递,不筛选掉符合群体规范的信息。当然,在人工智能技术下信息传播渠道越来越宽广,信息流量巨大,这就需要媒介从业人员更好地利用人工智能技术做好把关人工作,如进行关键词设定、图片智能筛选或者语言逻辑算法等方式,对传播的信息从关键词、图片或视频中的语言画面进行严格把关,将不利于真、善、美的价值传播的信息进行过滤,达到净化传媒行业环境、塑造良好传媒空间和规范传媒伦理的目的。

(二)政府倡导受众正确利用人工智能技术,不做技术的奴隶

在智能推荐技术的引领下,媒介消费已经成为受众时间消费最多的产品之一。根据中国广视索福瑞媒介研究CSM调查,2017上半年中国人每天收看电视时长144分钟。中国互联网络信息中心第41次《中国互联网络发展状况统计报告》显示,截至2017年12月,我国网民规模达7.72亿人,网民人均每周上网时长27小时,如果把网民的时间平摊到每个中国人(13.9亿人,国家统计局2017年末数据),就是每人每天上网129分钟。[3]看电视的时间和上网的时间加起来,中国人每天花在媒体上的时间达273分钟,即4个多小时。

近年来媒体出现较多网瘾少年、手机病等词汇,小朋友吵闹,家长给其一部手机玩游戏或看视频,立刻停止哭闹,少年玩游戏成瘾不愿意上学,中年人回家没有语言交流,夫妻坐在沙发上各自玩手机。人工智能在传媒中的应用促进了人们在虚拟空间的沟通交流,却阻隔了现实生活的正常交流。2018年8月,英国发布了关于手机的禁令:按照新规,在校学生无论在课堂上,还是在课外活动时均不得使用智能手机、平板电脑、智能手表等各种有上网功能的通信设备,除非是出于教学需要,或是在条例中明文规定可以使用的地点。法案将于9月开学时正式生效。[4]政府倡导受众正确利用人工智能技术消费媒介,不做技术的奴隶。政府可以颁布各种政策引导人们消费正确的媒介,政府设置专门的管理机构监督、仲裁和批评各种媒介传播中的过度娱乐化现象,引导传媒生产正确价值导向的产品,并通过鼓励奖励媒介传播正确价值导向的产品达到净化所处传媒伦理生态环境,充分发挥传媒社会效益功能。

(三)理论界积极探索新的传媒伦理构架体系

人工智能带来的传媒伦理问题尚属于全新课题,该技术在发展过程中可能会对某些领域构成威胁,引发伦理问题和法律问题,如果不重视,可能会威胁到整个人类文明。一部虚拟的能懂你的手机看似比身边的朋友更贴心,未成年人尚未形成正确的价值观,对周围的事物是非、善恶的评价不成熟,对自由、幸福、诚实和平等概念不能很好地理解,沉迷虚拟世界给与受众所有满足的智能时代并不能很好地引导受众个人价值观和价值体系的构建。2017年1月,加利福尼亚州阿西洛马举行了专门针对人工智能在教育领域应用的安全讨论会,近千名人工智能相关领域专家联合签署了著名的《阿西洛马人工智能23条原则》,原则呼吁人类要尽量尊重人工智能和机器人的安全。在传媒领域也是一样,人工智能背景下传媒伦理已经新增更多时代内涵,如何加强传媒伦理规范,在不损害机器人的前提下使用人工智能技术,传媒工作者不能通过人工智能技术操纵用户做出违反伦理道德之事,凯利曾经说过,“强大的技术需要强大的责任心”。在人工智能时代,理论界要关注使用技术者和技术本身的责任心和使命感。

三、结语

传媒对人们生活影响越来越大,起着引导人们生活方式和影响人们思维方式的作用,我们不能只沉浸在虚拟的传媒空间中,而应从伦理的角度反思存在的问题,建立合理的传媒伦理规范,让传媒伦理生态得到更好发展。

猜你喜欢

伦理媒介受众
《心之死》的趣味与伦理焦虑
护生眼中的伦理修养
媒介论争,孰是孰非
书,最优雅的媒介
用创新表达“连接”受众
欢迎订阅创新的媒介
用心感动受众
媒体叙事需要受众认同
电视节目如何做才能更好地吸引受众
反思媒介呈现中的弱势群体排斥现象