APP下载

新闻算法分发的技术伦理冲突及其规制

2020-11-17

社会观察 2020年11期
关键词:伦理算法素养

随着现代技术的迅速发展,技术对伦理的僭越愈加突出,并且愈加复杂。算法是当前智能技术的核心,它使得人工智能具有了分析、判定、决策等拟主体性,成为拟伦理角色。拟伦理角色导致的隐私侵犯、道德越轨、价值错位等问题,是否需要拟主体负责?如何负责?如何规制?此类科技与人、社会的关系冲突,在算法分发普遍应用的当下陆续浮出水面,成为社会亟待解决的难题。算法分发异军突起对提升新闻传播时效、匹配用户需求均有所助益,然而算法黑箱、隐私侵犯、算法偏见、权力控制等技术伦理冲突频频出现。为了尽可能减少算法分发给人类带来的风险,提高其正效应,社会就需要对算法分发所产生的技术伦理冲突进行判断,进而做出规制。

新闻算法分发的技术伦理冲突

1.透明可信与算法黑箱

对于传统的新闻业而言,“透明性”实践早已是推动多年的“公信力运动”的一部分,业已形成一系列伦理规则和操作规范使得新闻“透明可信”,这些规则包括指出伦理依据、信息源、使用更为平衡的报道等。对于缺少自律机制和外部管制的新闻算法分发而言,开放透明是其安身立命之本以及保障用户信息权利的重要内容。然而在新闻算法分发中存在着“模糊不清”问题,算法分发的内容像从“黑箱”里冒出来一样,用户并不知道算法如何设计、分发内容是否准确无误、是否有着利益关联方等内容。2016年5月,脸书曝出编辑团队人工干预算法结果的丑闻,更加深了公众对算法分发透明性的质疑。此外,算法分发的设计逻辑也常被视为平台获取用户、市场的核心机密,技术区隔会带来竞争优势,然而技术的晦涩也加深了外界对其透明公开的担忧。

2.不为人知与无所遁形

新闻算法分发是以用户主动或被动让渡隐私为前提的,深挖个体特征、关系、使用习惯等信息给用户带来便利的同时,也侵犯着用户的隐私,使得隐私的不为人知与算法下用户无所遁形成为悖论。

隐私指自然人的私人秘密和私生活安宁不被外界公开和干扰的状态。它的本质在于所有者独自控制,不对外公开,外界亦不得侵犯。随着算法技术对信息采集、检索、处理、传播等能力的增强,个人隐私面临着全方位的威胁,已无所遁形。隐私分为信息隐私、空间隐私、自决隐私等内容。算法分发将通过网络收集到的个体信息进行编码、分析,个体信息隐私面临泄露风险。算法分发的数据收集还遍及使用传感器的任何场所,如商场、车站、街道、交通等,这也就存在侵犯用户空间隐私的可能。此外,理论上用户有权决定哪些隐私可以公开或不公开,然而算法完全可以在当事人不知情的情况下进行数据的收集、处理,也可以从用户公开数据中关联出一些不公开的隐私内容,用户的自决隐私在算法面前基本上是形同虚设。

3.客观全面与算法偏见

客观全面是新闻伦理的基本范畴,它是指新闻工作者必须从可靠信息来源获得真实全面的信息,并以客观的态度忠实地反映现实。这就要求内容有足够的广度与深度,能够描述客观世界的真实发展状态。在传统媒体中客观全面虽然受到多重因素如固有思维和习惯、事实自身的立场等的影响,然而整体上看其能够保持受众对社会的全面认知。算法分发的实质则是建构信息过滤机制,滤出用户“想要”的信息,极易产生算法偏见。

从传统的编辑把关让渡为个体兴趣至上,过滤机制无疑增强了人们捕获自己“回音”的能力,然而极易使个体陷入信息闭环和信息孤岛,放大对信息的选择性注意,这也就意味着社会全景有着支离破碎的风险。此外,算法设计也有着诸如安全性、准确性、可读性、高效率、响应快与低存储等需求,这些设计需求也都会使得新闻分发内容因人而异、因网而异、因机而异。如对网速较慢的用户减少视频、图片新闻等的推送,可能使其未接收到最为重要的新闻。

4.社会公器与权力控制

算法作为“非人类行动者”,和人类的传播活动编织成了新型社会关系网络。英国学者大卫·比尔提出了“算法的权力”概念,他认为算法已经成为一种权力,影响着内容的分类、优先、推荐、判定。大众媒体以人民性、党性为依托,通过设置议程、内容把关等方式对社会进行瞭望,对公权进行监督。在算法驱动的新闻业中,算法则是商业利器,互联网公司通过对算法权力的掌握与使用,实现其价值意图。

算法分发中用户获取到的内容是算法想让它们获取到的结果,是算法认为用户需要得到的结果,因此算法除了分发权外,还获得了事实上的议程设置权与把关权。我国媒介市场化的进程中“编辑终审权”的红线,在算法分发的大趋势中毁于无形。问题的关键不在于红线是否被越过,而在于权力迁移下“权为谁所谋、权为谁所用”。当前互联网平台的新闻算法分发更多代表的是商业利益,通过“技术无意识”的运作,渗透到了我们的日常生活中。因此,在充分享受算法为用户带来全新阅读体验的同时,也要警惕算法的运作黑箱与背后的利益操纵,算法作为一种新技术究竟给予了用户多大的权力,同时又在多大程度上使其处于全景监视中。

新闻算法分发的价值规制

1.新闻算法的价值敏感设计

随着智能技术的迅速发展,算法分发负载着越来越多的价值与责任,如何使算法分发具有伦理属性,帮助使用者做出伦理决策或者发展一种具有伦理意向的算法分发技术,成为当前人工智能领域研究的重点。20世纪90年代美国华盛顿大学信息学院教授芭堤雅·弗里德曼提出了信息系统设计中的价值敏感设计的概念,将人的价值观以一种原则和全面的方式加载到设计过程之中,为上述问题的解决提供了优化推送设计的参考。

价值敏感设计采用整合、迭代的方式,从概念、经验和技术三个层面进行伦理的全方位注入,实现价值融入设计。概念研究阶段主要分析算法分发相关的伦理道德内容,为后续道德注入奠定基础。这些道德内容包括隐私、同意、可追责、诚信等。经验研究阶段主要采用实验、访谈、调查等方式对算法分发技术与伦理价值的相关性进行评估,为伦理道德价值提供经验数据支持。技术研究阶段是在实验模拟、数据验证的基础上,研究算法分发技术对道德价值的支持。上述概念-经验-技术三个层面并非独立,而是彼此连接、互动、更新,从而将人的价值与行为嵌入算法分发技术设计的全流程,实现技术上的价值规范。

2.完善平台自律他律机制

算法作为大数据与人工智能的节点,在互联网发展的下半场中发挥着构造流量入口、增强用户黏性的关键作用。经由算法分发的新闻,削弱了大众媒体时代媒体为受众设置议程的权力。当平台利用算法为受众推送满足其个性化需求的新闻时,更是将受众牢牢聚拢在了自己所建立的拟态环境之中。由此,平台借助算法成为编辑权、把关权的实际拥有者。传统的编辑分发中,出现内容导向问题,把关的总编辑需要承担第一责任。在新闻算法分发中,虽然算法具有分析、判定、决策等拟主体性,扮演着总编辑的中介角色,然而其拟主体性的赋权都来自平台。平台是算法规制的制定者、实施者、控制者,出现分发内容低俗和违规问题,平台的主体责任自然不可推却。因此,以“平台治理”为抓手加强对资讯分发平台的监管,具有必要性和紧迫性。

此外,技术演进与商业创新往往会带来政策监管的空白地带。在保护创新、服务社会发展的同时,也应及时完善法规,为理性健康的内容空间提供监管依据,明晰其责任边界。譬如近年来制定的《互联网新闻信息服务管理规定》《互联网新闻信息服务许可管理实施细则》等就为新闻算法分发价值规制提供了参照。在法规他律之外,组建算法协会与拟定行业准则,建构同业监督机制也不失为一种可行的手段。

3.提高用户的信息素养

随着信息技术在社会生活中的全方位涉入,获取信息的意识、技术、道德等内容直接关涉个体生活、社会发展。新闻算法分发之所以强调用户信息素养的提升,一方面是因为消费什么样的信息,本身也是用户的素养问题;另一方面,随着智媒技术的发展,在新闻信息消费中人们的身份不再是单一的,而更可能同时扮演传者、受众、媒介等多重角色。因此,新闻算法分发中的信息素养不应只是传者的素养,而应成为全社会的基础素养。信息素养提升方面,应摒弃对信息的低水平满足,通过宣传教育和针对性引导推动全民信息素养的提升,这可以依托学校、家庭、社会等多个层面,将信息素养提升与公民的自我教育、个人良性发展予以紧密结合。

结语

通过对算法分发的技术伦理风险分析,本文提出了重构算法分发价值的一些方略,如:进行算法分发的价值敏感设计,建立针对平台的多方监管体系,多措并举提升用户普遍的信息素养。算法主导的内容分发之外,还有其他技术分发方式,如微博的社交关系分发、《人民日报》等党媒的主编推荐分发。这些技术分发方式各有优势,如编辑分发质量高、社交分发互动性强、算法分发效率高,然而它们的弊端也较鲜明,如编辑分发效率较低、社交分发受关系限制等。目前上述技术分发方式仍处于各自为政的状态,如何对它们的伦理冲突进行社会适配,进而承接各自的正外部性成为未来思考的方向。

猜你喜欢

伦理算法素养
《心之死》的趣味与伦理焦虑
抓住本质重理解基于素养活应用
多思少箅彰显素养
《白噪音》中后现代声景的死亡伦理思考
Travellng thg World Full—time for Rree
浅谈我国社会工作伦理风险管理机制的构建
一节践行核心素养的数学拓展课
伦理批评与文学伦理学
追本溯源提升素养
学习算法的“三种境界”