APP下载

人工智能对意识形态的操控及风险防范策略研究

2022-05-16王玉婷王凡

艺术科技 2022年1期
关键词:意识形态风险防范人工智能

王玉婷 王凡

摘要:以大数据、虚拟现实为核心的人工智能正深刻改变着社会各领域,为意识形态工作带来了巨大变革。人工智能正悄无声息地操控着人们的意识形态,主要表现在技术工具对意识形态的操控、智能机器人本身的意识形态、资本家对意识形态的操控。这些现象带来了算法独裁与算法偏见风险、透明人法律与伦理风险、核心价值与话语权威的消解风险、意识形态冲突失控风险。为此,需要采取加强算法治理和个人隐私保护、修复技术漏洞与人为缺陷、规范人工智能从业者的思想和行为等措施防范风险。

关键词:人工智能;深度变革;意识形态;操控;风险防范

中图分类号:D64 文献标识码:A 文章编号:1004-9436(2022)01-00-03

人工智能技术的出现,不仅为社会生产力的发展注入了新鲜的动力,也为社会生产力的解放提供了重要途径,使社会生产方式和人类思维方式发生了巨大变革。人工智能是一种能够深刻改变世界的颠覆性技术,当其渗透于社会的每个角落、人类活动高度依赖智能机器时,人们的意识形态就会被人工智能操控[1]。因此,深入思考当前意识形态领域面临的变革与困境,人工智能技术操控人类意识形态的风险,化挑战为机遇、化风险为动力,这对形成具有强大凝聚力的意识形态具有重要的现实意义。

一、意识形态工作的深度变革

人工智能技术正悄无声息地改变着社会多个领域,尤其对意识形态领域工作的影响将在未来更加深化,使意识形态工作面临更多机遇与挑战。现阶段,人工智能技术对意识形态领域的变革主要体现在传播模式、工作机制、表现方式等方面。

第一,意识形态传播模式的变革。近年来,互联网技术的快速成熟与普及,使网络平台成为信息传播的主要阵地,以双向传播机制打破了传统信息传播模式的时空壁垒,大幅度提升了信息传播效率。随着大数据和算法技术的发展,原本依靠人工的信息收集、处理、分析以及传播等工作逐渐被机器承担,信息传播模式的变革正式开启[2]。

第二,意识形态工作机制的变革。社会生产力的发展往往伴随着统治阶级内部的分化,一些在身份地位、知识体系等方面具有明显优势的人开始作为意识形态家出现[3]。其职责在于建构符合统治阶级意志的话语,以达到赋予统治阶级合法性的目的。从本质来看,意识形态是社会统治阶级的思想,并非草率、零散的话语表达,而是由该阶级的意识形态家通过凝练、整合、概括等方式所呈现的物质关系[4]。可以说,意识形态话语的形成取决于占据主导地位的思想家,借助话语载体将阶级意志展现出来。意识形态家不仅是意识形态话语的制造者,还是阶级意识形态话语的维护者。

人工智能时代,机器学习技术已渗透于社会的各个领域,基于智能算法的机器人已成为可能,这使意识形态话语的生产主体得到了延伸。受人工智能技术的影响,意识形态工作实现了向人机协同机制的转变。一方面,人工智能已成为一种抢占意识形态话语权的重要手段,不仅具有主流意识形态保护功能,还具有意识形态渗透功能[5]。另一方面,基于智能算法的机器写作模式是指通过筛选、分类、排序、过滤等方式处理海量数据,将自动化数据填充至人工模板中。当人工智能发展到一定阶段,写作机器人可以自主创新文章模板时,写作机器人便成为新闻舆论的生产主体。

我国腾讯公司生产的智能机器人拉开了国内自动化新闻写作的帷幕。之后,“小封机器人”“快笔小新”“张小明”“小融”等写作机器人迅速涌现,新闻编辑工作逐渐由加载算法程序的机器人承担,迎来了舆论新闻的生产潮流。在意识形态话语自动化生产中,写作机器人传递的仍是人类的意识形态。意识形态家与人工智能机器人共同协作,占据了意识形态领域的支配性地位。

第三,意识形态呈现方式的变革。传统媒体时代背景下,文字、图像、声音是意识形态呈现的主要形式。随着网络媒体时代的到来,意识形态可通过动画、音频、视频等媒介展现出来。到了人工智能时代,虚拟现实技术和可穿戴设备的出现突破了传统二维的信息呈现格局。通过运用虚拟技术模拟现实场景,为人们带来视、听、触等多重感官体验,这种虚拟与现实交织的沉浸式空间的构建及运用,能够带给受众一种身临其境的动态体验。得益于人工智能技术的优势,意识形态的呈现也实现了向立体化形式的过渡。

二、人工智能操控意识形态的具体表现

从人工智能与人类关系及其发展的社会因素視角来看,人工智能对人类意识形态的控制主要体现在三个方面。

一是技术工具对意识形态的操控。在弱人工智能阶段,人类与人工智能是使用主体与客体的关系,后者对前者的操控表现为算法操纵[6]。信息爆炸的互联网时代,机器学习技术从自然科学领域拓展至人类社会领域,对人类行为、偏好或需求进行预测分析。机器学习技术的核心在于知识发现问题,在算法运用中存在着对意识形态的操控。随着网络社交平台的大量出现,相比于文字表达,人们更倾向于使用图片和视频表达想法或情感。

二是人工智能机器人本身的意识形态。未来发展必将迎来机器与人类并驾齐驱的强人工智能阶段。在强人工智能阶段,机器与人类之间或共存或对抗,由此产生了两种不同的言论,即和谐共存论和分裂对抗论[7]。

三是资本家对意识形态的操控。从社会因素层面来看,意识形态的操控问题涉及复杂的社会关系。利益纷争的背后是资本家利用人工智能操控意识形态的丑恶面相,这也是当今社会不可避免的现实问题。人工智能时代,利用智能机器能够为资本家带来更多的资本增值。

此外,马克思还论述了权力与技术之间的关系,认为工业机器与工人是敌对的,技术的进步意味着工人阶级被剥削程度的加深。工业革命赋予了资产阶级统治权力,形成了资产阶级的意识形态。而工人阶级想要打破被奴役的困境,就必须推翻资产阶级在意识形态领域的统治,获得政治上的统治权,打破资本对技术的操控。

而人工智能又为资产阶级取得意识形态领域的领导地位提供了支撑,同时人工智能为人类社会带来的福利不容小觑,如生产力提升、信息共享、物质生活极大丰富等,这些都为实现共产主义、转变资产阶级的意识形态创造了重要的现实条件。但值得注意的是,马克思面对的仅仅是工业技术,而人工智能技术是一种深刻影响社会发展的颠覆性技术,其影响远大于工具技术。

三、人工智能操控意识形态存在的风险

人工智能的出现使意识形态工作发生了深刻变革,应用智能算法技术可实现对个体意识形态的追踪、预测,提升意识形态传播效率和精度,增强大众对主流意识形态的认同感。但同时也为意识形态工作带来了诸多风险。

第一,算法独裁与算法偏见风险。算法独裁在意识形态上主要体现在两个方面。一方面,权力与资本控制下的技术人员可通过更改算法得出有利于自身利益的裁判结果。当他们利用算法篡改领域内的运行规律时,将会对社会造成无法预估的危害。另一方面,人类对算法的过度依赖。利用算法能够有效实现对个体意识形态数据的分析、归类以及聚合。而人们为了节省时间和精力往往会赋予算法选择权,这就导致了算法独裁。人工智能时代,人工智能算法将破解人类的自我意识,而由于机器与人类意识形态的差异,机器人可能成为未来的独裁者。

第二,透明人和伦理风险。在人工智能领域,人脸识别、掌纹识别、机器视觉等技术的应用使公众的个人隐私面临被泄露的风险,甚至可能变成透明人。现阶段,语音语义识别、自动化搜索、人机交互等领域的迅速发展主要依赖于对数据群的机器分析,这实际上也是操控意识形态的一种方式。大数据技术是将海量数据转化为有价值信息的重要工具,目前已成为社会各领域必不可少的重要资源。

第三,核心价值与话语权威的消解风险。人工智能技术的出现从根本上改变了人们接收信息的议程。在信息领域中,人们只会选择自身感兴趣的内容,进而被束缚于类似蚕茧的信息茧房之中。在智能算法的精准推荐下,用户将无限度、同质化地获得与其意识形态趋同的信息,从而加剧信息茧房效应,使人们处于封闭的舆论场场域中,进而因缺乏主流意识形态的引导而迷失正确的价值观。

人工智能技术的产生实现了对传媒信息资源的开放与共享,打破了以往主流意识形态的垄断地位,使其面临权威被消解的风险。人工智能时代,信息传播内容取决于智能算法推荐,由算法承担构建意识形态话语的职责,取代主流媒体,发挥引导舆论的职能,威胁主流意识形态的话语权威。

第四,意识形态冲突失控风险。随着人工智能时代的来临,云计算、物联网、大数据等新兴技术的综合应用,打破了传统信息传播模式的局限,能够将意识形态通过网络传递给所有人,并精确捕获个人信息。目前,我国人工智能的发展优势在于庞大的互联网群体和海量的用户数据,但核心技术与西方国家先进技术仍有较大差距。

四、防范人工智能意识形态操控风险的策略

人工智能发展过程中,人工智能对意识形态的操控风险不可避免,必须认真分析、理性思索,积极寻找有效的应对策略。人与技术存在诠释、具身、它异等关系,人工智能是以它者身份作为人类的伙伴而存在的,两者之间实质上就是一种它异关系。这就为防范人工智能对意识形态的操控风险提供了思路。笔者认为,应该从以下四个方面入手。

第一,加强算法治理和个人隐私保护。人工智能算法在意识形态领导权的掌控上极具隐秘性和便捷性,需要从伦理、技术及国家层面进行综合治理。一方面,政府应进一步完善个人信息保护相关法律法规,为规范良性算法设立相应的法律条例。同时加大执法力度和监管力度,优化算法治理体系,调整多元治理主体之间的良性关系,明确算法治理主体的法律责任。另一方面,针对人为利用人工智能操控意识形态的行为,可以建立高效、系统、科学的网络舆情监测系统。按照“技术反制技术”原则,运用大数据挖掘技术和智能算法搜集、整理、分析和监测网络言论,加大对意识形态恶意操控者的监督力度,及时制止或规避恶意误导主流意识形态的行为。

第二,规范人工智能从业者的思想和行为。从本质来看,人工智能对意识形态的操控就是人对人的操控,因此必须设立合理科学的人工智能伦理准则,加强对人工智能工作者的行为监管。道德判断必须以理性道德原则及健全的论据为前提,规范性主张实质上是通过理性话语表达的道德原则。根据该定义,人工智能伦理准则必须以道德信念为基础,以服务于人类为原则,以服务于国家利益为目的,而非传递异化意识形态的借口。电气和电子工程师协会提出了三项人工智能伦理标准,即“道德化的人工智能和自动系统的福祉衡量标准”“机器化系统、智能系统和自动系统的伦理推动标准”“自动和半自动系统的故障安全设计标准”。这些都是为了保护人类不受人工智能的威胁。

第三,修复技术漏洞与人为缺陷。借助人工智能技术裹挟转移公众意识形态的形式仍未改变斗争的本质,只是在形态上更加隐秘,在意识形态话语传播上更加迅速、便捷。因此,必须充分运用人工智能作为工具技术在社会治理、人才培养、社会发展上的优势。在最大化发挥其技术红利的同时,保持正确的意识形态。人工智能无法完全摆脱资本、权力和技术的控制,且在一定条件下具有异化人的作用,需要高度警惕其导致的极端价值取向风险。此时,就需要借助技术力量及时检测并修复技术漏洞,规避人工智能领域的人为缺陷。

五、结语

人工智能的发展在未来必将迎来更大变革,人工智能发展与人类意识形态问题交织必定会带来人工智能技术操控意识形态的风险。必须正确认识人工智能对意识形态工作的变革,掌握人工智能操控意识形态的原因及具体表现,研判该现象可能带来的风险及相应的风险防范策略,为避免意识形态冲突、促进人与机器和谐共存提供思路。

参考文献:

[1] 朱定局.人工智能的文艺梦想和机器人的未来[J].华南师范大学学报(社会科学版),2019(5):183-188,192.

[2] 余乃忠.自我意识与对象意识:人工智能的类本质[J].学术界,2017(9):93-101.

[3] 马克思恩格斯选集:第1卷[M].北京:人民出版社,2012:56.

[4] [美]劉易斯·芒福德.技术与文明[M].陈允明,王克仁,李华山,译.李伟格,石光,校.北京:中国建筑工业出版社,2009:203.

[5] 石德金,刘蕊.新时代意识形态治理新格局:基于本土化治理理论的视角[J].学习与探索,2020(2):52-60.

[6] [法]阿尔都塞.哲学与政治:阿尔都塞读本[M].陈越,编译.长春:吉林人民出版社,2003:87.

[7] 弗洛里迪.第四次革命:人工智能如何重塑人类现实[M].王文革,译.杭州:浙江人民出版社,2016:198.

作者简介:王玉婷(1981—),女,湖北武汉人,博士,副教授,研究方向:高校思想政治教育。

王凡(1998—),女,河南驻马店人,硕士在读,研究方向:思想政治教育。

猜你喜欢

意识形态风险防范人工智能
2019:人工智能
人工智能与就业
数读人工智能
文化软实力发展与我国意识形态安全
二胎题材电视剧的多维解读
中国企业海外投资风险的防范及化解
融资融券业务对券商盈利及风险的影响研究
西方涉华纪录片意识形态的建构与展现