APP下载

人工智能时代的社会公正风险:何种社会?哪些风险?

2023-06-10李猛

治理研究 2023年3期
关键词:人工智能

作者简介:李猛,政治学博士,北京外国语大学国际关系学院副教授。

基金项目:国家社科基金重大项目“人工智能伦理风险防范研究”(编号:20&ZD041)。

摘要:人工智能导致的社会风险根源于人工智能社会的不公正。为了更加全面认知人工智能的社会公正风险,需要结合马克思主义分析人工智能时代的社会形态:从“生产公正”角度看,人工智能社会是深度自动化生产的社会,这可能导致劳动向下聚集、劳动能力弱化、劳动“分体化”等生产公正风险;从“分配公正”角度看,人工智能社会是物质极大丰富但个体性、空间性、时间性分配严重不均的社会;从“认知公正”角度看,人工智能社会是虚拟与现实结合的社会,可能导致理性认知剥夺、自控能力剥夺、自主选择剥夺的认知公正风险;从“发展公正”角度看,人工智能与人类社会之间的矛盾与张力,可能导致能量争夺、权责失衡和消极反抗等发展公正問题,进而弱化社会追求公正的动力。导致人工智能社会公正风险的根本原因在于世界资源有限性与人类和人工智能需求无限性之间的矛盾、核心诱因在于人类社会固有的不公正问题、最大障碍在于现有治理手段难以直接作用于人工智能领域的责任主体。对此,需要合理划定人工智能发展的能耗标准和比例、着力解决传统社会中的不公正问题、以人的发展为目的穿透人工智能的“责任黑箱”。

关键词:人工智能;生产公正;分配公正;认知公正;发展公正

中图分类号:TP18;D616 文献标志码:A 文章编号:1007-9092(2023)03-0118-012

一、引言

人工智能对社会的改变不仅在于其为人类提供了更加强有力的工具,而且在于其深刻改变了人类社会的基本结构:在人类活动的物理空间(Physical Space)和社会空间(Social Space)二元空间之外,真正地构建了“第三元”的赛博空间(Cyberspace)。①三元空间结构的形成改变了之前的人与人、人与自然简单关系,促成了人与人、人与自然、人与人工智能、人工智能与人工智能、人工智能与自然等更多维度的复杂关系。人工智能时代给人类带来无限发展可能性的同时,也必然会重塑传统的社会秩序。

对于人工智能可能导致的社会风险,相关研究有以下几种主流观点:一是“失业陷阱”。人工智能大规模的应用必然会取代大量的传统制造业和服务业的工作岗位,只有少量最需要人文关怀能力、创造力或者管理能力的岗位才能保留下来。这种局面使得“所有的一切均对资本极为有利……劳动者的处境非常糟糕”大卫·巴恩西泽、丹尼尔·巴恩西泽:《人工智能的另一面:AI时代的社会挑战与解决方案》,郝英好译,电子工业出版社2020年版,第52页。。二是“无隐私社会”。特定主体可以利用人工智能轻松地观察、记录、分析甚至是操控人类的私人或者公共行为,这可能使人类彻底失去隐私和自主的权利。Stahl B.C. and David W.,“Ethics and Privacy in AI and Big Data: Implementing Responsible Research and Innovation”,IEEE Security & Privacy, vol.16,no.3(2018),pp.26-33.三是“算法黑箱”。人工智能与传统的具有“价值透明”的工具不同,其存在、运行和应用的全过程都存在着“黑箱”:复杂算法编写过程的“解释黑箱”、深度学习过程不可避免的“技术黑箱”和利益相关者使用人工智能时的“组织黑箱”。浮婷:《算法“黑箱”与算法责任机制研究》,中国社会科学院研究生院2020年博士学位论文,第25-55页。四是“鲁棒性鸿沟”。现有人工智能还主要应用于具有较高容错能力、规则明确的具体问题领域,当人工智能拓展到无人驾驶、医疗诊断、老人照顾、利益分配甚至是政府决策等与人类生命或根本利益密切相关的领域时,鲁棒性的问题就变得极其重要。贸然将人工智能广泛应用到人类社会必然会带来更多不可预见的问题与风险。欧内斯特·戴维斯、盖瑞·马库斯:《如何创造可信的AI》,龙志勇译,浙江教育出版社2020年版,第23-25页。

历次工业革命的进程表明,任何革命性技术变革都会带来正反两方面的效果。只有对新技术的风险进行充分预判,才能更好地引导和推动新技术向着造福人类的方向发展。虽然学者们从多个角度对于人工智能的社会风险进行了深入剖析,但大多数讨论都是从技术角度出发的,这导致对于风险的研判呈现碎片化。相关研究成果中不同风险之间的技术和逻辑关系并不清晰,难以透视人工智能社会产生风险问题的深层次机理。在非技术性角度,相关论述中频率出现较高的词汇是“平等”“公平”“公正”等,如分析人工智能的社会风险时认为“(人工智能)反过来又加大了世界的不公正……它对社会结构的打击也是毁灭性的”Stephen H.,“This Is the Most Dangerous Time for Our Planet”,December 1, 2016, https://www.theguardian.com/commentisfree/2016/dec/01/stephen-hawking-dangerous-time-planet-inequality.。人工智能的社会风险不仅仅是技术导致的,而是与社会结构共振而产生的,人工智能加剧了社会不公正并进而诱发了一系列社会风险。因此,探究人工智能的社会风险,首先需要探究人工智能会塑造何种社会?这种社会又如何产生社会公正风险?社会公正风险如何与技术风险叠加?这正是本文要研究的核心问题。

围绕上述问题,本文进行了以下研究设计。关于理论框架,由于人工智能社会极其复杂且处于动态发展过程中,分析该问题需要运用能够被历史证明的具有跨时空分析能力的理论框架,在所有的理论体系中,马克思主义无疑是最具历史生命力和未来预见力的范式,“从世界社会主义500年的大视野来看,我们依然处在马克思主义所指明的历史时代”习近平:《坚持用马克思主义及其中国化创新理论武装全党》,《求是》,2021年第22期。。本研究将运用马克思主义辩证唯物主义和历史唯物主义基本原理,探讨人工智能对人类社会的塑造以及潜在的社会公正风险。关于核心概念,为了更深入分析人工智能导致的社会公正风险,本文在使用马克思主义“剥削”概念的同时,引入维托里奥·布法切描述社会非正义时使用的“剥夺”(包括分配不均、排他性和去权力化)概念,维托里奥·布法切:《社会非正义》,洪燕妮译,江苏人民出版社2020年版,第12页。以此来探讨人工智能社会可能导致的经济剥削、分配不公、利益排斥、认知障碍以及受害者无力改变现状等多重社会公正风险。关于论证结构,为了探讨人类、自然、人工智能之间的多维关系,本文从四个角度对人工智能社会公正问题进行讨论:在改造自然过程中由人类与人工智能关系而产生的“生产公正”问题、在成果分配过程中人类与人工智能关系而产生的“分配公正”问题、在社会认知过程中人类与人工智能之间关系构成的“认知公正”问题、在发展过程中人类社会和虚拟社会之间关系构成的“发展公正”问题。关于论证策略,由于人工智能技术专业性强且复杂多变,相关社会公正风险涉及人类生活的方方面面,很难用单一的实证方法和单一渠道的实证资料予以证明,而单纯使用规范性研究方法又难以避免论证的空泛与说服力的匮乏,因此本文在对相关问题进行规范性论证的基础上,尽可能地应用最新的案例、数据以及各个领域权威性实证研究成果予以佐证。

二、生产公正风险:深度自动生产的社会与“劳动排斥”

社会生产的公正性问题是马克思主义公正理论的起点和最大特点。由生产力和生产关系构成的社会生产方式是决定社会形态的根本性因素,也决定着公正的内容和实质。在社会生产过程中,从事实践活动的劳动者无疑居于主体与核心地位。“一个很明显的而以前完全被人忽略的事实,即人们首先必须吃、喝、住、穿,就是说首先必须劳动,然后才能争取统治,从事政治、宗教和哲学等等。”《马克思恩格斯文集》第3卷,人民出版社2009年版,第459页。劳动作为人类的本质活动,不仅塑造人本身,而且构成社会基本矛盾的核心节点,决定着社会基本形态的中心要素。各种错综复杂的社会矛盾和社会风险都可以从劳动的数量、结构和类型中找到答案。

在人工智能大规模应用之前的传统社会,人是劳动的主体。虽然人类创造和使用先进工具并极大提升了社会生产力,但这些工具仍然属于劳动资料的范畴,并不具有人类所独有的能动性和创造性。然而,人工智能具有很强的自主决策能力,一定程度上具备劳动主体和劳动资料双重属性。换言之,人工智能不仅仅是工具,而且是劳动者,甚至在很多领域是超越人类的“超级”劳动者。以人工智能发展水平走在前列的美国为例,从事人工智能相关工作的人员约占全部就业人口的07%,但是被人工智能直接取代的劳动者数量占全部劳动人口的15%,按照这种趋势未来高达50%的工作量会被人工智能和机器代替。James M. et al., “Jobs Lost, Jobs Gained: What the Future of Work will Mean for Jobs, Skills, and Wages”, November 28, 2017, https://www.mckinsey.com/featured-insights/future-of-work/jobs-lost-jobs-gained-what-the-future-of-work-will-mean-for-jobs-skills-and-wages.人工智能深度运用的劳动场域不需要太多的人类劳动者就可以创造较高的生产价值。甚至,某种程度上人工智能可以“自主”地拓展新的劳动对象和劳动领域,而不需要人类劳动者的参与。除对劳动者工作机会的剥夺外,人工智能社会的生产公正风险更多表现为对于中高端工作的结构性替代,使劳动者的工作机会向下聚集,并进一步导致劳动能力的弱化和剥削的固化。

第一个层次的社会生产公正风险是“劳动机会向下聚集”。与传统机器“向下”替代人工,但仍然创造较多制造、管理、协调等高技术岗位不同,人工智能对劳动者就业选择的替代是“向上”的。除了少数“金字塔”顶端的开创性工作,“中端的工作因为自动化和外包不断流失,而高端工作的增长趋势也加速放缓”David R.,“How Technology is Destroying Jobs”,MIT Technology Review,vol.16,no.4(2013),pp.28-35.。世界经济论坛发布的《未来就业报告(The Future of Jobs Report)》显示,从2018年到2022年,机器的工作时长占比在多个工作领域都有了明显增长,在搜寻与接收工作相关信息方面占比超过50%,信息与数据处理领域的机器工作占比已经达到62%。即使在人类劳动者占据独特优势的复杂技术性劳动、沟通交流、推理决策等领域,人工智能和机器的工作时长占比都增长了10%左右。Centre for the New Economy and Society, The Future of Jobs Report 2018, New York:World Economic Forum Press, 2018, p.11.这种“向上”替代趋势使许多创意创新类行业感受到极大威胁,尤其是ChatGPT和Midjourney等最新人工智能工具的开发和使用,极大加快了人类工作“向下聚集”的趋势,比如从事对语音、语义、图像等数据进行标注以协助人工智能进行训练的工作。

工作机会的“向下”聚集,会引发第二层次的社会生产公正风险,即“劳动能力弱化”。劳动创造了人本身,灵巧的肢体、复杂的语言以及创造性的意识都是在复杂劳动过程中逐步发展演化的。当人类的劳动被局限在简单、重复的辅助性劳动之中时,人类劳动就失去了挑战新领域、锻炼新技能、发展新能力的机会。而在人工智能广泛应用的社会之中,可以预见大多数人类劳动者是处于“辅助”地位的。劳动的“目的”不是为了自身的发展,而是为了人工智能的发展和演化“投喂”数据。这是历史上从未大规模出现过的现象,这可能会从根本上削弱人的主体性和全面性。“个人的全面性不是想象的或设想的全面性,而是他的现实联系和观念联系的全面性。”《马克思恩格斯文集》第8卷,人民出版社2009年版,第172页。无法主动、全面地聯系现实,只能塑造出片面的和异化的劳动者,只能制造出永远处于从属地位和以“剥削”为合理秩序的劳动者。

前两个风险的叠加易引发第三层社会生产公正风险,即“劳动分体化”。人工智能时代除了劳动机会和劳动结构的剧烈变化,劳动方式也发生重大变化。传统工业社会的大规模的、真实的、由人类控制的劳动协作变得“虚无缥缈”,生产协作开始被平台和算法接管。人类的劳动出现“分体化”(Dividuum)的趋势。Raunig G., Dividuum: Machinic Capitalism and Molecular Revolution, Cambridge:MIT Press,2016,pp.11-24.与“碎片化”或者“原子化”的概念不同,“分体化”指的是劳动具有分散性和流动性双重特征。人类的劳动不需要有固定的职业、固定的场所、固定的关系,分散的个体可以在不同职业和场域中“自由”流动。表面上看,将劳动者从封闭的空间和协作关系中“解构”是人类自由的极大拓展,但从深层次讲,劳动的“分体化”使得背后掌控的资本不仅不用负担传统劳动所需要支付的社会保障、办公场所、组织建设、员工培训等费用,而且可以利用工作机会减少和向下聚集的态势,通过竞赛算法和激励算法使劳动者为了获得少量的劳动机会和“超额”的劳动报酬而进行“探底竞争”。劳动者的工作时长不断增加,而劳动者的劳动技能和组织能力则会不断削弱,而最终的后果就是对于劳动价值更加彻底的压榨和剥削。

三、分配公正风险:物质极大丰富的社会与“分配不均”

分配公正问题是公正理论的核心议题。马克思主义分配理论明确指出,生产方式的变革和生产关系的调整决定着分配公正的内容和实质。从学术史看,历次生产力的重大变革都带来了分配公正问题讨论的高峰。和历次产业革命一样,人工智能的普及和应用必然会极大提升社会的生产效率和生产力水平。大部分学者都认可未来的社会将是一个物质总量极大丰富的社会。但与人工智能社会快速的生产力调整相比,生产资料所有关系、产品的分配关系等生产关系构成要素却呈现出滞后的发展趋势。这导致未来社会的物质虽然极大丰富,但是产品的占有和分配却可能呈现出更加不公正的态势。“数量稀缺的高技能人才正日益为特殊利益阶层带来利益,尤其是资本所有者和控制者,大多数群体则被排除在人工智能/机器人技术所产生的经济利益和财富之外。”大卫·巴恩西泽、丹尼尔·巴恩西泽:《人工智能的另一面:AI时代的社会挑战与解决方案》,郝英好译,电子工业出版社2020年版,第10页。并且,经济成果的“分配不均”还不能完全概括人工智能社会在社会分配方面的公正风险。与传统社会中的土地、厂房、机器和设备等物质形态的生产资料相比,互联网数据、图文、人的动作、图书馆的书籍、大自然的变化等所有可以数据化的事物都是人工智能社会重要的生产资料,而这些生产资料的归属权和收益权并没有明确的规定。在观念和制度的真空中蕴藏巨大的利益,这就导致人工智能时代存在诸多隐性的“分配不均”风险。

第一类社会分配公正风险是“个体性分配不均”。在人工智能时代,人类个体作为生产者、生产资料占有者、消费者的身份边界日益模糊,三重身份的重叠制造了大量的模糊地带,这为新类型的剥削创造了巨大空间。首先,“个体分配不均”表现为对数字生产者的剥削。因低廉的生产成本和海量的受众,数字雇员创造的数字类产品剩余价值远超传统工业时代劳动者的劳动剩余价值,其受到剥削的程度也远高于传统资本主义社会。虽然数字生产者表面上享有超过社会平均工资的薪资水平,但是较高的薪资和激烈的竞争也使得劳动者更加难以意识到剥削的存在。以数字类工作最为集中的美国硅谷为例,虽然2021年全美贫富差距缩小了约3%,但硅谷地区的贫富差距却扩大了5%;硅谷8位富豪的财富超过了硅谷底层50%家庭财富的总和。Joint Venture Silicon Valley, Silicon Valley Index 2022, San Jose: Silicon Valley Institute for Regional Studies,2022,pp.8-32.其次,“个体性分配不均”表现为对数据资料所有者的剥削。理论上,每个人都对自己生产的数据拥有所有权。但在现实中,许多互联网平台和人工智能公司占有并使用了这些生产资料却没有对所有者付费。作为数据所有者的个人往往也没有意识和能力主张数据的所有权。莫里齐奥·费拉里斯(Maurizio Ferraris)分析了其中的原因:“现在我们不知道该如何使用这些文档,如果没有大型互联网公司的话,这些文档根本不会被收集起来。但是,如果没有我们,这些文档确实也不会存在。”莫里齐奥·费拉里斯:《文档媒介资本》,沈天乙译,《国外理论动态》,2020年第1期。正是这种对于个体生产资料占有权的剥夺和无偿占有使得数字资本获得远超传统工业资本和金融资本的高额利润。最后,“个体性分配不均”表现为对数据消费者的剥削。信息时代的垄断效应使得互联网平台往往以寡头的形式存在,消费者长期使用固定的互联网平台,使个人信息、社交网络、交易行为、工作交流、休闲娱乐等更多的数据被平台无偿使用,最终形成精确的用户画像。个体产生的数据在被转化之后又以高于市场的价格售卖给消费者。

第二类社会分配公正风险是“空间性分配不均”。表面上看,人工智能时代的特征是“去中心化”,但是现实中的算法、算力和算据都是高度集中的。以人工智能发展所必需的数据中心为例,美国以2701家处于绝对领先的地位,超过了之后8个国家的总和;世界上80%以上的数据中心位于G7国家;数据中心相对独立的发展中国家只有中国与俄罗斯。Petroc T., “Number of Data Centers Worldwide 2022”,February 10,2023, https://www.statista.com/statistics/1228433/data-centers-worldwide-by-country/.当今世界的人工智能往往聚集在个别发达国家、个别城市和个别大型科技公司,而其他绝大部分空间都会被排除在人工智能发展的红利之外。少数人工智能“高地”所依赖的数据、使用的能源以及需要的人才是大多数地区的分散主体创造的,这就形成了算法、算力、算据高度集中与数据、能源、人才的相对分散之间的空间性矛盾,并可能制造巨大的社会不公正风险。首先,是數据的“空间性分配不均”。正如生产数据的个体并不享有数据的所有权和收益权,生产数据的绝大多数空间亦不能从中获得税收或者财政收入。数据资源的价值被持续性“掠夺”必然会限制人工智能相对落后区域的发展潜力和发展机会。其次,是能源的“空间性分配不均”。人工智能的运算和散热需要巨大的外部能量来维持。虽然区域之间的能量是以市场价格进行交易的,但是作为初级产品的能源和作为高级产品的人工智能服务之间必然形成巨大的“剪刀差”。尤其是在可再生能源无法在能源结构中占据核心地位的当下,能源的开发和使用不可避免产生相应的污染物。能源交易价格中往往不包含环境治理所需要的巨大成本,这些有害物质更多是聚集在人工智能不发达的空间,这也将进一步导致灾害、疾病、死亡的不公平性空间聚集。最后,是人才的“空间性分配不均”。人才是人工智能社会最重要的战略资源。人才的培养是一个长期的过程,成本往往是由人口流出地承担,人口流入地并不会对这部分支出付费。此种局面长期发展下去就会导致人工智能落后区域不仅人才不断流失,而且无法可持续地培养本区域发展所需要的人才。一旦上述空间不均衡的态势固化,就会使破坏性力量在劣势空间聚集,不仅“摧毁了先前的制度框架和力量(甚至挑战了传统的国家主权形式),而且摧毁了劳动分工、社会关系、福利供给、技术混合、生活方式和思考方式、再生产活动、土地归属和情感习性”大卫·哈维:《新自由主义简史》,王钦译,上海译文出版社2010 年版,第3页。。

第三类社会分配公正风险是“时间性分配不均”。人工智能的快速发展是在低成本甚至零成本的前提下,尽可能压榨有限的时间资源。与其他资源的相对无限性而言,对人类而言所拥有时间资源的约束是刚性的。从个体角度看,人工智能对于时间的压榨是具有隐蔽性和成瘾性的。根据We Are Social和Hootsuite合作发布的2022年全球数字报告,We are social & hootsuite,“DIGITAL 2022:

ANOTHER YEAR OF BUMPER GROWTH”,January 26,2022, https://wearesocial.com/us/blog/2022/01/digital-2022-another-year-of-bumper-growth-2/.互联网用户每日平均使用时长为6小时58分,其中视频浏览3小时20分,社交媒体使用时间2小时27分。上述数据每年都在增长。个体时间大量消耗在网络数据平台,这种无意识的时间贡献不利于个体的发展乃至群体的进步。从人类历史长河来看,人工智能的快速发展离不开其对人类文明积累的大量数据财富的无偿使用。比如,谷歌翻译系统为了训练人工智能,它会寻找人类历史上已经翻译的各种书籍和文件,而谷歌公司并没有对这些历史性资源支付费用。人工智能对人类历史资源的无限度开发产生的所有利益更多是被人工智能平台所占据,这对于历史资源的创造主体而言显然是不公正的。最终对历史时间的掠夺和对当前时间的压榨不断促成对未来社会发展分配的不公正。

四、认知公正风险:虚拟与现实结合的社会与“认知剥夺”

作为人类主体性的基础,理性认知一直与公正问题密切关联。“认知活动是人类社会生活的重要内容,人类社会的发展以及实践活动的进行很大程度上依靠知识的创造、传递与积累。”白惠仁、高宇航:《认知非正义的概念边界》,《自然辩证法研究》,2022年第5期。而“认知不公正(Epistemic Injustice)”是指在某种认知压迫下,特定群体被排斥在认知活动之外,成为认知弱势群体,甚至认知身份被剥夺。Fricker M., Epistemic Injustice: Power and the Ethics of Knowing, Oxford: Oxford University Press,2007,p.4.在传统社会,认知不公正的演化是缓慢的、间接的,往往经由长时间差异化的教育、文化、群体认知、社会交往等形成。人工智能的发展加速了认知不公正的发展。当前,人们的认知越来越依赖互联网络,广泛进行数字化的“虚拟”生产、生活和社会交往。传统真实的、完整的、亲密的认知模式被数字技术解构与重构,虚拟的、碎片的、疏离的数字化认知开始成为人类认知的组成部分。虚拟化的加速发展打破了人类认知中的理性和自主性,人与环境的失调导致新型社会不公正的滋生。

其一,“理性认知剥夺”的社会认知公正风险。在人工智能技术的帮助下,海量的文字、图片、视频被制造出来,人们可以以一种“低耗能”的新的数字化的脑回路扫描、搜索、快速滚动、上下滑动等方式快速地浏览信息。这种替代性的阅读方式正在与传统深度阅读过程中的脑回路展开竞争,人类越来越习惯于碎片化、直觉化、即时化的思考和认知方式,尤其是成长发育期的青少年。脱离现实社交的网络虚拟社交通过基于用户喜好的算法为青少年大量“投喂”不受自己控制的虚拟社交关系,使其在极端快乐和沮丧的情绪中不断切换,并导致焦虑、抑郁、孤独、注意力缺陷、多动障碍等症状,极大伤害青少年的理性思考和正确认知。Dubicka B., Martin J. and Firth J.,“Screen Time, Social Media and Developing Brains: A Cause for Good or Corrupting Young Minds?”, Child and Adolescent Mental Health, vol.24,no.3(2019), pp.203-204. 如果不加以科学合理的规制,长此以往,深度和理性的思考将属于少数人,越来越多的人会沦为认知弱势群体。

其二,“自控能力剥夺”的社会认知公正风险。对人类认知最直接、破坏力最强的剥夺形式是“成瘾”。有研究发现基于人工智能创造的电子产品具有类似毒品的效果,Berthon P., Pitt L. and Campbell C.,“Addictive Devices: A Public Policy Analysis of Sources and Solutions to Digital Addiction”,Journal of Public Policy & Marketing, vol.38,no.4 (2019),pp.451-468.如很多软件中设置的“向下滑动”功能与拉动老虎机杠杆的动作十分类似,其模拟了老虎机上的间歇性奖励模式,而以老虎机为代表的赌博是《精神疾病诊断与统计手册(第五版)》(DSM-5)目前唯一确认到的行为成瘾。当前,虚拟现实(VR)和增强现实(AR)等技术的发展,为完全虚拟的“元宇宙”的发展创造了技术基础。人工智能技术与“元宇宙”技术相结合,可以利用快速反馈、未知惊喜、视觉占据等方式向特定主体定向“投喂”其希望接受的信息,以此对大脑神经进行不间断的刺激,构建多巴胺回路的反馈机制,使人们享受体内激素带来的愉悦而无法自控。当人类视觉、听觉、味觉、触觉等感官都被电子设备占据,任何现实世界中无法实现的梦想都可以在虚拟世界轻易满足时,很少有人能够自我控制,抗拒这种精心针对人类认知设计的“毒品”。尤其是当人工智能技术带来上文述及的大规模失业问题时,成瘾性问题将会更加难以控制。

其三,“自主选择剥夺”的社会认知公正风险。人工智能可以基于大数据分析在特定情境下做出最优决策。这种人工智能技术下的决策选择在很多领域和场景中削弱了人类基于传统经验或范式形成的自主选择权。更有甚者,不当的人工智能技术可以编造虚假信息,并通过虚假引用和反复引用等方式嵌入到人类的认知体系,进而干扰人类的自主选择。有研究指出,以ChatGPT为代表的大型通用语言模型在法律、政策、财经甚至医疗等专业领域的回答中大量编造并不存在的参考文献,并提供拼接的虚假信息。Thorp H. H., “ChatGPT is Fun, But Not an Author”, Science, vol.379, no.6630 (2023), p.313.这些形真实假的信息对于非专业人士而言很难辨认,并有很大概率被当成正确信息嵌入至人类认知中。“自主选择权剥夺”的影响也会进一步蔓延至事关公共利益的政治选择,如著名的“剑桥分析”丑闻。Hu M., “Cambridge Analyticas Black Box”, Big Data & Society,  vol.7, no.2(2020),pp.1-6. 另外,“自主选择权剥夺”还表现为占据“公共理性”。《自然·通信》杂志发表的一篇基于跨越数十年的多领域的纵向数据集表明:针对公众认知,特定主体可以利用人工智能技术在短时间内制造大量的特定内容,通过无差别覆盖的方式填满公众的认知過程,导致单个主题的社会关注时间持续缩短。Lorenz-Spreen P. et al., “Accelerating Dynamics of Collective Attention”, Nature communications, vol.10, no.1(2019), pp.1-9.在这种人工塑造的加速节奏中,公众无法选择议题,也无法就任何重要公共议题进行长时间、有效的讨论。占社会大多数的公众作为一个整体被排斥在认知活动之外,公共理性也因此被消解。

五、发展公正风险:矛盾主体虚化的社会与“公正停滞”

传统的发展公正问题默认探讨的场域是在人类社会内部个体或者群体围绕某种“资源”的平等或者公平问题展开。人工智能的发展使得“独立”于人类现实社会的“虚拟社会”加速形成,从结构上改变了公正探讨的场域。人类社会希望依靠“虚拟社会”提升生产效率和拓展生存方式;而人工智能社会需要来自现实社会的能源、数据和其他资源。在当前有限能源的约束下,虚拟社会对于能源以及由此衍生出的其他资源的占用,必然会挤占现实社会发展所需要的资源。尤其是当虚拟社会无法兑现对于现实社会的发展承诺时,两者之间的“发展公正”风险便成为人类必须直面的问题。

首先,是人工智能与人类社会“能量争夺”导致的发展不公正风险。迄今为止人类文明所有的发展都基于对能量的开发和利用。瓦茨拉夫·斯米尔:《能量与文明》,李竹译,九州出版社2021年版,第2页。从采集植物和狩猎动物获得能量的原始社会,到种植作物和利用畜力获得能量的农业革命,再到大规模开采利用化石燃料获得能量的工业革命,人类文明的每一次飞跃都与能量开发规模与效率的大幅提升密切相关。在可控核聚变还难以实现的背景下,以人工智能为代表的新工业革命并没有实现能量利用方式的革命性发展。由太阳能量长期贮存而形成的化石能源和太阳能量断续收集而形成的“新能源”仍然是人工智能社会的主要能量来源。而人工智能是典型的能量密集型的产业,其训练、推理、存储、演化以及附属的物联网和其他硬件的运行均需要消耗巨大的能量。由于现阶段的人工智能主要建立在不断增加变量的“暴力计算”基础之上,加之计算机硬件逐渐逼近摩尔定律的极限,人工智能的能耗在未来可能会呈现出几何级增长,而人类社会能量的总量又不会在短时间内大幅增加。这种矛盾化的发展局面可能导致人工智能与人类社会竞争能源的情况:人工智能的发展速度越快,其所占有的能量比例就越高,而人类现实社会占用的比例就越少。人工智能与人类社会“能量争夺”又会传导至人类社会内部,激化本来就已经存在的发达国家和发展中国家、城市与乡村、富人与穷人以及不同行业之间的能量分配不公正问题。

其次,是人工智能与人类社会“权责失衡”导致的发展不公正风险。虽然不同文明在不同历史阶段阐释和实践的权责体系并不相同,但是人类文明的基本共识是:如果特定社会主体享有的权利大于其承担的责任,那么这种社会类型则被认为是不公正的和需要进行改造的。张贤明:《政治责任的逻辑与实现》,《政治学研究》,2003年第4期。在传统的人类社会,权责体系中的漏洞和缺陷往往是具象的、可感知的,因此对其批判和改造亦有明确的诉求和目标。随着人工智能社会的加速形成,传统的权责体系开始被解构。在人工智能社会,权责体系是虚拟的、流动的,难以被清晰地感知、量化和判定,不仅人工智能的拥有者、操控者、使用者等身份很难清晰地界定,而且人工智能本身是否应该以及如何承担主体责任也是棘手难题。人工智能在占有大量资源的同时难以让其承担与之对等的责任,甚至被作为免除责任或者推诿责任的工具。例如,针对人工智能领域的侵权、伤害和其他责任案件频发,欧盟计划于2023年3月底通过《人工智能法案》。从现在的情况看,这一法案的出台仍然遥遥无期。注:截至2023年4月22日,该法案仍未出台。当下对于人工智能的定义就有50多种,更遑论“高风险” 的定义、合规责任的分担、监督权力的分配、实施机构的设置等一系列无法调和的难题。金玲:《全球首部人工智能立法:创新和规范之间的艰难平衡》,《人民论坛》,2022年第4期。何况,即使通过了对于人工智能的立法,这些法律也无法真正穿透虚拟与现实之间的模糊但又难以逾越的界限。

最后,是人类社会对人工智能的“消极反抗”导致的发展不公正风险。面对社会不公正问题,除了渐进的改良和改革,革命是实现社会公正的决定性环节,“是被压迫者和被剥削者的盛大节日”《列宁选集》第1卷,人民出版社2012年版,第616页。。根据马克思主义基本理论,革命的发生需要具备三个重要条件:一是生存困境;二是人民群众的革命觉悟;三是革命组织和革命理论。《列宁选集》第4卷,人民出版社2012年版,第193页。人工智能社会在很大程度上削弱了革命发生的所有条件:人工智能社会是高度不平等但相对富裕的社会,大部分人不会面临传统社会因为饥饿或者寒冷导致的生存困境;人工智能作为虚拟与现实结合的社会,大量沉迷于虚拟世界的民众并没有坚定的革命意识和牺牲精神;责任主体虚拟化的社会使得社会性批判和改革缺乏有效的目标和工具。当然,没有革命并不意味着没有反抗,人工智能社会已经呈现出“消极化”的趋势,其最典型的方式就是“躺平”。大量的群体出现不工作、不消费、不纳税、不远行、不交往、不生育、不冲突、不抗争等消极行为,如日本的“低欲望社会”、美国的“归巢族”(Boomerang Kids)、英国的“尼特族”(NEET,Not in Education,Employment or Training)。这种消极现象在全球范围内迅速蔓延,这一群体在欧盟15-29岁人群中平均占比超过13%,而意大利的比例则高达231%。Eurostat,“Statistics on Young People Neither in Employment Nor in Education or Training”,May 26, 2022,https://ec.europa.eu/eurostat/statistics-explained/index.php?title=Statistics_on_young_people_neither_in_employment_nor_in_education_or_training.人工智能带来的很可能是一个“无革命”的社会,不公正的社会关系难以被摧毁,这可能是人工智能社会存在的最大公正风险。

六、结论与讨论

人工智能导致的“失业陷阱”“无隐私社会”“算法黑箱”“鲁棒性鸿沟”等社会风险都根源于人工智能社会的不公正。概括来看,未来人工智能的社会公正风险可能主要包括:从“生产公正”角度看,劳动者从历史的主体地位退化为从属地位并永久固化。从“分配公正”角度看,人工智能社會物质产品总量会更加丰富,但分配差距很可能达到历史的顶点。从“认知公正”角度看,人工智能社会的虚拟空间深刻嵌入物理空间,可能会使大部分群体被排除在理性认知之外。从“发展公正”角度看,人工智能社会可能会过度汲取人类社会资源而不承担相应责任,并进一步导致人类社会追求公正的动力逐步弱化。通过初窥人工智能社会公正风险的一角,可以发现其症结所在,并为风险防范提供了基本思路。

其一,导致人工智能社会“公正风险”的核心矛盾在于当今世界资源有限性与人类和人工智能需求无限性之间的矛盾。客观而言,与约一万年前的农业革命以及二百多年前的工业革命相比,以人工智能技术为代表的“第四次工业革命”并没有实现能源利用、生产方式和生存场域的实质性拓展。在资源总量有限性的约束下,很可能导致文中提及的人工智能与人类争夺劳动机会、生产成果、认知资源和发展机会等的“公正风险”。因此,化解人工智能社会公正风险的关键在于以下几点:首先,大力推进在能量探测、开发、收集、存储、转换等领域的人工智能技术,增加能源的总量和能源的使用效率,提升人工智能时代能源约束的上限;其次,主动利用人工智能技术拓展人类生产和生活的场域,比如对荒漠、海洋、太空等空间的大规模开发和利用,通过外向型发展避免人工智能社会的“内卷”;再次,将能效作为人工智能技术发展的重要约束,避免单方面追求模型规模和精度导致的能量过度消耗;最后,在通过人工智能技术降低人类社会能耗的同时,合理划定人工智能消耗能量占全部能量的比重,保证人类社会发展所需要的基本能量。

其二,激发人工智能社会“公正风险”的核心诱因在于人类社会本身固有的社会不公正问题。在强人工智能尚未出现的当下,弱人工智能的工具性大于其自主性。人工智能导致的社会公正风险更多是对现有社会公正问题的映射和放大。因此,化解人工智能社会“公正风险”的关键在于解决传统社会中的不公正问题,尤其要解决在生产资料占有、生产成果分配、认知能力发展等方面在时间、空间和数量上的不公正。具体而言:从生产公正角度看,应该利用人工智能的发展成果不断提升劳动者的素质和能力,使劳动者能够主动驾驭人工智能技术,实现人工智能与人类劳动者的共同成长;从分配公正角度看,应该明确人类个体和集体产生数据的生产资料属性,使行为数据、情感数据、历史数据、空间数据等参与到分配过程之中,通過数据“转移支付”的方式对于人工智能社会的弱势主体和空间进行补偿;从认知公正角度看,应该通过教育方式提升个体的理性认知水平,同时加强对人工智能技术在宣传、传播、科研、娱乐等领域应用的监管,及时化解人工智能对于理性认知的破坏隐患,及时清理虚假和错误的信息,及时制止部分主体利用人工智能技术误导公共认知的不法行为;从发展公正角度看,应该强化人工智能的公共属性,推动不同类别人工智能成为其发挥作用领域的公共产品,避免复杂利益结构导致的权责失衡。

其三,降低人工智能社会“公正风险”的核心障碍在于现有治理手段难以直接作用于人工智能领域的责任主体。人工智能技术与传统技术的区别在于,其运行过程中存在难以穿透的算法黑箱、过程黑箱和决策黑箱。受益者可以躲在人工智能技术的黑箱中,以“技术中立”“技术责任”的名义在享有超额收益的同时规避应当承担的公共责任和法律责任。其实,相对于人工智能不断利用算法增加变量的逻辑,人类独有的能力是对纷繁复杂关系的简化。穿透人工智能的责任黑箱,一方面需要应用最新的技术手段,另一方面更应该回到人类社会的主体和发展目的,即人的发展。人工智能社会的公正需要尊重人的主体地位,以人民的各项权利界定人工智能及其开发者和应用者的责任,以人的全面发展划定人工智能发展的边界,以人的全面自由解放确立人工智能技术的发展方向。

(责任编辑:游 姣)

猜你喜欢

人工智能
我校新增“人工智能”本科专业
用“小AI”解决人工智能的“大”烦恼
当人工智能遇见再制造
2019:人工智能
AI人工智能解疑答问
人工智能与就业
基于人工智能的电力系统自动化控制
人工智能,来了
数读人工智能
人工智能来了