APP下载

人工智能深度伪造技术的伦理风险与虚无困境

2023-08-04

关键词:深度身体人工智能

张 灿

(中国矿业大学 马克思主义学院,江苏 徐州 221116)

一、引言

人工智能深度伪造(Deepfake)技术是利用人工智能算法程序,通过合并、替换、叠加图像和视频的方式,创造深度假视频,即“利用机器学习算法,将人脸和声音插入真人的视频和音频,并能够利用整个数字空间创造出逼真的模仿。”[1]简言之,深度伪造是利用机器学习和人工智能操纵音频和视频片段,可以让任何人似乎说了或做了操纵者想要的任何事情。从技术原理而言,“深度伪造技术是生成对抗网络(GANs)的产物,即两个人工神经网络共同创建。其中一个称之为生成器(generator),另外一个称之为鉴别器(discriminator),二者在相同的图像、视频或声音数据集中进行训练。生成器网络试图创建足够好的新样本,以欺骗鉴别器网络,而后者则确定新样本是否足够真实,二者相互对抗,从而推动彼此提高。”[2]人工智能深度伪造最早应用于名人色情虚假视频,即人工智能虚假色情。(1)2018年1月24日,在著名的社交网站Reddit上,一位匿名人士将盖尔·加朵(《神奇女侠》女主角)、马茜·威廉姆斯(《权力的游戏》女演员)和黛茜·雷德利(《星球大战》女主角)等名人的照片叠加到色情电影中,标题则取名为“deepfake”。随之,成千上万的人在Reddit上跟帖分享自己制作的深度虚假色情图片和视频。随着人工智能技术的进展和社会法规的应对,深度伪造技术逐渐摆脱了色情制造的负面形象和标签。特别是在商业化应用背景下,深度伪造技术逐渐展现出正向价值和负向影响的双重效应。就正向价值而言,深度伪造技术的应用主要包括AI主播新闻报道、教育互动、虚拟艺术创作、搞笑讽刺、数字修复;不良使用主要包括法庭假视频证据、政治谣言、恐怖主义宣传、经济敲诈、市场操纵、重大假新闻等。面对人工智能深度伪造技术的应用,尽管存在相应的法律规范和治理策略,但是在复杂的数字化网络空间中,政治场景、商业场景和日常生活场景的深度伪造带来的诸如隐私侵犯、自由悖论、社会信任冲击、舆论认知变异等社会伦理风险仍然是一个重要且紧迫的理论和实践问题。(2)2023年3月22日,在美国互联网社交平台中,美国前总统唐纳德·特朗普被捕的照片被大肆传播,后被证实图像是由人工智能生成,但由于AI图像过于逼真,仍然欺骗了众多网民,从而扭曲了人们既定的公共认知。紧随其后,3月28日,在中国互联网社交平台中,广州地铁站女子正常着装照片被AI一键脱衣的色情造谣图像被广泛传播且冲上热搜,从而引发社会热议和公众关注。众多网友对此表示,AI不应当用于任何违反伦理规范和法律法规的行为。正如有学者指出,数字化时代,Deepfake算法和ChatGPT这样的大规模语言模型可以被用来创建虚假内容,导致社会风险,危及了区分真实和虚假的能力。[3]因此,利用人工智能深度伪造技术,人们可以轻而易举地制造出各种逼真的视频、图片和音频,以跨越现实身体实践的物理限制,从而操纵数字化身体实践样态的生成和流动性建构。进而言之,无论是人工智能深度伪造技术的正向应用,还是负向应用,以人工智能深度伪造技术为代表的生成式AI的创造力和技术想象力正在以“数字化身体”为焦点,引领AI从“换脸”到“造脸”的升级,以制造一个真实和虚假交融的生活世界。在超真实的数字化世界中,现实世界被虚拟世界遮蔽,进而导致人的认知、伦理和生存的虚无化。

二、人工智能深度伪造技术对数字化身体的再造

在人工智能深度伪造时代,身体行动被重塑。在现实世界中,物质身体构成了人具体行动的具身主体。按照现象学的观点,身体构成原初经验的来源,而非一个被动的客体。就身体主体而言,身体“成为一个体验,就是内在地与世界、身体和他人建立联系,和它们在一起,而不是在它们的旁边。”[4]梅洛-庞蒂将其称为身体图式,一种理解、体验生活世界和对意义把握的存在论方式。“身体不是自为的客体;它实际上是‘一个自发的力量综合、一个身体空间性、一个身体整体和一个身体意向性’。”[5]在此意义上,身体成为社会行动的一个符号系统,是社会意义和社会符号的载体和承担者,构成了一种与社会互动建构的场域。一方面,身体内生于现实生活世界的深层次交往结构;另一方面,身体被技术美学、工业消费主义所塑造。正如约翰·奥尼尔把身体区分为生理身体和交往身体,我们同样可以把身体区分为现实身体和数字化身体。所谓的“数字化身体”,是指“公民在网络空间和虚拟世界中所具有的、用以标榜自我身份的一系列符号的总称。”[6]数字化身体一方面复制了现实身体在生活世界的行动逻辑,另一方面也打破了身体的时空物理限制。数字化身体不是身体在虚拟世界的简单数据化,而是塑造了一种数字时代的生存图景,展现出新的特征。

(一)数字化身体的流动性

身体不是精神和意识的依附,而是标志自我存在且能够感知生活世界的主体。在社会场域中,内生于具体的情境实践,身体构成了一种自我反身性的投射,从而建构一种确定性的行动纲领和自我认同。但是,在高度现代性的社会中却产生了一种悖论。一方面,“高度现代性中的人们倾向于更加重视身体作为自我的构成要素”;[7]另一方面,“现代性的抽象体系彻底渗透了自我与身体,并使之成为各种生活方式选择的检验场”,[8]身体日益变得不确定。特别是在数字抽象化系统中,数字化身体具有高度的流动性。在数字现实和物理现实不断融合的时空中,以数据、算法、智能平台抽象而成的数字化身体具有一种高度流动性。一方面,以人工智能深度伪造技术为代表的数字化技术模糊了实体身体与数字化身体的界限;另一方面,不可避免地重新配置了身体在数字化网络空间中的体验、行为和社会关系,产生了一种不可预知性和不可感知性。数字化身体展现出一种数字化脱域机制,从具体交互式行动中抽离出来,而变得不可捉摸。更为重要的是,物质身体是内在具有人格同一性的实体存在,而数字化身体将内部空间完全外溢于网络社会群体之中,从而导致数字化身体行动的脆弱性,以一种数据信息流的方式在虚拟世界中进行传播和应用。在此意义上,人工智能深度伪造技术创造了一种以身体为焦点的流动性控制和规训,构成了齐格蒙特·鲍曼(Zygmunt Bauman)等所言的“液态监视”(liquid surveillance)。在液态监视中,数字化身体是一种透明性的、可无限复制和生产的流动性存在材料。“液态监视与其说是一种更加详细的监视方式,不如说是一种新的定位,一种在当今流动和动荡的现代性中定位监视发展的方式。出于一个目的提取的数据更容易被用于另外一个目的,监视以迄今为止难以想象的方式蔓延,回应并复制流动性,监视不断溢出各处。”[9]就此而言,就不能仅仅把深度伪造技术看作是一种简单复制和创造数字化身体图片的工具,而是应当把此种技术理解为一种新的数字权力。因为借助于高度智能的数字化平台体系,深度伪造技术构成了一种“监视组合”,捕获了可以称之为身体数据的流动,将其转化为高度流动和移动的数字替身。

(二)数字化身体的自我敞视

在后全景的流动性世界中,许多被大力收集和用于他处的图片、视频等信息实际上是人们自我的积极生产。这种图景不再是福柯所言的全景式监视,因为在福柯的哲学话语中,监视必须具备有形的中心实体作为凝视者。但是,在数字时代,凝视者不再是传统的凝视/被凝视的二元结构,而具有流动性和游牧性的特征,这也被韩炳哲称之为“透明社会”。因此,要深刻理解人工智能深度伪造技术的社会机制,必须根植于数字透明社会。首先,数字时代的透明社会是一种自我展示的社会。在数字化全景展示社会中,“每一个主体都是自己的广告对象。一切都是以它的展示价值来衡量的……所有的东西都被向外翻开、被揭去遮蔽、被夺走掩护……过度的展示将一切变成商品。”[10]因此,我们并不害怕身体的展示和隐私的泄露,而是害怕被拒斥在数字生活世界之外。我们在主动地自我暴露,以各种数字化身体的生产和行动遨游于虚拟世界中。在各种身体数字自拍、身体数字化场景记录、身体数字化虚拟中,将自己主动地暴露于数字化平台之中。随之而来的不是隐私丧失的忧虑和自由被剥夺的恐惧,相反,是各种数字生活场景自我展示获得的点赞、积极评论和肯定等带来的喜悦。这种自我展示逻辑似乎是一种自由,但实际上是一种自我剥削式的强制性视觉暴政和视觉透明主义。“如今,只有当事物被展示出来并获得关注时,才拥有了价值……也因此把自身变成了商品……我们的确狂热地在社会网络上‘生产自己’。”[11]这种以自我展示为核心的数字化身体景观的大量生产导致自我数字化的超可见性,一切在数字透明逻辑之中成为同质化的被凝视之物。换言之,人既是数字化身体的凝视者,也是数字化身体的被凝视者。因此,在数字化身体图景中,人们不断构建符号化、流程化和同质化的自我暴露美学,从而陷入了数字景观崇拜和信息流瀑之中。这自然会导致数字化身体成为数字化技术无限拼接、挪用,复制、粘贴的去物化之物,为各种技术叙事和场景叙事提供了可能。因此,数字化身体是一种“去身体化”的存在,一种去实体化的遮蔽。

三、以数字化身体为焦点:人工智能深度伪造技术的伦理风险

数字化身体成为人工智能深度伪造技术的操作对象和行动焦点。在数字化身体景观中,人工智能深度伪造技术的伦理风险涉及四个层次:个人、社会、国家和生存论意义上的本体性安全。

(一)生物识别数据隐私与自主性侵蚀

数字化个体生物识别信息数据滥用,从而导致隐私损害和自主性丧失。深度伪造技术正在以越来越常见的方式应用于身体的数字化,包括人的声音、肖像等各种生物识别信息。深度伪造并不是对真实生物信息的剽窃,而是对生物信息的数字化模仿、篡改。生物识别信息数据主要包括人脸、身体、表情、指纹、声音、视网膜等静态和动态图像,具有四个特征:第一,普遍性,每个人都具备此种特性;第二,可收集性,即可定量测量的特性;第三,差异性,即人与人之间的特征应该是不同的;第四,持久性,即特性应该保持不变。[12]这四个特征决定生物识别信息关涉个体的自主性和核心隐私权利,即自我意识和社会身份的确证。但是,在深度伪造时代,随着个体和各种智能设备互联,尽管受到威胁的不是人的现实身体等生物信息,而是数字世界中代表其形象和声音的数据、照片、视频和音频材料等数字人格身份标识,但是,数字识别信息代替了生物信息,数字角色则代表了社会角色。因此,生物识别信息数据加剧了隐私损害与自主性侵蚀。信息技术时代人的隐私权利分为四种,决策隐私是指个体免于不当干扰对生活作出决定的权利;空间隐私是指个人物理空间的权利,即未经明确同意,不能被侵犯;意向隐私是禁止或阻止可观察事件或暴露特征的进一步交流的权利;信息隐私是指个体信息访问限制的权利,即这些信息代表了可能被用于识别个人身份的信息。[13]深度伪造技术一方面可以利用人的生物识别信息制造虚假视频;另一方面,深度伪造技术可以生成真实的“虚假生物识别信息”。因此,虚拟生物识别信息的再造违背人的意愿,这当然不再是简单的知情同意问题,而是真正改变了个体决策隐私、意向隐私和信息隐私的权利,从而制造一种难辨真假的行为和思想表达。以人脸为例,在深度伪造时代,人脸正在成为一个矛盾集中的对象。作为生物事实和图像、作为社会身份标记、作为私人自我和公共空间的界面、作为自我暴露的场所、作为面具和商品,人脸在数字化时代面临日益严重的挑战。其中最重要的是,随着数字成像和操纵技术的兴起,作为图像的人脸与人类主体性的亲密、不可侵犯的联系日益不稳定和具有流动性,人脸可以未经允许被过滤、复制、重塑、伪造和交换。[14]

(二)社会信任危机与群体分化

数字化群体的深度伪造导致社会信任异化和假新闻泛滥。假新闻是一个全球性的重大问题,而深度伪造技术和当前人工智能算法的流行,为炮制深度假新闻提供了越来越多的机会和方式。鉴于政治领袖、行业专家、知识分子和公众人物都适合被深度造假,这进一步加深了假新闻的负面效应,引发公众对新闻媒体的不信任感。此种不信任感的核心在于,公众不一定被深度伪造技术欺骗,但是却带来一种无法区分真假的社会信任危机,从而导致一种没有足够信息进行确定性的选择,即不断接触虚假信息的人们对包括视频在内的很多信息缺乏信任感,从而导致一种“信息末日”或“现实冷漠”的现象。没有声音是安全的,没有图像是安全的。将人工智能技术融入到这个真相终结的场景中,人们将无法区分现实和虚构。如果你不能相信你的眼睛和耳朵,你还能相信什么?[15]“研究表明,真实的讲话通常会被误导性的、虚假的内容淹没在一种被称之为虚幻的真理效应之中,试图纠正谎言往往适得其反。反复接触错误信息,即使是为了纠正错误信息,也会增加错误信息被当作真实信息的可能性。”[16]因此,一旦事物的真实性在社会认知层面遭遇整体性破坏,深度伪造就会降低人们对生活世界任何存在事物的信任感,从而削弱社会基本认同感和社会共同体的道德一致性。为此,深度伪造可能会放大政治偏好、竞争行为、社会交流模式,从而加剧社会的两极分化。深度伪造带来可怕的认知障碍和信任异化,即除了导致错误的信念和破坏真实的信念之外,深度伪造阻止人们获得真实的信念。[17]这就进一步削弱了信息作为信任确证的认知价值,因为声音和图像的真实性不再被视为可靠与足够安全。在20世纪的大部分时间内,杂志、报纸和电视广播公司负责向公众传播信息,而且具有严格的专业标准和质量要求,这意味着,只有有限的个人和组织可以广泛传播信息。而数字化平台容易受到信息级联的影响,即人们在传递他人共享信息时,不去检查信息是否真实,最终结果是,虚假信息和谎言的传播速度比以往任何时候都要快,从而成为深度伪造的沃土。换言之,在虚假与现实交融之间,信息泛滥与冗余导致获得真实更加困难。很多时候,社会群体只能依靠习惯、情感和价值立场进行选择,从而导致社会群体极化、群体价值冲突激化、网络谣言危机加深、网络民粹主义盛行。

(三)政治舆论变异与社会民主破坏

深度伪造无论是对国家传统安全(如军事安全和政治安全),还是非传统安全,以及国际安全,都带来了越来越大的冲击和挑战。首先,是对政治人物的深度造假。基于特定政治目的、虚假宣传、政治抹黑,深度伪造通过对政治人物的陷害、污蔑或勒索,从而引发政治安全危机:“扭曲民主话语,侵蚀机构信任,加剧社会分裂,破坏公共安全,破坏外交关系,危害国家安全。”[18]深度伪造会威胁每个政治团体、宗教团体、体育团体,因为它赋予了其双向攻击能力,即任何团体都可以相互攻击对方,从而以各种堕落的方式做出垃圾言论和辱骂行为。特别是在重大政治活动前夕,对重要政治人物进行视频合成,歪曲相关人物的话语、行为,从而煽动社会争议。而更加令人担忧的是,任何人都可以把这些公众人物叠加到任何视频之中。鉴于深度伪造软件的激增,以及公众可以轻而易举地访问社交网站照片,制作这些深度造假并不困难,也不昂贵。用户并不需要掌握神经网络的工作机制,只需要掌握一般的计算机应用程序。在此意义上,很难阻止政治名人虚假视频的持续生产和传播。其次,深度伪造对社会民主造成威胁。其中最重要的挑战是,深度伪造在社会公共事务中的非法武器化。恶意造假者可以伪造证据,以助长对公众人物的虚假指控,甚至可以对公众人物的性格、身体健康和心理健康状况进行质疑和篡改。当然,深度伪造也可以针对公众人物进行全新的虚假包装,包括发表有争议的、歧视性的、仇恨性的极端言论,以达到制造虚假社会分歧或者煽动暴力的目的。再次,深度伪造可以发布虚假政治信息宣传。在战争、军事和国际政治较量中,深度造假作为一种虚假信息,可以为战略、行动甚至战术欺骗提供支持。例如,制作一段逼真的假视频,描述某个国家政客针对其他国家和民族的仇恨性言论或者军事威胁等,从而影响国家、地区和民族之间的关系,干扰国际政治稳定。另外,深度伪造对于非国家行为体尤为有用,比如恐怖组织。这些组织历来缺乏充分资源制作和传播欺骗性足够强且可信的音频或视频内容,但是深度伪造技术却为恐怖组织提供了轻而易举地制造歪曲事实的暴力视频的能力。

(四)后真相与本体性安全丧失

深度伪造技术建构了“后事实”与“后真相”,消解了真相与客观性。“后真相”的本意是指,客观事实对公众舆论的影响不如情感和个人价值诉求的影响力。[19]事实可以通过深度伪造进行塑造,即“我们看见事实被人们捡起来,摔到墙上,它们自相矛盾,分崩离析,被夸大被模仿。我们正在见证牛顿第二定律的事实版本:在网络上,每个事实都有一个大小相等、方向相反的反作用力。”[20]事实的土崩瓦解,而且以一种感性直观、真实存在的图像和视频的方式瓦解,进而造成了后真相的滥觞。进而言之,后真相并不是没有真相,相反,人们获取和传播的信息都是真实的。但是,在深度伪造“事实”的场域中,真相无法自我显现和表达。就此而言,后真相的本质在于无共识。当一个社会无法形成基于事实和真相的社会价值和秩序共识,而转向事实在后、客观在后、真相在后和认知在后时,立场、情绪和利益自然成为塑造社会真相的决定性力量。[21]按照鲍德里亚的观点,图像等技术媒介还原的真相,即一种“我”作为主体的不在场,是一种再现的、无意义的符号,是“实际不存在但又偏偏存在的事实。再换句话说,就是幻影。”[22]那么,深度伪造则创造了更加逼真的事实符号化的真相幻影。在本体上,后真相对事实碎片的重组和解读导致了不确定性风险,即认知的不确定性和生存论的不确定性。认知的不确定性是一种由于缺乏足够信息进行行动的情境,特别是,深度伪造事实的不断传播导致人们在互联网上即便拥有更为充分的“真相”信息,反而离真相越来越远,由此走向生存论的不确定性——本体性安全的丧失。本体性安全是指,“大多数人对其自我认同之连续性以及对他们行动的社会与物质环境之恒常性所具有的信心。”[23]“人在世界中存在,本体性安全其实就是人对自己遭遇到的世界因确定性而有可靠的感受、恒常的信心,自我也因连续的经验、经历而拥有清晰、稳定的自我认同。”[24]在深度伪造的真实与虚假的来回切换中,人们自我构建的经验与认知模式在与外在世界系统打交道的过程中频频失效,导致时空脱域、信任系统危机,从而陷入一种本体的焦虑。从根本上而言,深度伪造动摇了个体或群体信任经验的认知结构和判断力,从而无法区分真实与虚假、可信与不可信。因此,后真相的危机不是简单的认知危机,而是一种社会伦理危机和社会共识的瓦解,即对于媒介信息的系统性不信任和被欺骗感。深度伪造消融和遮蔽了事物的真实性和客观性,不可避免地张扬了非理性、情感认同、政治立场对于事实本身的优先地位。

四、人工智能深度伪造技术的虚无困境

人工智能深度伪造技术可以对个体隐私信息、群体社交行为、社会政治信息、商业经济信息进行图像和视频的深度伪造和合成,产生认知混乱、群体观念撕裂、社会价值对立等风险,从而导致事实的虚无、认知的虚无、价值的虚无和技术虚无主义。

(一)事实的虚无:真相与假相的内爆

在人工智能时代,公众获取信息和认知世界的方式已从传统的文字阅读方式转变为以图像为主的方式。图像分为静态视觉图像和动态视频图像,它们以具象性、生动化和近似性对现实世界进行客观反映与呈现。因此图像和真相之间存在一种辩证关系,真相需要借助于图像进行表征和建构,与此同时,图像作为真相呈现的一种方式,并不能完全等同于事实与真相,其存在着拟态真实和虚假再造。尽管图像和真相之间并不是一种绝对的同一,但是作为一种事实客观记录和生动表达的图像,仍然构成了“有图有真相”的观念。[25]随着人工智能深度伪造技术对图像的合成、设计、重塑,数字化图像以一种极其逼真的方式消解了视觉判断中世界的真与假,从而具备了强大的事实与真相的遮蔽能力。此种数字化图像不是简单地对真实事物的模仿,不是作为一种模仿存在范式,而是数字模仿物的再造,从而构成数字图像仿真存在序列和数字拟像存在序列。深度伪造数字图像作为一种按照既定技术模式生产出来的存在之物,导致了真实与虚假、真相与假相的崩塌与内爆。它们系统性地破坏了客体与现实、图像与表征真相之间的存在论基础。因此,事实在深度伪造技术超真实的图景中不断被转码、误读、复制与重构,由此,真相变成了仿真机器生产出来的代码、抽象符号和视觉意象。进而言之,深度伪造技术成为一种媒介,不断解构现实社会和网络社会的事实样态,导致真实与虚假的界限消融,即事实以一种内爆的方式走向虚无。此种内爆不仅是数字化图像事实的内爆,更是数字化图像意义的内爆。事实所传达的意义被深度伪造直接扭转与吞噬,从而引发真相的悬空。

(二)认知的虚无:真相衰退与认知无能

在人工智能深度伪造技术的场域中,事实和真相不断走向虚无,其必然结果是认知的虚无。所谓“认知的虚无”是指,人们不再执着于事实与真相,而是基于自身的文化背景、社会阶层和群体结构,利用道德情感、价值判断、文化传统对真相进行建构,从而塑造一种后真相认知。深度伪造技术把后真相塑造为一种介于真相和假相之外的不确定性真相和人造真相,进入“真相衰退”和认知虚无的境地。在深度伪造技术时代,基于视觉图像的认知虚无主要包括两个方面。首先,情感压倒理性成为认知的主宰。已有的认知科学研究表明,情感不仅影响对信息的选择和加工,还规定了认知策略与风格,人们会因为所处的情感状态不同而采取不同的思考历程。[26]情感让人在众多认知对象中具有原初性的选择和排序,从而影响人的认知过程。这突出体现在,真相认知样态更多以煽情、圈层化、民粹化、想象性、片面化的形式存在。其次,基于人工智能的数字化图像的再造导致真相与事实的认知无能。一方面,人工智能深度伪造技术利用强大的网络数据资源库,以生成对抗网络和自动编码器为武器,对数字化图像进行任意裁剪、复制、拼接、移除和合成,以一种更加具象化、可信性、感染性和拟真化的方式篡改和颠覆真实事件,导致人们深陷一种竞争性真相和事实审查的网络社交场域。进而言之,人们需要调动自身既定的认知图式,不断地将所有的图像都看作是有待考证的非确切性信息。因此,关键问题不在于简单地把假相当作真相,而是对任何真相进行毫无根据的质疑,以期获得认知安全。但是,面对海量的数字图像,真相的追寻只能转变为“真相不断反转和人为阐释”的循环,从而走向了一种认知无能。

(三)道德的虚无:图像制造的道德困境

在人工智能深度伪造时代,有图无真相导致了道德虚无的风险。人工智能深度伪造技术利用深度学习算法,可以完美复制人的声音、指纹和外貌等个性化生物识别信息数据,制造一个隐私透明的“图像时代”。一方面,任何人都拥有篡改图像进行各种虚假叙事的能力,从而对特定个体、群体和社会进行各种诸如攻击、污蔑、暴力、造谣、煽动、色情等反道德行为。另一方面,图像时代的视觉凝视和远距离围观导致对他人的隐私、痛苦、生活境遇的偷窥和娱乐化更为自由和便捷,甚至产生了一种合理化的快感。因此,传统的“非礼勿视”的伦理规范自然失去了约束力,因窥视而产生的畏惧和罪责愈加淡化。相反,由窥视所产生的新奇、刺激的感官体验进一步强化了主体的窥视冲动,渐而以图像时代特定的权力形态左右着自身的视觉行为。[27]这就塑造了一种“不在场”的道德事实和道德叙事,导致网络图像假相和谣言的超时空和大规模传播。因此,道德叙事和道德场景在深度伪造图像中开始走向迷失,人们获得的有关社会事件的道德判断和道德认知正在受到侵蚀,而道德真相本身成为一个有待确证的关键问题,即人们频繁接触的虚假道德图像叙事导致人们对道德情境、道德判断和道德规则失去信心。换言之,最大的风险并不是人们的隐私和自由受到侵犯,而是会把一切数字图像和视频都看作是蓄意设计、营造假相、凭空捏造、博取眼球和制造混乱的否定性的道德叙事。因此,深度伪造图像时代的道德失范不仅是制造虚假图像行为主体的道德失范,而是公众可能会对道德事实和理性道德判断失去兴趣和耐心,形成一种后现代性的犬儒主义。进而言之,在这样一个图像制造凸显的时代,既定的道德规则在一定程度上失去了约束力,而新的道德体系尚未形成;复杂的网络道德情境也愈发进入一种真假难辨的境况,进而导致道德判断失去根基和道德后果的无力承担。

(四)技术虚无主义:主体性剩余与存在的限定

何为技术虚无主义,其仅仅是“技术”和“虚无主义”两个词语的拼接吗?恰恰相反,技术与虚无主义具有共同的基础和内在关联。“技术和虚无主义有着相同的之所以可能的基础,即它们并不是一个被人为捏合起来的毫无意义可言的语词,它们的意义就在形而上学之中。”[28]事实上,海德格尔并没有直接使用“技术虚无主义”一词,但是,在海德格尔看来,形而上学的本质就是虚无主义,而作为现代理性主义产物的技术同样也是形而上学的。技术作为人类生存的方式,悬置了新的最高价值。技术的形而上学本质是一种“求意志的意志”,“技术一词被等同于正在自行完成的形而上学概念”。[29]由此,海德格尔给出了技术形而上学本质的界定,技术不仅仅是一种手段,技术乃是一种解蔽方式,作为一种集-置,构成了生活世界的统治性力量。

人工智能深度伪造技术导致的虚无主义不是技术形态的简单更新,而是从实践层面加深了技术虚无主义的境况。技术虚无主义的根源在于,技术作为现代社会的抽象统治力量,具有强大的同一性和祛魅功能,造成了人类生活世界的千篇一律的状态。而人工智能深度伪造技术深谙其道,并且构成了一种新型的数字化图像崇拜的形而上学。人工智能时代的虚无主义不再是哲学家所设想的技术虚无主义批判,而是正在推进的时代精神现状。面对生成式人工智能创造力的涌现,人类主体性剩余成为时代标签。人类的认知能力、情感能力、价值判断能力、社会实践能力不断被人工智能替代,产生了无聊的主体性剩余。更重要的是,人工智能深度伪造技术让剩余的主体性产生了冲突、混乱和虚妄。深度伪造技术在人与现实生活世界之间建立了一种数字化联系,让人们拥有且执行了之前无法拥有的体验和感知,以塑造人们的行为。深度伪造技术不仅能够对真实世界进行数字化再造,而且可以建构诸如虚拟数字人、虚拟偶像、虚拟主播、全息人像投影等各种生活场景,具有强大的技术可供性(affordance),其不再是由算法和大数据所构成的纯粹物理结构,而是具有遮蔽和解蔽数字生活世界能力、社会表征和象征性的社会建构物。一方面,深度伪造技术能够增强人与生活世界打交道的能力,从而解蔽和再现某种事实和真相;另一方面,深度伪造技术对人的认知和行为进行了遮蔽,对人与真实世界打交道的能力进行了技术限定。因此,人工智能深度伪造技术重塑了人与世界的关系。深度伪造技术绝不是类似于眼镜之类的身体器官延伸,而是从根本上以图形和拟像的方式重构了人的认知能力,建构了表征世界的赛博格式的人——媒介混合主体。进而言之,深度伪造技术通过智能算法、大数据、神经网络,再造数字化生活世界,以一种拟人化的意向性重构了人与媒介、人与生活世界的关系。由此,深度伪造技术作为一种行动者,与人共同生产生活事实,塑造分布式认知,扩展人的行动能力。深度伪造技术不是简单沉默的中介者,而是积极能动的调节者,建立了数字化媒介环境。在此意义上,深度伪造技术具有生存论意义,即技术与人共同建构实在。

五、结语:人工智能技术的不确定性图景

以人工智能深度伪造技术为代表的AI技术日益复杂化,应用于人类生活世界的各个场景和领域之中,带来了社会、政治、伦理和存在论意义上的深远影响,此种影响往往无法进行预测且伴随不可预知的后果。由此可见,人工智能技术发展具有内在的不确定性以及后果的不确定性。传统上,人们常常使用“风险”或“风险社会”的概念形容人工智能技术的潜在后果。事实上,当使用“风险”一词的时候,在认识论和行动层面仍然存在概率的定量分析。因此,“风险”往往是一个定量的概念,是指危险后果的大小数量值。当然,由于技术风险发生于具体的社会场景中,风险往往还存在主观预期和认知的差异,从而形成了以客观性风险为基础的可接受性风险,在此就需要考量不同群体的差异、知情同意权利和相应的成本-收益分析,从而形成了一种后果主义的多数决策原则,以保证技术风险运行的经济合理性和道德可接受性。但是,人工智能技术带来的后果不再仅仅是风险范式意义上的影响,而是“不确定性图景”,即根据当前信息和状态,无法推断人工智能技术的未来发展趋势。

人工智能技术的后果从风险范式转换为不确定性范式,表现为人工智能技术展现出强大的自主性力量,拥有内在的技术逻辑和发展驱动力。基于大数据、算法、算力、大规模语言模型、数字化平台,人工智能技术的发展轨迹具有不可预知、不可预见和无法预测的性质,即从人工智能技术的设计、研究、开发到产品应用、场景应用和应用后果,都存在着不确定性。当然,导致不确定性的原因有很多,包括人工智能技术内在的黑箱效应、科学研究、市场需求、政治决策以及公众消费主义行为等因素。在多重因素的助推下,人工智能技术的不确定性展现了新特征,即技术加速主义和数字资本主义。在资本逻辑的加持下,人工智能技术通过无限循环和加速运转,把人类现实生活世界的生命体验、时间控制、生活节奏、伦理原则和法律规范远远地抛诸脑后,人们在享受人工智能巨机器积极后果的同时,也只能疲于应付其潜在的负面效应。因此,在人工智能技术加速之下,人类生活世界日益充满了脆弱性和不确定性。为了控制此种局面,各国政府、学术机构等制定了种种伦理规范、治理框架和法律法规。但是,种类繁多的确定性伦理原则和规范如何应对不确定性的人工智能技术发展,仍然是一个充满现实困境的问题。当然,强制叫停特定人工智能技术的发展也只是权宜之计,而非终极解决办法,非但无助于实质问题的解决,甚至加剧了公众对于人工智能技术的恐慌。

话已至此,面对人工智能技术加速发展的不确定性,我们仿佛进入了一个悲观主义境地。事实上,如果说人工智能的超人类主义是虚无主义的未来版本,那么当前人工智能技术的不确定性图景和虚无是一种正在推进的现实境况。面对人工智能内在的虚无力量,我们总是以一种迫切的心态、加速主义方式和一揽子计划模式去解决和控制技术的不确定性,从而尝试建立一个“确定性的世界”。但是,建立一个确定性的世界何尝不是另外一种虚无主义。如果我们转换一种思路,把技术当作是人类生存的本质方式,那么,人工智能技术对生活世界的虚无、社会政治秩序的解构、伦理规范的挑战,同样也是对未来社会进行重构和塑造。因此,关键不在于确定性世界和确定性观念的建立,更重要的是,以一种生存论哲学视角去看待人工智能技术,即人工智能技术就是人的本质存在,其带来的种种问题并不是技术对人的单向度地反噬和异化,而是人类社会发展和人的自我建构不断扬弃的历史过程。

猜你喜欢

深度身体人工智能
人为什么会打哈欠
深度理解一元一次方程
深度观察
深度观察
2019:人工智能
人工智能与就业
深度观察
我de身体
数读人工智能
我们的身体