APP下载

人工代理的道德责任何以可能?
——基于“道德问责”和“虚拟责任”的反思

2022-11-24

关键词:意向性克尔桑德斯

王 亮

(西安交通大学 马克思主义学院,陕西 西安 710049)

关于人工代理(Artificial Agents)的道德责任问题的理论纷争由来已久,并且持续发酵,温斯伯格和罗宾斯(Aimee van Wynsberghe 和 Scott Robbins)在2019年所发表的论文中对支持人工代理具有道德责任的理由提出了质疑[1]。波尔森(Adam Poulsen)等人则通过联合一些机器伦理学家和评论家在2019年所发表的论文中对温斯伯格和罗宾斯所提出的质疑一一进行了反驳,并且就人工代理的道德责任的有用性和价值性达成了一致性的肯定意见[2]。然而,要想肯定人工代理具有道德责任,仅从有用性和价值性上做出回答是不够的,必须要直面问题本身,并且提出合适的解决方案,即人工代理到底具有何种道德责任?如何对人工代理进行道德“追责”?本文正是通过对弗洛里迪和桑德斯(Luciano Floridi 和 J. W. Sanders)的人工代理“道德问责”理论以及科克尔伯格(Mark Coeckelbergh)的“虚拟责任”理论进行梳理和反思来为以上问题提供可能的参考答案,并为以后其他更好的方案提供启发式的借鉴。

一、“抽象性层次”下的人工代理:道德责任的分离

1.“抽象性层次”方法的妙用

弗洛里迪和桑德斯借用计算机科学中常用的方法——“抽象性层次(Level of Abstraction,LoA)”方法来分析人工代理的特性。弗洛里迪和桑德斯认为:“抽象性层次是一组有限但非空的可观察量,并且这一可观察量是非序列式的,在一个以它们的定义为特征的理论中,可观察量被认为是组成参数。”[3]基于此,弗洛里迪和桑德斯认为这一方法的优势在于,“抽象性充当精确定义背后的‘隐藏参数’,对定义产生至关重要的影响”,而“每个定义都是通过一个隐式抽象性层次预先格式化的;可以说,它是稳定的,允许一个恰当的定义”[4]。也正是因为这个优势,经过“抽象性层次”方法抽取出来的“可观察量”对于某一定义有稳定和兼容作用,这样一来,它就能解决某些定义的模糊性、易变性或复杂性问题。弗洛里迪和桑德斯认为“代理”就是这类模糊、易变、复杂的定义[4]。因此,面对棘手的“代理”定义,弗洛里迪和桑德斯不得不使用“抽象性层次”方法。

如何用这一方法来定义人工代理呢?弗洛里迪和桑德斯认为,我们可以从人类身上抽象出3个“可观察量”:“交互性”“自主性”和“适应性”[4]。具体来说,“交互性意味着代理及其环境(可以)相互作用”[4];“自主性是指代理能够在不直接响应交互的情况下更改状态:它可以执行内部转换来更改其状态”[4];“适应性意味着代理的交互可以改变它改变状态的转换规则”[4]。那么这3个“可观察量”能否经得起人工代理的检验呢?弗洛里迪和桑德斯列举了一个网络机器人(Webbot)的例子,他们认为,通过适当地运用“抽象性层次”方法,可以抽象出网络机器人的3个“可观察量”,“交互性”(它能收发电子邮件,有输入和输出值)、“自主性”(它能自动处理电子邮件)和“适应性”(它能够根据人类的偏好来选择性地处理电子邮件),因此,它可以看作是人工代理[4]。需要注意的是,并不是说网络机器人只有这3个“可观察量”,其“可观察量”的多少取决于我们运用“抽象性层次”方法的程度,“抽象性层次越高,具体的参数越少,外延越大”[5]。这一点为后面弗洛里迪和桑德斯反驳人工代理的“意向性”奠定了基础。

2.道德责任可分离的人工代理

在运用“抽象性层次”方法分析完人工代理之后,弗洛里迪和桑德斯论证了人工代理也是道德代理。他们首先给出了一个命题“O”:“(O)当且仅当行为能引起道德上的善或恶时,该行为才被认为是道德上可限定的。一个代理人被称为道德代理人,当且仅当它具有道德上可限定的行为的能力。”[4]“O”命题实质上是指,具备能够引起道德上的善或恶的能力的代理,都可以称为道德代理。那么人工代理能否引起道德上的善或恶呢?弗洛里迪和桑德斯认为,传统道德理论通常将恶区分为由人类产生的“道德恶(Moral Evil)”和由非人类产生的“自然恶(Natural Evil)”,但是“最近,由于网络空间中自主性代理的发展,一种新的有趣而重要的混合恶浮出水面”,这种“恶”就是“人工恶(Artificial Evil)”[6]。需要注意的是,“人工恶”也是一种道德上的恶,只不过其形成的原因是由于人工代理的形成。再结合“O”命题可以推断,人工代理可以称为道德代理。

尽管将人工代理称为道德代理的相关论证比较充分,但是弗洛里迪和桑德斯认为,学者们可能还会主要从人工代理的“意向性”“自由”和“道德责任”3方面提出反对意见,为此,他们进行了一一回应[4]。首先,弗洛里迪和桑德斯认为,对于“意向性状态”的分析不仅不必要而且在实践中还很难实现,因为我们很难“进入代理的精神或意向性状态”中[4]。而“抽象性层次”方法则可以避免“意向性”分析在实践中的困难,因为它的机理是分析者依据理论需要,在适当的“抽象性层次”上,抽象出分析对象的“可观察量”。因此,“它保证了一个人的分析真正仅仅基于特定的可观察量而不是某些心理猜测”[4]。其次,弗洛里迪和桑德斯认为经过“抽象性层次”方法定义的人工代理同样具有“自由”特征。他们认为“抽象性层次”方法揭示了人工代理的3个最基本的“可观察量”:“交互性”“自主性”和“适应性”。人工代理的自由体现为,“如果它们有不同的选择,它们可以采取不同的行动”[4]。人工代理不仅可以自主地改变内部状态,而且可以依据外部环境调整内部状态变化的规则,这些既取决于外在条件约束,又取决于人工代理自身的选择。

此外,弗洛里迪和桑德斯认为,表面上我们很难从道德层面谴责机器人,但实际上“我们能够避免与‘没有责任,就没有道德代理,就没有规范行为’相对应的‘责任+道德代理=规范行为’的二分法。即使没有责任(Responsibility),只有道德问责(Moral Accountability)和道德行为的能力,促进规范行为也是完全合理的”[4]。弗洛里迪和桑德斯建议我们要突破传统的追责观,即不要将道德责任和道德代理捆绑在一起,我们可以把焦点放在“道德问责”和“道德行为的能力”上,这样做也可以“促进规范行为”。可以说,弗洛里迪和桑德斯的这一建议是为人工代理量身定做的。如前所述,人工代理之所以能成为道德代理,是因为人工代理能引起道德上的善或恶,而这恰恰体现了人工代理具备“道德行为的能力”。尽管这样,对于不可承担道德责任的人工代理而言不能真正地去追责,而只能“问责”。道德问责和道德责任看似十分相似,但仍存在差别。一般来说,问责是指在事情发生之后才会让一个人去承担的责任,而责任可以产生在事情发生之前,也可以产生在之后。当人工代理的行为产生了“人工恶”的后果时,我们可以采取一系列做法去制止或者处理它们,可以实现对它们“问责”,但无法让它们承担责任。

可以看出,通过对道德问责和道德责任的区分,弗洛里迪和桑德斯不仅合理地解决了人工代理的道德责任困境,而且使得相关责任的分配更加清晰,道德责任可以由相关责任人(人类)来承担,同时也可以对人工代理进行“问责”。弗洛里迪和桑德斯还指明了人工代理的“问责”方式。他们认为,“为了保持人类和人工道德代理之间的一致性,我们可以考虑如下类似步骤来谴责不道德的人工代理:(a)监测和修改(即‘维修’);(b)断开网络链接;(c)从网络空间删除(无备份)。”[4]如果说,弗洛里迪和桑德斯通过引入“道德问责”来做“减法”,成功地将道德责任从人工代理中分离了出去,却又没有免除人工代理的“责任”,那么科克尔伯格则通过引入“虚拟责任”来做“加法”,赋予了人工代理“虚拟道德责任”。

二、基于外观伦理的“虚拟责任”

1.外观伦理方法下的“自由”和“意向性”的悬置

与弗洛里迪和桑德斯的直面应对不同,科克尔伯格将“自由”和“意向性”问题高高挂起,对它们进行了悬置性处理。科克尔伯格首先通过以机器人为例子的人工代理提出了自己的方案。他认为:“不要问机器人是否有意识、理性、自由意志等等,让我们把注意力转向机器人是如何表现的:它是否‘表现’出了人类应该具备的能力?如果是这样,那么无论机器人是否真的具有这些能力和心理状态,我们都应该将道德代理和道德责任赋予机器人。”[7]科克尔伯格这样做的理由是什么?为什么“表现”如此重要?这需要从他的理论源头中寻找依据。科克尔伯格曾经将自己的伦理学方法和传统的应用伦理学方法进行过对比,他认为传统的应用伦理学方法将道德原则抽象化,使得它“外在于人机交互”,不仅如此,抽象化的道德原则成为衡量人机交互结果的标尺,“将道德规范限定在关注人机交互可能出错的事情上”[8]。因此,它不仅无法合理地阐释具体情境中的人机交互道德问题,而且也忽视了人机交互对于增进人类福祉的美德伦理问题。为了弥补这两方面的缺陷,科克尔伯格认为,“除了上述方法论取向之外,另一种可能的选择是转向外观伦理和人类善的伦理,即被理解为产生于经验和实践的伦理”[8]。“人类善的伦理”与“虚拟惩罚”的最终目的有关,后文将做详细讨论。而上述科克尔伯格所注重的“表现”就是来源于这里的“外观伦理”。并且可以看出,无论是“人类善的伦理”,还是“外观伦理”,它们产生的根源都是“经验和实践”,这就为科克尔伯格从正面论证为什么要在人工代理的道德责任分析过程中悬置“自由”和“意向性”,而注重“表现”提供了理论依据。现实的道德实践给予我们的经验是什么呢?科克尔伯格认为,现实的经验告诉我们,当追究他人的道德责任时,我们既没有“深入到他们思想的‘深处’”,又不是根据他们真正的“精神状态”,而是“根据他们在我们面前的样子”[7]。这正体现了外观伦理的精髓,所谓“外观”,就是指“表现”“样子”等可以为对方所体验、描述和把握的特性,显然,外观伦理更符合我们道德实践的经验,并且是可描述和分析的,这也是外观伦理方法的优势所在。

科克尔伯格还分析了专注于“自由”和“意向性”问题的传统伦理学方法的困境和局限性,即从反面论证了为什么要在人工代理的道德责任分析过程中悬置“自由”和“意向性”,而注重外观“表现”。科克尔伯格认为,传统的定义分析和概念分析都无法解决被定义为“心理问题”的“人工代理的道德代理和道德责任问题”,而定义、概念分析法实则是一种将人工代理与其特性割裂开的认识论上的二分法。弗洛里迪和桑德斯之前已经讨论过这种方法在实践中应用的困难,并指出了“抽象性层次”方法的相对优势。科克尔伯格当然也认识到了这一方法的局限性,并提出了一种“非二元论的认识论”方法,这种方法的核心就是拒绝实体(人工代理)和实体的外观之间的二分,它其实就是外观伦理方法的重要体现。这一方法的优势至少有两点:第一,可以弥补因“先验的本体论或解释学的优先权”所导致的认识论鸿沟;第二,可以“接受一个实体可以以几种方式出现在我们面前”[9]。前者可以避免传统的定义分析和概念分析所带来的困境;后者可以很好地“容纳”不同的道德体验,并可以对道德责任做出符合情境的解释。“一个实体可以以几种方式出现在我们面前,”并不是说,实体(人工代理)自身发生变化,而是指随着人机交互情境的变化,我们对实体(人工代理)的道德体验或者感受会发生改变。如果将人机交互的道德责任问题放在更大的情境之中来考虑,它可能还会涉及跨文化的维度。科克尔伯格以无人驾驶汽车为例,认为“在不同的文化背景下,对自动化技术的感知、体验和使用可能是不同的。这很可能对行使和承担责任的条件产生后果。此外,责任的概念通常以文化上独立的方式来界定,但不同的文化对责任的理解可能略有不同”[10]。在不同文化背景中,人们对于相同的人工代理所产生的行为可能会有不同的道德责任观念。由阿瓦德(Edmond Awad)等学者带领的来自哈佛大学和麻省理工学院的团队通过模拟无人驾驶汽车道德决策场景,在线调查了全球233个国家和地区数百万人的道德决策偏好,得出不同地区的文化传统、经济、法制状况与人的道德决策偏好、道德责任观念紧密相关[11]。

2.“虚拟责任”:人机交互情境下的新型道德责任

人工代理的“自由”和“意向性”被悬置后,我们是否还能够对其“追责”呢?科克尔伯格对此进行了肯定的答复。他认为,“我创造了‘虚拟代理’和‘虚拟责任’这两个术语,指的是人类基于对他人的体验和表现而赋予彼此和(一些)非人类的责任。这个概念描述了我们现在和将来在道德上所谈论的一些非人类(包括人工代理),并维持我们的道德实践。”[7]可以看出,在人机交互过程中,“虚拟责任”取代了传统的道德责任,成为“维持我们的道德实践”的根据。“虚拟责任”的形成土壤是“体验和表现”,而它的形成动力学机制则是道德想象力。科克尔伯格认为,“无论人类善是否可能外在于人类体验,我们必须研究、想象和塑造善可能会出现于其中的人类与机器人共同生活的具体情境。让我们聆听人们的体验,并运用我们的道德想象力,找出是否有可能增进人类繁荣和福祉的人—机共同生活。”[8]可以看出,道德想象力的重要作用就在于将源于人机交互的具体体验与增进人类福祉的“人类善的伦理”紧密联系在一起,为人机交互情境开辟了一条“道德通道”,也为对人工代理进行合理“追责”提供了参考依据。

接下来的问题是,如何对人工代理的“虚拟责任”进行“追责”呢?也就是说,当人工代理犯了错误时,我们该如何来责备或者惩罚它们呢?科克尔伯格认为,“基于虚拟代理的虚拟责任应该遵循虚拟指责和惩罚(如果有的话),而不是真正的责备和惩罚。”[7]所谓“虚拟惩罚”主要是指被惩罚的一方只要表现出“不愉快的心理状态”的外观就足够了。 从表面上看,“虚拟惩罚”的力度太低了,其实不然,不是为了惩罚人工代理而进行惩罚,“虚拟惩罚”是为了维持良性的人机交互,而最终的目的是“增进人类繁荣和福祉的人—机共同生活”。从上述讨论中可以看出,“虚拟惩罚”及其目的的顺利实现,必须要同时具备两个条件:第一,人工代理要具有能表现出“不愉快”的能力和外观;第二,“虚拟惩罚”要达到假戏真做的效果。就第一个条件而言,它是“虚拟惩罚”是否成功实施了的重要标准,当人工代理表现出“不愉快”,说明“虚拟惩罚”是有效的,反之则无效。然而,人工代理是人造的,具体来说,其“不愉快”的能力和外观是设计师设计出来的。因此,“对于设计师来说,挑战在于创造一个人造的‘演员’来产生这种外观。那么,就道德地位和道德责任而言,重要的不是人工代理的人工智能(AI),而是与人工代理的外观相关的人工表现(AP)。这种解决问题的方式更接近于许多设计师在实践中真正的目标。这也是一个对人类和人工代理交互的准社会(Quasi-social)方面做出公正评价的概念。这就要求我们把人工代理纳入道德考虑的范围,通过认真对待它们,把它们当作准社会实体,因为它们凭借它们的外观已经成为我们社会考虑范围的一部分。”[7]可以看出,重要的不是考虑设计师在实践中是否能够设计出“不愉快”外观的人工代理,而是设计师对于这种“不愉快”外观的人工代理的态度和接纳程度,是否“把它们当作准社会实体”,进而将这一设计理念贯彻到所设计的人工代理之中。事实上,除了设计师之外,用户也需要持有这种接纳的理念。这就涉及了上述的第二个条件,就第二个条件而言,它是“虚拟惩罚”是否能达到最终目的的关键,只有当事人(用户)认可这种“虚拟惩罚”,并把它当真的时候,人机交互才能持续进行下去,进而“增进人类繁荣和福祉的人—机共同生活”才能得以推进。要想用户真正进入“角色”,将“虚拟惩罚”当真,必须首先要将人工代理当作“准社会实体”,从思想观念上接纳它。但我们并不能因此就认为最终人工代理的道德责任归因于设计师和用户。对此的理解应当是,人类是促使人工代理的道德“追责”得以实现的关键,人类只有改变自己的观念,接受 “人—机共同生活”的事实,并把“虚拟责任”当作是人类伦理道德思想的一部分,对人工代理进行道德“追责”才有可能。

3.从“抽象性层次”到“外观伦理”:人工代理道德责任研究路径的异同

弗洛里迪和桑德斯与科克尔伯格对人工代理的道德责任研究有3点不同之处:第一,采用的方法不同。弗洛里迪和桑德斯通过“移花接木”的方式将一种计算机科学中的方法——“抽象性层次”方法运用于分析人工代理道德责任问题;而科克尔伯格则通过强调“道德体验”“道德想象”等人文式的“外观伦理”方法来感受和想象“虚拟责任”。第二,对“自由”和“意向性”的处理方式不同。弗洛里迪和桑德斯利用“抽象性层次”方法为人工代理量身打造了“可观察量”(参数)来替代传统意义的“自由”和“意向性”;科克尔伯格则通过“外观伦理”方法将道德责任问题的注意力转移至“道德体验”,同时悬置了“自由”和“意向性”。第三,对人工代理能否承担道德责任的回答不同。弗洛里迪和桑德斯反对让人工代理来承担道德责任,同时肯定人工代理具备“道德行为的能力”,并可以对此进行“问责”;科克尔伯格则立足于人机交互的“道德体验”提出了一种新型道德责任——“虚拟责任”,并进一步肯定了人工代理是可以承担这种新型道德责任的。此外,弗洛里迪和桑德斯与科克尔伯格对人工代理的道德责任研究也有相同之处。他们最大的相同之处体现为,对传统意义的“自由”和“意向性”与道德责任之间的关系的合理性存疑。弗洛里迪和桑德斯认为对经由“抽象性层次”方法抽象出来的“可观察量”的分析比对“自由”和“意向性”的“心理猜测”更可靠;科克尔伯格认为外观伦理更符合我们道德实践的经验,而不是思想深处的“自由”和“意向性”。

其实,“自由”和“意向性”不只是弗洛里迪和桑德斯与科克尔伯格分析人工代理道德责任的共同关注点,很多探讨人工代理道德责任问题的学者都将它们视为核心问题。例如,苏林斯(John P. Sullins)赞同弗洛里迪和桑德斯的“抽象性层次”方法,但与他们不同的是,苏林斯不是用抽象后的“可观察量”来取代“自由”和“意向性”,而是将“抽象性层次”作为人与人工代理之间的道德调节器,根据人机交互的水平来调节人工代理的“自由”和“意向性”层次,他认为,“当存在合理的抽象层次时,我们必须承认机器人有自主的意图和责任,机器人就是道德主体。”[12]可见,苏林斯并没有回避人工代理是否具有“自由”和“意向性”这一问题,而是利用“抽象性层次”方法赋予其较大的解释张力,结合具体的人机交互水平肯定了人工代理承担道德责任的能力。安德森(Susan Leigh Anderson)则认为“自由意志”和“意向性”“这两种属性都不是在道德困境中做道德正确的行动和证明它的必要条件”。因此,她避免了对人工代理是否能够承担道德责任这一问题的讨论,而是关注于人工代理的行为是否符合道德[13]。李伦和孙保学认为,由于人类还没有足够的处理“人工智能机器的错误”的经验,还未做好充分准备,“将情感和自由意志赋予人工智能有可能会打开‘潘多拉的魔盒’”[14]。还有一些学者既没完全否定也没肯定人工代理具有“自由”和“意向性”属性,而是将其和人工智能技术的发展程度捆绑在一起。摩尔(James H. Moor)认为人工代理作为道德代理主要有4个层次:“道德影响代理” “内隐式道德代理”“外显式道德代理” “完全道德代理”,而只有在“完全道德代理”或者之后的阶段人工代理才有可能具有“自由”和“意向性”属性[15]。通过上述的比较分析可以看出,“自由”和“意向性”是人工代理道德责任研究中的核心问题,对这一问题的不同处理方式直接决定了人工代理道德责任不同的研究路径。究其根源,学者们对“自由”和“意向性”与道德责任之间的关系持不同的观点,下面将从多个角度来考察它们之间的关系,以此来加深理解弗洛里迪和桑德斯与科克尔伯格关于人工代理道德责任的理论差异。

三、传统道德责任的基石:“自由”和“意向性”

人工代理何以可能承担道德责任?一般来说,若要能承担道德责任,必须具备两个基本条件,“自由”和“意向性”。“一个人只有是自由的,他才能对其行为负有道德责任。”[16]但持决定论观点的人认为人不是自由的,由此,学界产生了“相容论”和“自由论”之争。简单来说,“相容论”主张“自由以及道德责任与决定论是相容的”[16];相反,“自由论者主张自由(以及道德责任)与决定论是不相容的”[17]。尽管“相容论”和“自由论”持有不同的观点,但需要注意,他们的争论焦点是自由(以及道德责任)与决定论之间的“相容”关系,而并没有否认“自由是道德责任的前提条件”[17]。美国学者亨马(Kenneth Einar Himma)在分析道德代理的前提条件时也提出过类似的看法,他将“自由选择自己行为的能力”看作是成为道德代理的必备条件之一[18]。其实,亚里士多德早在《尼各马可伦理学》中就指出:当人出于自身的意愿,自由地选择去做一些美德之事时,应当受到“称赞”;选择去做一些恶事时,应当受到“谴责”。相反,当人在违反意愿的情况下,去做一些不道德之事时,可以“得到原谅甚至有时得到怜悯”[19]。很显然,是否出于意愿是一种自由意志的体现,因此,从传统的观点来看,“自由”是能承担道德责任的必要前提之一。

意向性是能承担道德责任的另一个必要前提。一般来说,当行为人对某一不道德的行为后果是有意为之的,他应当要对这一行为后果承担道德责任。然而,如果行为人的行为产生了目标后果以外的其他后果,但这一后果是行为人事前所能预见的,只是不希望它发生,那么,这种非目标后果的道德责任能否也归因于行为人的“意向性”呢?美国学者米尔和斯韦尔德利克(Alfred Mele 和 Steven Sverdlik)认为,边沁(Bentham)通过区分“直接意向性”和“间接意向性”迂回地解决了可预见的后果和有意为之的后果之间的差别[20]。在行为人发起的行为过程中,可预见的后果既包括行为人有意为之的后果,也包括行为人不希望发生的后果。“直接意向性”对应于“有意为之”的后果,“间接意向性”对应于“可预见”但不希望发生的后果。在肯定边沁贡献的同时,米尔和斯韦尔德利克也指出了其不足,他们认为,尽管边沁将意向性区分为“直接意向性”和“间接意向性”,但是他并没有明确“间接意向性”与行为后果的道德责任之间的关系[20]。相反,他们认为西奇威克(Sidgwick)通过对“意向性”的补充性说明将“意向性归因明确地与道德责任联系在一起”,即“它使我们能够让一个人对他能够预见但不希望发生的行为后果负责”[20]。“能够预见但不希望发生的行为后果”就是指行为人的“间接意向性”所引起的后果。至此,我们可以看到,行为人因其行为后果而承担的道德责任或者归因于“直接意向性”,或者归因于“间接意向性”。

综合以上论述可以看出,在传统道德责任观中,“自由”和“意向性”不可或缺。

四、传统道德责任基石的动摇:从质疑到改变

1.对“自由”与“意向性”的质疑

尽管上述的一些理论明显强调了“自由”和“意向性”是人工代理能够承担道德责任的前提,但是在某些情况下,经常会出现一些不满足该前提的道德责任事实。例如,受身体机能影响的限制性选择行为所造成的道德责任,或者我们经常看到的“好心办坏事”(无法预见的)而造成的道德责任。对于前一个情境而言,道德责任承担者在当时的情况下是被限制的,因而明显没有自由;对于后一个情境而言,道德责任承担者的“意向性”不仅“失灵”了,而且还产生了意想不到的结果。因此,我们需要对看似合理的道德责任的基石——“自由”和“意向性”进行再质疑。除了上述通过具体生活情境来对“自由”和“意向性”进行质疑之外,还有学者从神经科学的角度对“自由”和“意向性”作为道德责任的前提进行了反驳。一般来说,承担道德责任的行动者的行动直接来源于其大脑的决定,而大脑的活动主要依赖于我们的神经系统,也就是说,“我们的决定早已由神经系统代为作出”[21]。因此,看似自由的决定其实早已被“决定”,可见,不自由的行动者依旧要承担道德责任。同样,我们的“意向性”也是来源于神经系统,那么在“意向性”形成之前必然存在一种生理物质发挥作用的“前意向”,而这种“前意向”是“意向性”得以形成的生理基础。因此,我们常常认为有意而为之的事情,是否能够被理解为是被神经系统“强迫”而为之的呢?其实,目前已经有神经科学家和机器人专家着手设计“意向性代理”了,尽管目前还没有实现目标,但可以猜测“意向性代理”的意向性也只是电流的产物。宋尚玮从演化论的角度认为,道德准则的内化使得“自由意志不是道德责任的必要条件而是充分条件”[21]。张正清和黄晓伟分别通过反驳人类“智能优越论”和类比智能机器与人类的“行为偏差概率”,对传统意义上的自主性进行了质疑,此外,他们还通过关注智能机器的“行为恰当性”和否定“道德状态”确证的必要性,对传统意义上的“意向性”进行了质疑,并且他们认为这些质疑与“现代社会中智能机器的广泛应用”有关[22]。其实,以人工智能技术为典型的现代技术不仅只是从必要条件上引起了道德责任的相关质疑,而且它们还形成了使传统道德责任观发生改变的场域基础。

2.现代技术场域下的道德责任

从历史唯物主义视角来看,道德责任源于我们的日常生产、生活活动,它是人们在社会实践过程中相互协作、协调利益的必然结果。因此,道德责任并不是一成不变的,而是具有很强的社会历史性。随着现代科学技术的发展,人与技术、技术与社会深度融合,人的实践活动被卷入到了现代技术场域之中,它引起了传统道德责任观的改变,这种改变主要体现在两个方面:

第一,技术的发展和应用加速推进了道德的“物转向”。不同于传统的掌握在人的“手中”的“工具”技术,新兴的人工智能技术、数据技术等已经嵌入到我们的身心之中,技术与人的高度融合模糊了人类与机器的界限,“行动者”(拉图尔语)成为我们社会的一部分,在关系的“网络”中与人相互构建,这必将引起道德嵌入技术与技术塑造道德的双向运动。道德的“物转向”已经跳出了传统的人与人之间的道德观,而进入到“人—技术”的道德解释框架之中。在这一新的解释框架内,“人—技术”时常呈现为交互式道德责任,并且道德责任相关的“自由” “意向性”也不限于人类,还应当涵盖“人—技联结体”混合式的自由、“技术意向性”[23]。作为一种“人—技联结体”混合式的自由,不再完全由人类主体实现,而是在技术内化、互动、调解过程中建构性地实现着;在人与技术共同参与的活动中,技术通过“放大” “缩小” “激励” “抑制” “表现” “建构”等一系列机制来共塑“意向性”[24]。可见,在技术的深度融合下,技术与道德的双向作用使传统道德责任观发生了新的改变。

第二,在现代科技的深远影响下,道德责任实现了“远距离”延伸。一般来说,传统道德责任观更加关注当下的责任问题,并且也通常立足于特定的文化传统来考虑道德责任问题。但是现代新兴技术凭借其影响深度、作用广度、复杂程度打破了传统的道德责任时空界限,将其延伸至未来,拓展至全球。而这种“时间上未来的人类和空间上遥远的区域”实则是“远距离”的[25]。也就是说,我们必须要对因“技术文明”的跨时空作用所产生的后果承担道德责任,为子孙后代负责,为全人类负责。例如,人工智能技术已经席卷全球,并且深刻影响未来社会的发展,其可能会产生的道德风险不再局限于眼前和特定地区,因此,它所指向的道德责任应当是“远距离”的。尽管,“远距离”道德责任的本意是对人类提出要求,但考虑到其时间跨度之长,从长远来看,人与技术必将深度融合,诸如“电子人”“赛博人”等人机结合体必然也会成为我们的“社会成员”。因此,我们是否有必要给它们也赋予承担道德责任的能力呢?总之,技术发展和应用的累积效应不仅仅是从时间和空间上延展了道德责任的范围,同时也将“不在场”的“道德行动体”纳入道德责任的考量之中。

结合之前弗洛里迪和桑德斯以及科克尔伯格对人工代理的道德责任分析可以看出,科克尔伯格显然已经意识到了现代技术场域对道德责任的改变。例如,他在分析“人类善的伦理”时强调了当事者要发挥“道德想象力”,而想象力是指向未来的人机交互情境的,这与“远距离”道德责任中的时间维相符;他在分析无人驾驶汽车情境中的道德责任时强调了跨文化的维度,这与“远距离”道德责任中的空间维相符。此外,他还认为人工代理可以当作“准社会实体”,其实就是默认了人工代理能够承担道德责任,只不过这是一种新型的道德责任——“虚拟责任”。而弗洛里迪和桑德斯并没有真正承认人工代理的道德责任,只是小心翼翼地将道德责任从人工代理中分离了出来,但分离的好处是为社会技术系统中的“分布式”道德责任打下了基础。

可见,科克尔伯格已经跳出了传统的道德责任研究范式,关注到了现代技术场域中的道德责任的新变化,真正做到了“与时俱进”,而弗洛里迪和桑德斯则还沉浸在传统道德责任研究范式里,用“抽象性层次”方法来为人工代理量身打造“自由”“意向性”等传统道德责任的必要条件。相比而言,科克尔伯格的理论更贴近当今科技发展的事实,并体现出较强的生命力。因此,笔者更为认同科克尔伯格的人工代理道德责任理论。

五、结 语

鉴于已有的技术水平和人类的道德观念、认知水平,人工代理的道德“追责”还有很长的路要走。第一,人工情感表达是对人工代理的“虚拟责任”进行“追责”的前提,但目前的技术水平难以保证人工代理具备表达丰富情感的能力,鉴于情感难以分类、界定,人工情感是当前人工智能的棘手问题。第二,传统道德观念有很强的历史惯性,尽管现代技术改变了道德责任的场域,但人们的观念依旧容易停留于传统之中,赋予人工代理“准社会实体”的身份将是一个漫长的过程,这点从动物被人类驯化的漫长历史就可以看出,更何况人工代理还是非生物体。第三,尽管我们可以凭借“道德想象”对道德“追责”进行“远距离”筹划,但鉴于新兴技术的加速发展,未来的技术—道德图景将会十分复杂,“想象”同样也会有边界。总之,我们既要看到对人工代理进行道德“追责”的理论可能性,又要清醒地认识到理论成为现实的过程不是一蹴而就的。因此,我们不能因为要对人工代理进行“追责”而忽视了人类自身的道德责任。其实,正如科克尔伯格所强调的,人类自身才是促进实现人工代理的道德“追责”的关键因素,科技进步、社会发展是时代的潮流,人工智能应当促进人类的福祉已经成为社会的广泛共识。因此,我们需要发挥“完全道德能动体”的作用。一方面,在社会技术系统的道德分配网络中积极承担道德责任;另一方面,要及时更新思想观念,让伦理道德的思想宝库成为人类幸福的灯塔。

猜你喜欢

意向性克尔桑德斯
“老男孩”之战
内克尔立方体里的瓢虫
桑德斯镜头中的太平天国运动
对现象学教育学视域下的家庭教育的几点思考
感知与意向性
(简论诗创作的意向性)
顶尖高手
顶尖高手