APP下载

创造智能道德机器的伦理困境及其破解策略

2019-08-27苏令银

理论探索 2019年4期
关键词:伦理困境

〔摘要〕 随着人工智能的广泛应用,如何让未来具有高度自主性的智能机器作出伦理推理和道德决策,成为机器伦理研究中亟待解决的难题之一。智能道德机器创造中必须深入探讨智能机器成为道德能动者的前提与可能。人工智能、机器人领域的研究人员和程序员等非伦理学家面临着诸如道德哲学知识缺失可能导致智能道德机器伦理假设偏误,伦理理论多元加大了伦理共识达成的难度,“电车难题”造成伦理决策困境,人工智能的法律应用存在机器偏见,伦理方法论的多元性造成正当性辩护与道德行为选择困难等更为突出的伦理困境。破解这些伦理困境,对创造智能化、人性化的道德机器是非常必要的。有效破解这些伦理困境,需要实现道德哲学与人工智能的融合发展,需要重新审度伦理自身的合理性,在多元价值中达成伦理共识,最终构建面向智能机器本身的可执行伦理机制。

〔关键词〕 智能道德机器,道德能动者,道德多元论,伦理困境

〔中图分类号〕N1    〔文献标识码〕A〔文章编号〕1004-4175(2019)04-0030-08

在可预见的时空范围内,人工智能系统面临着摆脱人类监管并独立自主地作出道德决策和行动的巨大风险和挑战﹐甚至会走上对抗人类之路。这种不确定性将使智能机器面临的道德风险日渐凸显。人类迫切需要确保智能机器的设计符合道德规范,即亟需创造出“道德机器”。伴随着人工智能和机器人等技术取得的长足发展和进步,机器伦理的跨学科领域,诸如计算机信息科学、人工智能(AI)和机器人等现有的和未来的技术发展领域,几乎都不可避免地面临如何给智能机器进行伦理规则编程,以便使它们成为隐性或显性的道德能动者 〔1 〕。苏珊·安德森(Susan Anderson)将人工智能机器“合乎伦理”的目标定义为“创造一台遵循理想伦理原则或一套指导其行为的伦理原则的机器;换句话说,在它针对可能采取的行动方案作出决定时,就是由这一伦理原则或这些伦理原则指导。简单地说,这涉及到为智能机器增加伦理维度的问题” 〔2 〕22。未来出现完全自主的、类人化的、能够进行伦理推理和决策的智能机器似乎是不可避免的。这里主要关注计算机信息科学、人工智能和机器人技术领域的研究人员和程序员在试图构建这种道德机器时所面临的伦理困境问题。基于对该领域现有决策程序的回顾,人们发现这一领域的研究人员和程序员既没有对伦理问题本身有足够的理解,也缺乏足够的伦理或道德哲学知识构建在伦理推理和决策方面可以与人类相媲美的道德机器。未来创造道德机器是完全可以想象的,对人类来说可能是一个有价值、有意义的巨大社会技术进步。然而,实现这一目标需要创造者具有相当的伦理或道德哲学知识。智能道德机器的伦理决策应该基于避免不道德行为或禁止某些不道德行为,以及解决道德问题应建立在多元伦理方法基础之上,而不是依赖于特定的伦理方法论来解决。

一、创造智能道德机器的前提条件及其可能性

(一)前提条件

多数学者主张,智能机器能够成为道德能动者最重要的前提条件是自主性。波克(Bekey)指出,自主性的概念可以定义为“机器一旦被激活并且至少在某些操作领域,以及在很长一段时间内和没有任何外部控制的情况下,而且在真实世界环境中运行的能力” 〔3 〕18。这意味着,如果最大限度地提高机器在现实环境中的操作能力,人们就能创造出能够执行各种极其复杂任务的智能机器(Intelligent Robots),这些任务很可能是人类无法完成的。提高这种能力的方法是完善人工智能在机器人中的应用,即“让机器做那些如果由人来做的话就需要智能的事情” 〔4 〕1。从技术层面上看,智能机器需要合适的算法并根据其所感知到的输入信息来解决任何问题。然而,有人认为智能机器不能成为道德能动者,因为算法本身是有限的或确定性的。因此,机器缺乏自主性,而自主性本身通常被理解为是道德能动性的先决条件。如果智能机器必须按照一套固定的规则行动,那么它们就不能被视为道德能动者。这一反对观点被长久而详细地讨论过,但在此需要强调两点。首先,智能机器有可能从它们过去的经验中学习,从而重新编程并改变它们的算法,并因此通过改变它们预先固定的规则集来适应新的可能情况。其次,许多从事跨学科和复杂自由意志问题研究的有影响力的哲学家和神经生物学家,都对机器是否具有类似人的自主性,以及自主性是否是道德能动者的必要前提表示存疑。为了证明道德机器永远无法作出类似人类的自主性道德决策,反对者必须回应这两种意见。但是,这种决定性的驳斥论据尚未提出。因此,基于自主性反对因智能机器算法的性质从而否定它们的道德能动性,这是无法令人信服的。因为它表明智能机器应该满足道德能动性(自主性)的一个假定的必要先决条件,而道德能动性(自主性)的实现即使是对于人类本身也是存在争议的。

(二)可能性

詹姆斯·摩尔(James H. Moor)在其颇具影响力的论文《机器伦理的本质、重要性和难题》中,对四种类型的道德能动者进行了重要的区分 〔1 〕。摩尔认为受道德因素影响的能动者是一种帮助道德能动者避免不道德行为发生的机器。他引用了机器人骆驼骑士来取代小男孩的例子,这些小男孩被当作奴隶而在比赛中骑骆驼。“计算技术通常具有重要的伦理影响。被机器骆驼骑士取代的年轻男孩被从奴隶制度中解放出来” 〔1 〕。内隐道德能动者是一种通过编程使其行为合乎道德,或通过遵循设计师所遵循的道德原则的编程来避免不道德行为的机器。而一个显性的道德能动者实际上使用伦理原则来解决伦理问题。“一个完全道德的能动者能够作出显性的道德判断,并且通常能够合理地为其道德判断辩护” 〔1 〕。显性的道德能动者和完全道德能动者都使用伦理原则来作伦理决策,但只有后者才能为这些决策提供正当性辩护。大多数学者只提到这四種类型中的两种(隐性和显性)。因此,给人的印象是显性道德能动者是道德能动者的主要方面。这是不全面的,因为它将讨论局限于“有限的显性道德能动者”,而不是完全的道德能动者。摩尔强调指出:“一个完全道德的能动者能够作出显性的道德判断,并且通常能够合理地为其道德判断辩护。一个普通的成年人就是完全的道德能动者。人们通常认为人类具有意向性和自主性。机器能成为一个完全的道德能动者吗?正是在这方面,关于机器伦理的争论变得最为激烈。许多人认为在目前讨论的机器伦理与完全的道德能动者之间存在一条清晰的界线。对他们来说,机器不能越过这条线,这条线标志着人类与未来可能出现的任何智能机器人之间本体论意义上的重要区别。” 〔1 〕摩尔认为,仅仅坚持通过哲学论证或实证研究,是不可能回答“机器是否会成为完全的道德能动者”这一问题的。因此,他建议考虑发展有限的显性能动者。按照摩尔的说法,即使它们最终不能成为完全的道德能动者,它们仍然可以“帮助防止不道德的结果”,但即使是这样,人类也不应该“对自己发展这类智能机器的能力过于乐观” 〔1 〕。

这种观点面临兩个问题。首先,从哲学或经验的角度来说智能机器是否能成为完全的道德能动者,或者仅仅是人类目前无法做到这一点,这一问题总体上是不可能回答的。更乐观的方法将只假定人类目前无法做到。其次,詹姆斯·摩尔的警示性声明相当缺乏说服力。他曾警告即使创造出具有明确道德标准的机器,也许是不可能实现的。他提出的主要依据包括:(1)人类对伦理的复杂性主题只能实现有限的理解;(2)人类对学习现象,尤其是关于图灵所设想的“幼稚机器”① 缺乏了解;(3)计算机缺乏常识和世界知识 〔1 〕。事实上,人们应该抵制这些异议,主要原因是技术发展的轨迹表明似乎很有希望。此外,许多人会争辩说,尽管道德哲学本身仍然无可争议地存在着尚未解决的复杂道德问题,但它在过去几个世纪中也同样取得了重大进展。然而,人们不应忽视关于道德进步这一富有争议问题的两个关键点。首先,制定道德规则将某些行为归类为不道德,似乎比为所有人规定正确的道德规范更容易 〔5 〕。这是因为在现实生活中存在着多种生活方式,从这些生活方式中可能出现不同的规范行为,这些行为可以被视为同样好或者至少在道德上不应受到谴责,而人们也可以确定一些被普遍认为不道德的特定行为,比如强奸、酷刑、盗窃和猥亵儿童。其次,不可否认,有些重要的道德发展的历史可以说是人类的道德进步,比如废除奴隶制、承认普世人权、公正的审判、犯罪与惩罚相匹配、性别平等和动物权利的认可,等等。道德进步的概念并不是说所有这些观点都被所有人完全接受和承认,而是说在过去几个世纪中,人类在这些问题上总体上取得了巨大的道德进步。

因此,必须要认真考虑智能机器成为完全的道德能动者的可能性。未来如果智能机器变得更复杂、更强大和高度自治并被赋予无与伦比的人工智能,那么与此类机器的巨大自由相匹配的道德标准将是避免造成可能伤害的必要条件。

二、创造智能道德机器的伦理困境

计算机科学、人工智能、机器人领域的研究人员和程序员应该更加关注伦理推理和决策的方法论问题。在没有正确理解的情况下,这些问题可能会阻碍他们创造智能道德机器的努力。由于诸多原因,试图授权智能机器作出合理道德决策的方法难以令人信服,并时常会遭到部分学者的批评。这一批评并非暗示智能机器将永远无法作出道德决定从而成为完全的道德能动者;相反,它意在表明,由于伦理推理和道德决策的复杂性,它们往往比人工智能研究人员和程序员最初可能认为得更加困难。然而,从长远来看,没有任何原则性的理由表明智能机器的伦理推理和道德决策不会最终成为现实 〔6 〕164。目前,智能道德机器创造中的伦理困境主要体现在以下几个方面:

(一)道德哲学知识缺失可能导致智能道德机器伦理假设偏误

由于在机器伦理领域工作的计算机科学、人工智能和机器人领域的研究人员和程序员等道德哲学知识的缺失,使得他们很有可能从错误的伦理假设出发,在不可靠的基础上确立他们创造道德机器的方法。例如,机器伦理研究领域著名学者安德森和安德森就发展了三个不同的应用程序:(1)解决伦理困境的医学顾问系统(MedEthEx),(2)用于老年人的用药提醒系统(EthEl),(3)场景化的老年人用药提醒机器人。他们认为这是第一个遵循道德原则决策并决定行动需要的机器人的例子。然而,他们著名的医疗顾问系统(MedEthEx)建立在一些有争议的主张之上,这些主张削弱了他们原本有趣的论述。他们指出,“因为从事生物医学伦理学研究的伦理学家比其他领域的伦理学家之间拥有更多的共识,而且职责也更少,所以我们决定开始利用比彻姆和奇尔德里斯的生物医学伦理学原则,开发我们的首要职责方法,从而对伦理进行计算” 〔7 〕。生物伦理学家承认他们的领域是所有应用伦理学中最复杂和最具挑战性的领域之一,生物伦理学家之间严重缺乏道德统一性。此外,所建议的生物伦理学的方法,尽管已经被从业者和生物伦理学家广泛运用了几十年,但在规范和平衡的方法方面是复杂的,不容易运用。因此,克劳泽和哥特(Clouser and Ger)认为,迈克尔·安德森(M. Anderson)和苏珊·安德森从误导的假设出发,使用了一个非常苛刻且高度争议的理论。因此,她们危及了自己的项目,因为她们错误地判断了生物伦理学领域目前存在的伦理复杂性,并高估了作为机器伦理模范作用的原则主义的能力 〔8 〕。在另一项研究中,苏珊·安德森采用了另一种方法。她指出,由于对每个人而言伦理都太过复杂,以至于他们无法坚持简单的绝对伦理理论,为此,她建议从特定的案例入手,最终“以一种允许自动分析的方式使用大量案例”。从这些信息中,可能会出现普遍的伦理原则” 〔2 〕25。然而,她自己基于罗斯(Ross)的多重首要责任的方法,最终面临着如何能在相互冲突的责任之间作出合理决策的问题。此外,她建议在创造“道德机器”之前,先从充当“道德顾问”的机器着手,因为后者要求“对机器本身的状态作出艰难的判断” 〔2 〕26。诚然,一个人可以因此避免关于智能机器的道德地位和道德权利界定的难题,但一个人越早开始思考这些问题,当时机到来时他的应对之策就会越充分。此外,麦克莱伦(McLaren和托伦斯(Torrance)等人也支持使用机器作为道德顾问的想法 〔9 〕310-312。例如,托伦斯认为,如果我们能创造出这样的机器,人们也会学到一些关于人类道德的东西,并且总体来说,这些机器对人类是有益的和有教育意义的 〔10 〕。

(二)伦理理论多元加大了伦理共识达成的难度

许多伦理理论已经被广泛被用来解决道德问题,其中最突出的是美德论、义务论、功利主义、决疑论和契约论。目前,在创造智能道德机器的过程中,伦理学家对于究竟使用哪种伦理理论尚未达成共识。伦理学家在处理道德问题时也会从不同的方法中作出选择。这种多元论在机器伦理的研究方法(比如机器伦理框架建构)中同样面临着类似的困境问题 〔11 〕。智能机器将比人类更善于作出道德决定的基本观点至少面临两个问题。首先,在宣称机器可以在道德上作出更好的决定之前,人们必须有一个正确的伦理方法,它需要比其他现有的理论更好②。其次,许多道德问题可能同样有好处,但也必须考虑到不同的决定(例如,相同的道德问题可以在不同的文化背景下以不同的方式得到充分解决)。此外,当涉及伦理学多元论时,避免极端的道德相对主义,并接受所有人都承认的普遍道德准则的坚强核心(例如,一个人不能谋杀或强奸、侮辱他人或侵犯他人权)似乎是合理的。在这一道德准则核心之外,只要这些特定的准则不与普遍准则的核心或国际人权的共同话语相冲突,人们就应该根据他们在特定社会中的特定道德自由行事。这一观点在麦克林对道德相对主义问题的精辟描述中得到了进一步的证实:“长期以来,围绕伦理道德是否与时间和空间有关的问题一直存在争议。一方认为,普遍伦理准则没有明显的来源,伦理的对错是其文化和历史背景的产物。反对者则声称,即使一套普遍的伦理规范尚未被阐明或达成共识,伦理相对主义也是一种有害的学说,必须予以拒绝。” 〔12 〕4

(三)“电车难题”造成伦理决策困境

一个基本的决策涉及是否采用类似新康德主义的方法或享乐主义、功利主义的方法来解决道德问题。当人们考虑著名的道德困境即所谓的“电车难题”时,这两种对立的方法之间的道德差异就变得显而易见了。标准版的“电车难题”是说一辆有轨电车失去了控制,即将造成五人死亡。有轨电车可以通过改变铁轨上的道岔来改变方向。然而,这样会导致一名工人被重新改变了方向的电车撞死。为了挽救五个人的生命而使铁轨改道,从而造成一名工人的死亡,在道德上是否允许?根据康德的观点,如果不改变电车的方向,任何人都不能为了救那五个人而危害那一位工人。从功利主义的观点来看,一个人必须考虑他的行为的后果和总效用,即对大多数人来说有最大的好处,因此他必须改变电车的方向。这两种伦理理论最终导致了不同的解决方案。从特定理论的角度来看,每一种方案都是合理的。也就是说,如果机器运用一种新康德主义的方法,它将作出与功利主义道德理论的机器不同的伦理决策。当然,人类也面临着同样的道德困境,目前还没有其他的根据来确定一个理论是错误的,而另一个理论是正确的。人类的生活本来在道德上是复杂的,当然不能用一个简单的公式来计算。因此,道德机器必须能够以符合公正和道德自身深度的方式来对待和处理这类具体案例。有人可能会反对,认为在这个时刻机器人没有必要来决定这种道德困境。但考虑到目前无人驾驶汽车③ 和无人驾驶火车系统的发展,这种反对意见是有问题的,因为这两种系统可能恰恰面临如此复杂的道德决策。在这种进退两难的情况下,智能机器最终是否能找到比人类更佳的道德解决方案还有待进一步观察。

(四)人工智能的法律应用存在机器偏见

另一个复杂因素涉及智能技术在法律领域的应用。许多人预测人工智能法官的最终出现,他们将像评判其他智能机器一样评判人类。即使他们先进的编程能够潜在访问世界上所有可用法律文件,包括法律评论、先前的判例和复杂的法律策略。但至少在某种程度上,这些程序如何在法律辩护和起诉团队之中相互影响,仍然是一个悬而未决的问题。这在很大程度上将取决于人工智能程序使用的基本数据是如何准备的,以便避免所谓的法律上的机器偏见。目前,“AI法官”仍然是一个思辨的概念,但人工智能程序在法律上的应用已经发生。例如,有一些人工智能程序能够决定欧洲人权法院 〔13 〕和美国最高法院 〔14 〕的法庭判决。此外,一些人工智能程序正在帮助美国部分州的法官评估某个人再次犯罪的可能性。这种风险评估在决定是否释放罪犯或嫌疑犯,或将其关押在监狱中是极为重要的。然而,事实证明这种人工智能风险评估对某些种族有很强的道德偏见,因此被证明是不公平的。不幸的是,美国许多州的法官仍在根据这些项目作出裁决。机器偏见是一个严重的道德问题,作为人工智能领域的程序员必须密切关注它,以避免创造出对某个群体不利的智能机器。

(五)伦理方法论的多元性造成正当性辩护与道德行为选择困难

伦理学中许多方法论问题,即使是伦理学家也没有彻底解决。其中有两个长期存在的方法论问题,它们对创造道德机器的努力具有极其重要的意义。

首先,正当性辩护的多元方法论问题。正当性辩护问题产生于这样一个基本事实,即目前没有被广泛认为通向道德途径的唯一正确的终极伦理理论。从经验层面上来讲,一个人在担任某伦理委员会成员时,可以经常就共同商定的解决方案与成员们提出的各种辩护理由之间的差异提出有趣极其重要的意见。通常,伦理委员会的决定是相当统一的,但伦理委员会的成员往往为他们的决定提供各种不同的辩护理由。这一结果表明,不同的伦理理论或观点在它们对许多道德问题的看法上是重叠的,即使它们运用的论证路线完全不同。当然,有人可能会反对说,伦理委员会一般都在寻求最佳的务实决策,而“标准的”道德推理和伦理决策则与正确的道德决策有关,它不受任何可能有利于更务实解决方案的外部因素的影响。因此,伦理委员会的目标往往是双重的,即在其道德决策过程中找到最佳可行和最务实的解决方案。这里的关键是人工智能研究人员或程序员必须意识到,在为道德机器编程时,不同的伦理理论往往会基于不同的原因而提供道德决策。为了避免伦理上的偏见,似乎有必要创造道德机器。从不同的伦理角度、使用多种伦理理论来考量现实道德问题,然后在确定和考量了所有可能的问题之后,作出一个平衡的道德决策。因此,这两种伦理理论可能会基于各自不同的核心价值观而得出不同的道德结果。因此,一些道德哲学家如布罗迪(Brody)和戈登(Gordon)提出了基于几个伦理学关键概念的更加多元化的方法,以便避免道德决策中的理论偏见 〔15 〕32 〔16 〕11-20。这一推论表明,为了在理论上不偏不倚,机器伦理应该使用一种为道德生活的复杂性进行变化的方法。

其次,避免不道德行为的多元方法论问题。如果多元论確实存在于伦理学领域,人们应该尽量避免作不道德的事情,而不是试图在给定的情况下寻求道德上完美的解决方案。这些伦理学的方法论困境在人工智能机器(比如无人驾驶汽车)的伦理选择中也造成了现实困境 〔17 〕。寻求创造道德机器的计算机信息科学、人工智能和机器人领域的研究人员和程序员必须清楚地理解这些道德方法论问题,否则要创造出智能道德机器注定是无法实现的。正如戈登所指出的,“为了更好地理解不应该做什么,机器伦理应该关注各种伦理方法之间的相似性。换句话说,人们应该尝试更详细地阐明道德能动者应该如何行动,而不是他们应该避免做什么” 〔5 〕。这种方法在道德增强的背景下有一个类比,其中提出了一个类似的问题,即为了使人类更有道德,究竟应该使用哪种伦理方法作为默认的道德立场。对这个问题一个合理的回答是尝试就“我们在道德生活想要避免的一系列有约束力的事情” 〔5 〕达成一致。同时,创造出允许它们在不同类型但同样可接受的道德解决方案的框架内作出道德决策和采取相应的行动机器。毕竟,这似乎是目前人们在机器伦理领域所能期望的最好结果。在这一点上,人类的道德与机器的道德有些不同,因为人类通常是在“如何过一种善的生活”这个更基本问题的背景下作出道德决定的。另一方面,机器可以独立于人类意义、成就或幸福的考虑来解决具体的道德问题。这两种观点最终会产生不同的结果还是实际上彼此一致,这完全是另一回事。人们可以相当合理地认为,人类的道德是由这样一种假设所丰富和塑造的:人类的生活因其存在性(例如,他们对充实、幸福生活的渴望)而具有比智能机器更深层次的意义。因此,人们可以有理由认为人类的道德超越了简单的“避免不道德行为”的动机,因为人类也想过一种善的生活。至少在不久的将来,机器将无法提出这样的生存论问题,也无法相应地安排它们的生活。因此,智能机器的伦理推理和道德决策缺乏这种额外的存在主义视角。应该看到,这里所讨论的想法并不容易实现。然而,应该清楚的是对一种能够使智能机器作出道德决策或甚至道德上最好决策的终极机器伦理的寻求,是建立在寻求一种反过来也可以用于机器的终极道德理论基础的更广泛的努力之上的。苏珊·安德森认为机器伦理可能带来人类的道德进步:“我相信机器伦理研究有潜力取得道德理论上的突破,它带来普遍接受的伦理原则与道德机器交互可能激发我们使自己的行为更道德。” 〔6 〕524然而,目前还没有这样的终极道德理论能够充分捕捉到人类道德生活的全部复杂性(更不用说像动物、自然和人工物这样的非人类实体了)。因此,人们应该对道德及其发展采取一种更加温和的态度,并把试图避免不道德行为作为出发点,以及使用多元伦理方法而非单一道德理论来解决道德问题。

三、创造智能道德机器伦理困境的破解之策

对人类生存和发展来说,人工智能的应用意味着一场有着深刻影响的社会道德试验。针对人工智能应用过程中的潜在社会道德和法律风险,国际社会在“如何创造智能道德机器”这一问题上提出了一系列尝试控制智能机器的方案并逐渐达成了共识:借助智能算法把人类的道德价值观念和伦理准则“嵌入”到智能机器之中,以此让它们具有和人类类似的道德感、羞耻感、责任心和同情心等伦理道德。为此,人类迫切需要借助算法把人类的价值观、道德准则和伦理规范等“嵌入”智能机器中,以便让智能机器能够在现实的人工智能应用场景中,作出道德推理和伦理推理。针对智能机器既有道德决策方法的缺陷和创造智能道德机器过程中面临的突出伦理困境,可以尝试从以下几个方面着手解决:

(一)实现道德哲学与人工智能的融合发展

创造智能道德机器离不开必要的道德哲学或伦理学理论知识。从某种意义上来说,创造智能道德机器的过程就是计算机科学、人工智能和机器人领域的研究人员和程序员运用道德哲学或伦理学专业知识的过程。然而,目前这一领域的人员普遍缺乏相关的道德哲学和伦理学理论知识。为此,需要不断增加对人工智能、机器人和计算机科学等领域道德哲学知识的供给力度,实现道德哲学与人工智能的融合发展。

一是面对人工智能和智能机器人技术的广泛应用,伦理学家需要深入研究和探讨这一领域涉及的突出道德问题,在此基础上提出切实有效的引领智能时代发展进步的伦理准则和道德指南,使人工智能的工程技术人员在创造智能道德机器过程中做到“有章可循”。

二是作为人工智能的研究人员和程序员,也有必要积极向伦理学家寻求帮助,学习掌握必要的道德哲学和伦理学知识。因为创造智能道德机器的任务最终要由人工智能研究人员和程序员来落实。

三是可以考虑在未来计算机科学、人工智能和機器人等相关专业中开设工程伦理课程,有目的、有计划地对这些相关专业人员进行伦理学和道德哲学知识的教育。注重对相关领域人员开展计算机信息伦理、工程伦理专业知识的培训,甚至可以考虑在相关职业资格考试中加大伦理专业知识的考核内容和力度。

(二)重新审度伦理自身的合理性,在多元价值中达成伦理共识

在智能革命时代,创造智能道德机器的必要前提之一是伦理共识的达成。而要达成这种伦理共识,不只是要为智能机器“增加伦理维度”以便作出道德决策和推理的问题,同样也有必要重新审度伦理自身的合理性与时代性。智能革命时代的技术变革正深刻影响着人们的生活世界和交往方式。面对这种由于技术革命而深刻变化的生活世界与交往方式,伦理自身的合理性与时代性也备受质疑。从智能时代的技术进步和伦理重建的互动角度需要对下述问题进行深入思考:

一是伦理究竟在何种意义上可以担当智能机器决策的裁判者?伦理对于人工智能技术的规制是以善匡正真。伦理并不能直接裁判技术本身的善恶,也就无法裁判何种技术是否合理。伦理对人工智能本身的裁判,着眼点是人工智能应用的合伦理性。

二是伦理本身能否为人工智能发展和应用划定禁区?一种观点认为人工智能发展和应用具有禁区,伦理能够为其划定“不可逾越的伦理禁区”。也有学者认为人工智能禁区这一说法具有歧义性,必须具体分析它是在何种意义上而言的。由技术成熟度所决定的科学意义上的禁区,伦理没有资格为其设定禁区。伦理意义上的“禁区”指的是人工智能应用的特殊伦理规定,即只能从善,不能作恶。

三是究竟是人工智能背离了伦理,还是伦理离开了人工智能?不仅人工智能应用应当从伦理获得合理性辩护,伦理自身是否合理也应当从现代技术获得某种道德辩护。这种辩护并非直接通过技术方式给予直接证明,而是考量它能否为技术进步与人的自由而全面地发展提供价值指导。伦理必须从人的生活世界获得合理性证明。如果一种伦理不但不能促进反而阻碍现代技术进步与人的自由而全面发展,这种伦理的合理性是值得存疑的。

当今多元社会更加离不开共识,否则人类社会必将由于纷争而走向分裂。自由、平等、人权等都是现代社会的最基本价值。正是这些最基本的价值支撑着整个现代社会的大厦。现代社会的价值基础都是多元的,它们具有家族相似性,多元社会的价值共识本质上就是家族相似性的共识。这种家族相似性共识具有几种属性:(1)多元社会的基本价值具有家族相似性,它们都是现代人类社会不可或缺的。多元共识指的就是对自由、平等、人权这类价值的认同。(2)具有普遍性的基本价值总是以具体的形式呈现出来,并依托具体语境而存在。它们都具有其正当性与合理性,相互之间具有家族相似性。对基本价值的认同,并不意味着人们对同一具体问题必定会有完全一致的价值判断。(3)多元社会的价值共识包括丰富的差异性,是建立在差异性基础上的价值共识,而不是毫无差别的同一。(4)由家族相似性所决定的基于基本价值的具体判断都具有某种合理性与正当性,应当彼此兼容。彼此兼容的具体价值认识者之间要实现行动上达成一致就离不开平等对话基础之上的民主政治。要确保人类社会的健康发展和不断进步,起码需要形成道德和法律上的共识。因此,可以说道德是人类高层次的共识,法律是最低限度的共识。在当代社会,人们更加重视通过平等的批判性、开放性的讨论而形成、检验“共识”。在多元社会中,人们普遍重视工具性价值和现实性因素而淡化终极性价值和理想性因素,这就使得多元社会中达成价值共识变得更加困难。所以,任何伦理共识都具有局限性,都是相对的。

(三)构建面向智能机器本身的可执行伦理机制

将人类的伦理准则“嵌入”机器,从而进行道德决策和伦理推理,被认为是创造智能道德机器的可行策略。阿西莫夫曾经提出为机器人“内置伦理调节器”以使它服从某种伦理命令的设想,并在此基础上提出了“机器人三定律”:(1)机器人不得伤害人类或坐视人类受到伤害;(2)在与第一定律不矛盾的前提下,机器人必须服从人类的命令;(3)在不违背第一、二定律的前提下,机器人有义务采取自我保护。为了克服第一定律的局限性,他后来提出了第零定律,即机器人不得危害人类整体利益。从内容上看,机器人定律是一种康德式的道德律令;从形式上看,它也是通过技术实现的。阿西莫夫认为,机器人定律是“嵌入”到机器人“大脑”中的“电子指令”:每个定律一旦被触发,都会在其“大脑”中产生相应的电位,最为优先的第一定律产生的电位最高。这表明机器人定律也符合其技术背后的自然律,而并非完全属于道德律令。机器人定律是人以技术为尺度为机器人设定的行为准则。它为摆脱“弗兰肯斯坦情结”和“机器人造反”提供了可执行的方案,即通过工程技术上的伦理设计来规制机器人行为选择,使其成为道德机器。

创造智能道德机器,就是要构建面向智能机器本身的可执行伦理机制,使其能自主地进行道德推理和伦理决策。从现代技术哲学经验转向的视角来看,智能机器的伦理反思应该基于对智能机器技术本身的理解,这就为建构一种面向智能机器本身的伦理框架和机制提供了方向。鉴于现有技术限制,要在智能机器中嵌入伦理,只能诉诸智能机器可执行的“机器代码”,并将负载着人类价值内涵的道德代码“嵌入”机器,使其成为智能机器可计算、可执行的算法。当前机器伦理研究就是将“可计算的伦理”付诸实践。比如,把功利论、道义论、美德论等转换为“算法和逻辑”。那么,如何在计算过程中准确表达伦理范畴?如何使智能机器准确地理解自然语言?鉴于创造智能道德机器实践中的伦理困境,智能机器的伦理嵌入不应仅仅局限于机器自身,必须把人的主导作用纳入其中。

具体到自动驾驶系统来看,尽管关于“电车难题”等伦理问题的共识在增强,如IEEE和欧盟都在积极制定人工智能伦理准则,但到目前为止尚未有一个广泛认可的有效解决路径。应该承认,探索人工智能伦理问题的解决路径需要聆听伦理学家的声音。但当技术专家把伦理决策的重任托付给伦理学家时,我们发现伦理学家其实难以决定到底“电车难题”场景中自动驾驶汽车应该撞向谁。事实上,伦理学家也无权作出这样的伦理决策并支撑起整个社会关于自动驾驶的伦理体系。如果智能机器与伦理能够集成为一个整体,即融合成一种面向智能机器本身的伦理框架,或许在很大程度上能够克服这一伦理决策困境。此外,我们还应该看到,“电车难题”本身在伦理问题的思想实验、收集证据的方法、阐明伦理困境方面是有积极作用的,但当涉及自动驾驶汽车的道德规范时,它们的用处是有限的。对“电车难题”的考量并不构成自动驾驶汽车伦理准则的核心,在对自动驾驶汽车涉及的伦理问题进行反思时,应更多地关注现实情况。

四、结论

未来很可能出现一种道德机器,它能够在没有任何人类监督的情况下自主地进行伦理推理和道德决策。然而,最近的机器人伦理学研究表明,计算机信息科学、人工智能和机器人技术领域的研究人员和程序员需要向伦理学家寻求建议,以便避免作为新手可能会犯的错误,更好地理解伦理学中根深蒂固的方法论问题。如果他们不适当地处理这些问题,创造公正的智能道德机器的所有努力都将受到严重破坏。如何判断哪些行为在道德上是正确的和正当的,是人们日常道德生活中最困难的问题之一。理解这些道德决策所涉及的伦理困境并尽力克服和破解,对于创造智能的、人性化的、公正的道德机器是绝对必要的。

对于如何实现智能机器的道德决策,学界已经提出了一些不同的道德决策方法:自下而上的方法,比如决疑论、美德伦理等;自上而下的方法,比如MoralDM、首要职责、道義论、神圣命令伦理等;混合方法,比如道德推理方法、基于网络的方法、佛教的方法等。但是,智能机器的这些道德决策方法仍然存在着明显的缺陷。决疑论系统面临因缺乏适当的反馈和确切的表达而重新分类的问题。基于网络的通用信念检索能动者方法提供了一种基于人类的通常行为(包括不道德的行为)的多数决策原则。从道德的角度来看,在伦理上依赖多数决定程序的想法不仅具有误导性,而且永远不能被认为是道德推理和决策的恰当手段。MoralDM方法利用实证研究来反映人类道德决策的外部策略模型,往往只考虑那些与大多数人类主体一致的决策是正确的,这不仅是一种误导而且存在着严重缺陷。

人们有理由坚信,借助于对道德哲学更全面的理解,是可以避免智能机器道德决策的伦理困境的。解决问题的唯一办法是人工智能研究者、工程技术人员与道德哲学家密切合作,尝试创造智能道德机器并建构起面向智能机器本身的伦理决策机制,尽管这些尝试任重而道远。

注 释:

①艾伦对所谓道德图灵测试的想法是如果机器对道德困境给出正确的答案,并为自己的主张提供适当的理由,那么,它们就算是通过了测试。

②缺陷与偏见、自私、偏袒、意志薄弱并被情感所左右这一事实有关。

③麻省理工学院的媒体实验室开发的可编程“道德机器”就涉及在汽车刹车失灵的情况下,自动驾驶汽车由谁来决定?这是一个收集人类对智能机器(如自动驾驶汽车)做出道德决策的看法的平台。无人驾驶汽车必须两害相权取其轻,例如杀死一名乘客或五名行人。作为一个外部观察者,你会判断哪种结果更容易被接受。然而,麻省理工学院的试验并不涉及汽车协同工作,而是单独进行或者以人机交互的方式进行。自动驾驶汽车可能最终会成为一个更大系统的一部分,在这个系统中,机器之间将相互通信,从而比机器单独运行时更全面地解决即将出现的问题,尤其是在自动驾驶的环境中。

参考文献:

〔1〕Moor, J. H. The nature, importance, and difficulty of machine ethics〔J〕. Research Gate,2006(21):18-21.

〔2〕Anderson, S. L. Machine metaethics. In M. Anderson & S. L. Anderson (Eds.), Machine ethics〔M〕. Cambridge, MA: Cambridge University Press,2011.

〔3〕Bekey, G. A. Current trends in robotics: Technology and ethics. In P. Lin, K. Abney, & G. Bekey (Eds.), Robot ethics: The ethical and social implications of robotics〔M〕. Cambridge, MA: MIT Press,2014.

〔4〕Copeland, J. Artificial intelligence: A philosophical introduction〔M〕. Oxford: Wiley,1993.

〔5〕Gordon, J.S. Should moral enhancement be compulsory?〔J〕.Ethical Perspectives, 2016(23):277-305.

〔6〕Anderson, S. L.Philosophical concerns with machine ethics. In M. Anderson & S. L. Anderson (Eds.), Machine ethics〔M〕. Cambridge, MA: Cambridge University Press,2011.

〔7〕Anderson, M & Anderson, S. L. Machine ethics: Creating an ethical intelligent agent〔J〕. AI Magazine, 2007(28):22.

〔8〕 Clouser, K. D, & Gert, B. A critique of principlism〔J〕. Journal of Medicine and Philosophy, 1990(15):219-236.

〔9〕McLaren, B. M. Computational models of ethical reasoning: Challenges, initial steps, and future directions. In M. Anderson & S. L. Anderson (Eds.), Machine ethics〔M〕. Cambridge, MA: Cambridge University Press,2011.

〔10〕Torrance, S. Ethics and consciousness in artificial agents〔J〕. AI & Society, 2008(22):495-521.

〔11〕蘇令银.伦理框架的建构:当前机器伦理研究面临的主要任务〔J〕.上海师范大学学报,2019(01):76-86.

〔12〕Macklin, R. Against relativism. Cultural diversity and the search for ethical universals in medicine〔M〕. New York: Oxford University Press,1999.

〔13〕Aletras. N,Tsarapatsanis,D. Preotiuc-Pietro, D, &Lampos, V. Predicting judicial decisions of the European Court of Human Rights: A natural language processing perspective〔J〕. PeerJ Computer Science, 2016(02):1-19.

〔14〕Katz, D. M, Bommarito, M. J, II, & Blackman, J. A general approach for predicting the behavior of the Supreme Court of the United States〔J〕. PLoS ONE, 2017(12):1-18.

〔15〕Brody, B. Life and death decision making〔M〕. Oxford: Oxford University Press,1988.

〔16〕Gordon, J. S. Ethics as a method. In J. Schildmann, J. S. Gordon, & J. Vollmann (Eds.), Clinical ethics consultation: Theories and methods, implementation, evaluation〔M〕. London: Routledge,2016.

〔17〕苏令银.能将伦理准则嵌入人工智能机器吗?〔J〕.理论探索,2018(3):38-45.

责任编辑 苏玉娟

猜你喜欢

伦理困境
基于具体案例就保密原则分析社会工作的伦理困境
翻译职业道德准则的伦理困境
脑机接口技术:伦理问题与研究挑战
基层公务员政策执行过程中伦理困境及对策
潜在举报人秩序遵循伦理困境分析
本土文化视角下人力资源管理伦理困境的研究
宁养社会工作服务中的伦理困境及反思
社会工作的伦理道德观
关于高校心理咨询教师伦理问题的思考
教师专业化的伦理困境及其突破