APP下载

人机混合能动者的伦理意义、建构分析和启示

2019-12-14

哲学分析 2019年5期
关键词:人机意向人工

邬 桑

人工智能(简称“AI”)正在前所未有地参与到人们的生活当中,它们不仅能够认出人的脸孔、管理家居,甚至能够驾驶汽车、操纵杀伤性武器。这使得人工智能的伦理问题同样前所未有地引起了人们的担忧。人工智能的伦理争议究其根本是一个技术社会化的问题,但它与其他的技术社会化问题又有所不同:首先,以人工智能的自主程度而言,它的社会化涉及一个新社会主体——人工道德能动者的存在论;同时,由于人工智能背后的大数据技术支持,人工智能将具有其他技术所不能及的广泛性。这二者的结合给哲学社会科学造成了这样的困境,如果我们拒绝承认人工智能的道德能动者地位,将会有大量的责任问题处于无责任主体的空缺中;而如果我们予以认可,人工道德能动者作为一种新的社会主体又将带来更多的伦理问题。本文通过对人工智能作为人工道德能动者的特征考查,对以上困境此提出了一种出路,认为在相当长一段时间内,人机混合能动者是解决人工智能的伦理问题的关键主 体。

一、从能动者走向道德能动者的AI

机器、机器人或者人工智能被视为能动者已经得到了广泛的认可。事实上,早在塞尔用“中文屋”论证来反驳强人工智能观点时,该理论背后就蕴含了这样一种立场:人工智能可以在一种最小化的意义上具备和人类能动性一样的解释、预测和表征的能力,这也意味着认可人工智能的能动者地位。随着人工智能在近年的急速发展,它突出的决策力和行动力也使越来越多的学者认为人工智能不仅是一个理论上的能动者,而且是一个现实世界中的理性能动者①参见Paul Verschure & Philipp Althaus,“A Real-world Rational Agent:Unifying Old and New AI”,Cognitive Science,Vol.27,No.4,pp.561—590,2003;Sven Nyholm,“Collective Agency,Responsibility,and Corporate vs. Private Self-driving Cars:Who’s Doing the Driving?”,collective intentionality X conference,The Hague,2016。,被称为人工能动者。这一立场可谓贯彻了拉图尔的“行动者”概念,“我使用actor、agent 或actant,并不对他们可能是谁和他们有什么特征做任何假设,他们可以是任何东西”②Bruno Latour,The Pasteurization of France,London:Harvard University Press,1988,p.252.。

人工智能被设定为一种人工能动者,这引发了两个合理的追问:既然如此,人工能动者是自主的能动者吗?人工能动者是道德能动者吗?从伦理的逻辑上来讲,第一个问题的答案是第二个问题的前提条件,因此,有必要在此简要地回答。目前,人工能动者的自主性在不同研究路径上有不同策略的论证,从基本立场上看,是支持人工能动者的自主性的。利斯特和佩蒂特通过能动者的概念来建立一个能动者的BDI(belief-desire-intention)模型,论证了符合该模型的能动者都是自主的能动者,人工能动者也位列其中;③Christian List & Philip Pettit,Group Agency:The Possibility,Design,and Status of Corporate agents,London:Oxford University Press,2011,p.26,p.20.弗洛里迪和桑德斯④Luciano Floridi & J.W. Sanders,“On the Morality of Artificial Agents”,Minds and Machine,Vol.14,2004,pp.349—379.,以及哈格⑤Jaap Hage,“Theoretical Foundations for the Responsibility of Autonomous Agents”,Artificial Intelligence and Law,Vol.25,No.3,2017,pp.255—271.对能动者采取了去心灵化研究策略,认为意向性、自由意志是行动的附加属性,并没有在行动中影响到真实的世界,以此来反对康德主义者“只有拥有理性和自由意志的存在才能具备自主性”的批判,支持人工能动者成为自主的能动者;笔者也曾就主流的人的自主性理论展开讨论,认为人的自主性理论中并没有拒斥非人主体成为自主主体的可能,人工能动者的自主性问题实质是在决定论世界中能动者自主的可能性,而理性回应论能够支持人工能动者实现这一可能。①邬桑:《人工智能的自主性与责任》,载《哲学分析》2018 年第4 期。

如果说第一个问题还比较理论化、距离现实较远,第二个问题则是人工能动者在现实应用中迫切需要答案的,也是本文研究的出发点。道德能动者,简而言之,“是互动的、自主的、有适应能力的并可以实施有道德资质的行动的”实体。②卢恰诺·弗洛里迪:《信息伦理学》,薛平译,上海:上海译文出版社2018 年版,第197 页。从能动者到道德能动者,这一延伸对于人工能动者来讲必须谨慎。公众常常认为,人工能动者所带来的伦理困扰是由于人工智能发展得越来越复杂、越来越“聪明”,或者说越来越像人类,这使得人工能动者能够完成许多困难的工作,甚至是人类无法完成的工作。然而,这些困扰与其说是人工智能的复杂性带来的,毋宁说是人工能动者的自主性带来的。系统复杂性的增加并不仅仅增加了人工能动者的可操作性,也增加了它的自主性,随着自主性的增加,意味着人工能动者越来越多地参与到人的社会生活和社会工程之中。这就使得人、制度和环境等社会要素都参与到了可能的伦理决策当中来。正如瓦莱赫所指出的,技术带来的问题“通常由那些要素(特定的技术、人、制度、环境等等)与社会技术(socialtechnical)系统的其他要素的相互影响而产生”③W. Wallach,A Dangerous Master:How to Keep Technology from Slipping Beyond our Control,New York:Basic Books,2015,p.34.。因此,如果承认人工能动者的道德能动者地位,随之而来的问题就不再是人工能动者本身的问题,而是社会技术系统的复杂问题。问题的复杂性也不是人工能动者系统本身的复杂性,是通过社会技术系统的种种要素相互作用而呈几何数量增长的复杂 性。

既然承认人工能动者是道德能动者要面对如此复杂的前景,最简单方便的策略似乎就是直接否定它:不要让人工能动者走向道德能动者,一些学者形象地称之为“no-go”立场。④Don Howard & Ioan Muntean,“A Minimalist Model of the Artificial Autonomous Moral Agent(AAMA)”,In SSS-16 Symposium Technical Reports,Association for the Advancement of Artificial Intelligence,AAAI,2016.他们的基本观点是认为非人类的能动者不能驾驭“善”或者认为它们缺少成为道德能动者的必要条件之一,即道德责任。他们的理由基本上是基于康德主义的,认为规范的能动者需要自由意志、意向性、道德上可问责、动机和理性,因此,不适于加诸人工能动者。⑤J. H. Moor,“The Nature,Importance,and Difficulty of Machine ethics”,Intelligent Systems,IEEE,Vol.21,No.4,2006,pp.18—21.人工能动者总是受制于人类的,它们根本算不上真正的能动者,只是人类的代理能动者。理性解释对于道德能动者来说至关重要,“对它来说行为并不是检验它的重点——不论是自然行为还是机器行为,当理性解释不存在的时候,道德能动者也就不存在”①D. G. Johnson,“Computer Systems:Moral Entities but not Moral Agents”,Ethics and Information Technology,Vol.8,No.4,2006,pp.195—204.。

No-go 立场无疑在理论上延续了人类中心主义的伦理学传统,企图以人类能动者与非人类能动者为界建立一堵柏林墙。但是,这两者都不能让no-go 立场站稳脚跟。首先,元伦理的可能性并不应当仅限于人类,人们的思维中对万物有一种普遍的伦理期待。试想,当陨星即将撞击地球的时候,人们依然会希望陨星能“大发慈悲”来避免灾难。也就是说,是否具备心灵并不应当影响人们对相关的行动做出道德评价,将伦理话语局限于个人能动者妨碍了伦理学在当今社会多领域中的发展,例如,集体责任和全球性道德行为。且早在能动者概念扩展至自然人和法人时,人类中心主义就失去了它的主导地位。更重要的是,哲学的划界并非生物学的划界,如果按照人类与非人类的区分来鉴别能动者,倘若有朝一日人类遇见了另外一种智慧生物,那么这种智慧生物将毫无悬念地被认为是非能动者。人工智能在哲学上的划界也不应该是固定的抽象层次,它“使得一个能动者在这个抽象层次上的行为可以被明白地赋予其设计者,则人们应当断定那个能动者不会是一个道德能动者”②卢恰诺·弗洛里迪:《信息伦理学》,第198 页。。因为,如果按照这样的划界方式,任何尚未出现却同样重要的能动者特征都不会出现在这一抽象层次当中,那么具备该特征的能动者都将被排除在外,正如“可观察性”的标准曾经将量子力学置于尴尬之地一样。也就是说,道德能动者的判定不应该基于对事物本质下定义的方 式。

基于以上的驳论,对人工智能是否可以成为道德能动者这一问题,哲学家们开辟了一条以道德可替代性为目标的计算主义路径。道德可替代性指的是计算机的道德行动能够在原则上等同于人类能动者,从而能够替代人类的道德行动。这条路径的实现方式则是将行动看成是一个变化的互动过程,通过追问行动过程来人工地进行行动设计。它要回答的问题事实上与心灵哲学关心的问题有一定的相似性:“心灵”是一个计算过程吗?道德也是可计算的吗?如果是,我们怎么样在一个人工能动者上实现呢?这一设计需要怎样的基本要素?基于这些问题可以看出,可替代性“并不是一个能够通过描述已有的能动者来解决的纯经验问题,它是一个‘如何可能’的问题,需要将探讨延伸到可能的道德能动者领域,不论它们是否存在,迫使我们去建立非人类的能动性的计算模型”③Don Howard & Ioan Muntean,“A Minimalist Model of the Artificial Autonomous Moral Agent(AAMA)”.。

因此,计算主义路径的首要工作就是使道德行动去心灵化,使道德行为成为可计算的。简要来讲,这个过程通过模型化,将道德行动看作一个信息进程,信息的两端联系着能动者和受动者,能动者和受动者同样被视为信息化的实体,它们依赖于所采用的抽象层次以及相应的可观察量的集合。道德行动变成了由能动者所发出的一系列信息,这些信息导致了受动者的状态转换。这使得对于道德行动的关注点从推敲能动者的“逻辑”(也就是研究人的心灵)转变为对象间的数据结构关系以及它们的行为。①卢恰诺·弗洛里迪:《信息伦理学》,第152—154 页。这就使得道德行动不再是人类中心主义的,也不再依赖于人的心灵和心灵产生的目的、意向性、自由等。去心灵化使人工信息化实体有成为道德能动者的可能,并且在道德功能主义的意义上能够实现可替代人类道德行动的目 标。

在此基础上,信息伦理学论证了人工能动者成为道德能动者的哲学抽象方式。被视为信息伦理学创始人的弗洛里迪提出,所有实体作为信息化实体具有固有的道德价值,这一点是通过提升分析对象的抽象层次来论证的。②同上书,第160—164、175—178 页。对抽象层次的提升,可以这样来理解:例如象棋中的“相”,它必然具有颜色、质地、形状等性质,在考虑这些性质时,它的抽象层次是比较低的,但这些性质对于“相”的本质来讲是相对不重要的。当我们将它作为象棋的代表性、行进方式等进行信息化的抽象,也就是提升它的抽象层次,那么即使它只是一个点,我们仍然承认它是“相”。以抽象层次来看,伦理的人类中心论就是抽象层次比较低的。它对无生命的实体的拒斥即使是在传统伦理学中也不尽人意——如果上帝存在,人们毫无疑问会认为上帝是道德能动者。这意味着,选择不同的抽象层次会得到不同的道德能动者划界。那么在选择合适的抽象层次时,信息化实体成为道德能动者完全是可以接受的。因此,就信息化实体可以成为能动者而言,它们也可以成为可问责的道德能动 者。

机器伦理论述了人工能动者成为道德能动者的实证研究路径。对机器伦理的研究者而言,重要的不是“谁”(who)是道德能动者,而是“怎么”(how)实现道德能动者。瓦莱赫和艾伦在《道德机器——如何让机器人明辨是非》中探讨了人类的道德如何能在人工能动者上实现的问题。③Wendell Wallach & Colin Allen,Moral Machines:Teaching Robots Right from Wrong,New York:Oxford University Press,2009,pp.58—62.他们认为虽然人工能动者尚不足以成为完全伦理主体,即像人类一样思考的伦理实体,但是能够通过设计来实现显性伦理主体,即通过内置伦理范畴和道义逻辑实现伦理的实体。可能实现的人类道德理论有三种:道义论、效果论和德性伦理。这三者对应了在人工能动者上设计道德行为的方式:自上而下的、自下而上的和混合型。“自上而下”指的是以某种特定的伦理理论作为切入点,用它来分析和指导算法与子系统的计算要求,从而实现需要的结果。“自下而上”指的是用各种性能指标(例如图灵测试)来测试,通过试错的方式逐步调整性能,最终使系统达到指标要求。在这个过程中,是将伦理价值规范隐藏在行动当中,而非明确地描述出来。混合型,顾名思义是前两者的混合。由于前两者过于简单化和理想化,因此,在实践中工程师们往往采用混合型的算法设计。这一策略有效地使得人工道德能动者成为现 实。

可以看到,在人工智能(可能)需要做出伦理决策这一现实需求下,人工能动者成为道德能动者在理论上已经做好了准 备。

二、人机混合能动者作为伦理主体的必要性

然而,瓦莱赫和艾伦对人工能动者不能成为完全伦理主体的想法至今依然是正确的。就目前而言,它们要成为像人类一样独立发挥作用的主体还为时尚早,人工道德能动者要面临的困境还有很 多。

“好”的决策问题。人工道德能动者和所有的道德能动者一样,在做决定的时候面临几个可供选择的决策,必须要从中挑选出哪一个是最好的。“好”的决策对于人工智能而言,可能被定义为在多大程度上接近一个该领域内技能优秀的人。但是对于道德决策而言,很难评选出一个可以学习模仿的对象,因为道德领域的许多决策都是“好”的,而不是完美的。要做出“好”的决策需要三个前提,首先,人工道德能动者需要一个基本的伦理立场(也许是功利主义或者康德主义等)。其次,它要能够分辨出在一定情况下,出现了哪些冲突的选项。最后,它需要认识到在特定的情境下,一般的概念或原则需要特定的解释。①Michael S. Pritchard,“Moral Machines?”,Science and Engineering Ethics,Vol.18,No.2,2012,pp.411—417.也就是说,瓦莱赫和艾伦赖以设计道德能动者的自上而下的方式并不是算法,而是理解语境、获取信息、进行预测等等的综合。对于人类来说做出“好”的决策依赖于通过经验进行内化的判断力,算法则无法做到。甚至,为了达成“好”的决策,人们可能会临时转换伦理立场,这挑战了人工道德能动者的基本设计思 路。

伦理观契合问题。作为一个道德能动者,必然有它的受动者。对于人工智能而言,它的受动者有很大几率是人。这就涉及道德能动者之间的互动。互动带来的第一个困难在于如何解决道德维度不同的问题。通常,即使是人类的道德考虑也是因人而异的,人们需要从童年开始学习如何与不同道德标准的人相处,学习在何种程度上做出妥协和让步,同时不损害自己的正直。但是,对于人工道德能动者来说,什么是正直呢?它能被算法实现吗?这一点对人工道德能动者来说恐怕还很困难。人工能动者与人的互动中的道德维度问题也会使人感到困扰,这就是伦理契合的问题。人们通常倾向于选择道德观念契合的人作为合作者,当这个合作者是人工道德能动者的时候,人们如何来确定与它的道德观念的契合程度呢?这对普通大众提出了过高的要求,大众不会像哲学家一样明确自己的道德立场是某某主义的,我们很难想象一个人走进一家机器人公司,要求买一台康德主义的或者多元主义的机器人。如此,对于个人的使用者而言,人工道德能动者很可能成为一个高深莫测又不善妥协的道德主体,让人望而却 步。

具身化问题。徐英瑾提出:“机器伦理学的核心关涉将包括对人工智能的‘身体’——而不仅仅是‘心智’——的设计规范,即必须严肃考虑‘怎样的外围设备才被允许与中央语义系统进行恒久的接驳’这一问题。”①徐英瑾:《具身性、认知语言学与人工智能伦理学》,载《上海师范大学学报》2017 年第6 期。伦理规范本身就具有身体的图式,伦理表达也在各种意义上与身体相关。例如,“不许杀人”意味着禁止一个身体对另一个身体机能的终结。一旦无视身体图式的预设,可能就会臆造出无意义的伦理规范,例如,“禁止人在周五飞翔”。那么对于承载人工智能的机体,同样需要设计与“身体”相关的伦理规范,而不能仅仅考虑算法。需要保证人工道德能动者对它的身体图式的理解与人类对它的身体图式的要求相一致。例如,对于微型自动摄影机器人,它的伦理设计就应当包括“禁止进入私人住宅”。但是,当人工道德能动者的机体与人类的身体差别过大时,这种对应的伦理设计就会变得异常困难,它们很可能因为无法理解人类的身体图式而无法理解伦理规则。因此,在具身化问题的局限之下,人工道德能动者恐怕只能在有限的情景和技能上是可问责的,难以成为完全伦理主 体。

在种种限制人工道德能动者问责范围的问题之下,可以看到,在许多涉及人工道德能动者的情况下,仍然存在伦理主体缺失的情况。要解决主体缺失的情况,有两种方式,一种依赖于人工智能和机器伦理发展到能够让人工道德能动者成为完全伦理主体,但这似乎需要长久的努力;另一种则是在此之前寻找一种合理的伦理主体作为代替,使在算法设计中无法实现的问题在现实中得到补 强。

笔者认为,无论以上哪两种方式,都意味着要给人机混合道德能动者足够的关注,使它作为伦理主体发挥作用。人机混合道德能动者(以下简称“混合能动者”),顾名思义是由人与计算机、机器、人工智能等非人类能动者共同组成的行动主体,它属于一种多行动者系统(multi-agent system)。事实上,混合能动者已经有相当长的历史,例如,驾驶员和汽车,从外部看来就是一个混合能动者。随着人工智能在各种终端设备上的普及,混合能动者也越发普遍。在本文中,混合能动者特指由人与人工智能相关的能动者所组成 的。

混合能动者作为人工智能的伦理研究中的一个伦理主体有其必要 性。

首先,如果人工智能真的能够发展到完全伦理主体,那么人类与人工智能的合作与融合将成为社会中普遍的情况,二者将以合作的方式成为混合能动者,这意味着混合能动者是一个必要的伦理主 体。

其次,在人工智能尚不能够成为完全伦理主体时,混合能动者能够作为替代的伦理主体承担责任。上文所提及的三个使人工道德能动者不能成为完全主体的问题,其根本所在都是机器伦理与人的伦理接驳所产生的问题。当我们将视角拉远,把伦理主体从人工物延伸到混合能动者,这些问题就会暂时地被回避,等待技术进一步发展来予以解决。混合能动者的道德行动是由人机共同做出的(如何实现将在下一节阐述),这一过程中,人在其中就扮演了伦理指导的角色。因此,诸如解决“好”的决策问题、伦理观契合的问题将会交予人类。这并不是说完全剥夺了人工道德能动者的决策权,对于多能动者系统来说,整个系统的输出本身就是由多能动者共同完成的。在此考虑一个案例,女儿被绑架的母亲和她的私人侦探共同来做出营救计划,此时,假设母亲有可能因为亲缘问题而向绑匪屈服,但侦探建议依据成功的经验和理智来做决定,那么最终做出的决定无论是怎样的都是两人的共同决定,由两者共同承担责任。那么,当我们把侦探换成一个人工智能,也是同样由两者共同承担责任。具身化问题也是如此,将机器无法衡量的伦理问题交由它的合作者,以此来弥补目前设计不能实现的缺憾。正如,徐英瑾在讨论具身化问题之后指出的,“我们必须在硬件构造上就使机器人产生对其他机器人特别是人类的‘需要’,就像人类社会中的任何一个成员在生物学意义上需要他人才能够生存一样”①徐英瑾:《具身性、认知语言学与人工智能伦理学》。,机器人与人组成混合能动者本身就是顺应期待且有必要 的。

混合能动者作为伦理主体符合技术与社会高度融合的现实对伦理研究的需求。人工能动者在具备了高度智能以后,应当被视为一个社会—技术—认识高度纠缠的人造物,这就意味着它将会与人、与社会密不可分。笔者认同目前的人工智能哲学中将人工能动者作为研究主体的思路,这是因为人工智能哲学与人工智能科学本身高度相关,且研究在一定程度上正是为了指导人工智能本身的研发。但是,跳出人工智能本身,以一种外部的伦理视角来看,我们讨论伦理主体的时候,讨论的是采取社会行动的那个主体,不论它的本体论是什么。例如,在公共场合遇到令人讨厌的“熊孩子”,我们会认为整个家庭缺乏社会责任感,因为是这个家庭造成了相应的社会行动。因此,笔者认为,在混合能动者已经成为现实的当今社会,有必要分给混合能动者一些关注,进行相关的伦理研究。一方面,关注如何将人机的知识、情感图式结合起来,另一方面,也应当关注结合后产生的新型主体对社会的种种影响。许多研究者将对人工物的使用方式当作是使用者的本身伦理问题,但是,社会—技术—认识的观点认为如何使用人工物本身就是技术的社会整合问题,不应该与技术拆分开来,因此,将混合能动者作为伦理主体来看待是有必要 的。

混合能动者是促进分布式道德在信息社会更好地发挥作用的重要一环。分布式道德是这样一种道德行动,系统所造成的有道德承载的行动结果,其背后是由多个能动者的道德行动造成的,它们的道德行动可能是道德中性的或者可以忽略的。①Luciano Floridi,“Distributed Morality in an Information Society”,Science and Engineering Ethics,Vol.19,No.3,2013,pp.727—743.例如,某支付网站承诺,它的消费者每购物一笔,就向绿化事业捐献出一分钱,这使得消费者本来是道德中性的购物行动汇聚起来产生了道德上善的行动。这个系统中的能动者显然并不局限于单纯的人类或者非人类,因为,要驾驭分布式道德的力量,需要集聚可能是善的行动,同时碎片化可能是恶的行动,为了实现以上两点,需要一种作为“道德促成者”的技术机制。笔者认为,这种技术机制可能实现的方式在于由人工智能“辅助”人类,通过人机结合的方式来促进善的行动。例如,共享单车和它的使用者,事实上是系统中的底层的一个混合能动者。更进一步,整个系统本身也是一个多能动者系统,它本身是一个更大的混合能动者。只有给予混合能动者更多的研究关注,建立更有力的能动者系统,才能够推进“道德促成者”的及技术机制,借助它们基于分布式道德处理信息时代的伦理问 题。

基于以上分析,混合能动者不仅在人工智能的发展阶段中是有重要作用的伦理主体,而且也将在人工智能实现了完全伦理主体的飞跃以后仍然长期存在,因此针对混合能动者的哲学研究是必要的。笔者认为目前对于人机混合能动者的关注还远远不够,有必要加强以它为主体的相关哲学研究,以促进其作为伦理主体承担道德责任的路 程。

三、人机混合能动者的行动哲学建构

早在1996 年,图梅勒就指出“人工智能……和多能动者系统理论属于社会行动理论的范围”,设计人工智能的目标本身就包括使它成为“社会化世界”中的智能机器。②Raimo Tuomela,“Philosophy and Distributed Artificial Intelligence:the Case of Joint Intention”,in N. Jennings,& G. O’Hare(eds.),Foundations of Distributed Artificial Intelligence,New York:Wiley,1996,pp.487—503.因此,人工能动者与人共同构成混合能动者是有其社会行动理论基础的。③笔者认为不需要论证人类处于完全指挥权中的人机混合能动者(例如驾驶员和汽车),它们显然是可能而且现实的,此处开始论证的是人机各自具备道德能动性的混合能动者。这里,社会行动理论基础指的不仅是人工能动者是按照“社会化”的标准来设计的,也指它与人类是以社会化的方式进行合作,而不是以人与工具的方式相结合。这意味人机融合与其他的技术社会化过程不同,它是一个人类能动者与人工能动者之间的互动问题,而不是单纯的人类接纳技术的问 题。

这一转变使得我们在理解人工智能时,仅仅意识到“人—技术—社会”的联系是不够的,而需要进一步地理解为“主体—主体—社会”的联系。理解混合能动体的建构,需要跳出技术哲学的视角,进入社会哲学的视 角。

因此,人机混合能动者可以被看作一个多能动者协作的集体能动者。建构混合能动者的哲学理论来源是集体行动理论。集体行动理论认为,构成一个集体能动者需要,首先,形成一个独立的集体意向,以及,集体成员有效地协作使集体能够采取意向行动。因此,下面将针对前文所述的人机各自作为伦理主体的不同之处来考察混合能动者的建构方 式。

人工智能不能理解“我们”的概念,因此,在所有的集体行动理论中,只有个人主义路径的集体行动理论才能够使人机形成混合能动者,超个人主体路径的集体行动理论不适用于混合能动者。在这里,个人主义路径指的是对于每一个具体的行动来说,实现它的是个体的意向性,而不是集体的意向性。也就是说,每一个参与者持有的意向是“我要(和其他人)完成某事(的一部分)”。超个人主义路径则相反,参与者持有的意向是“我们要完成某事”。超个人主义路径要求每一个参与的能动者持有并理解“我们”的理念,而根据第二节人工能动者不能成为完全道德能动者的理由,人工能动者暂时不能够处理自己的具身性问题,更不能够去理解人与自己联合而产生的具身性问题。因此,超个人主义路径对人工智能来说是无法完成的。对于人工智能,我们最多只能要求人工能动者在行动中具备以“我”为基础的意向,因此,人机混合能动者只能采取个人主义路径的集体行动理论来建 立。

个人主义路径的集体行动理论在形成集体意向时也有两种不同的方式,一种是联合意向(joint intention),另一种是共有意向(share intention)。联合意向的特征在于,它的联合行动旨在实现一个集体的结果(collective end),该集体结果是由多个参与者共同持有的个体结果,由相关的参与者的行动来实现。因此,米勒也将其称为联合行动的集体结果理论。①Seumas Miller,Social Action:A Teleologicial Account,Cambridge:Cambridge University Press,2004,pp.56—57.简单来讲,联合行动至少包括行动者A 和行动者B,以及它们在情况s 下各自的行动x 和y,双方都持有一个结果e,在相信对方会行动并且确实行动的时候会自己也相应地行动,从而实现e,双方在这个过程中持有的行动意向就是联合意向。共有意向与联合意向较为相近,同样要求参与者在情况s 下各自的行动x 和y,但是,不同之处在于参与者需要考察其他人的行动计划,并且以自己的角度考察该行动计划,据此对自己的行动做出调整,以完成整个集体的目标。②Michael E. Bratman,Shared Agency:A Planning Theory of Acting Together,New York:Oxford University Press,2014,p.248.

基于本文的分析,混合能动者的实现依赖联合意向的建构方式,人工能动者能实现与人类形成联合意向,从而建构混合能动者。这是因为,联合意向只需要参与者明确其要完成的部分,并且信赖其他参与者也会完成各自的部分。人工能动者在行动上依靠设计能够完成所需的工作,在自主性上能够实现自主(道德)选择。因此,即使它尚未成为一个完全伦理主体,也可以与人共同形成联合意向。相对地,人工能动者无法形成共有意向。因为,共有意向要求人工能动者考量合作者的计划和意图,而这些计划和意图都是与参与者的能动性挂钩的。如果要人工能动者去理解参与者的能动性,就必须理解参与者的具身性,这又触及了人工能动者的短板。举例来说,一个机器人和人共同搬运一个箱子,人类的计划是用手抬箱子或是用肩膀抗箱子,对机器人来说完全不同,机器人必须理解手和肩的位置与力量才能够进行合作。因此,联合意向是更现实的建构人机混合能动者的方 式。

要使混合能动者形成联合意向并实现它,有两个关键点。其一,是集体结果的可分解性。混合能动者的行动需要靠参与者的多个联合意向共同指向结果,因此,集体结果可分解程度越高、对过程分解得越精细,就越适合人工能动者采取行动。人工能动者能够完成复杂的单个行动,但无法完成模糊的指令,因而对集体结果的分解至关重要。其二,是人机的相互信任度。人类能动者和人工能动者必须相互信任,相信彼此有能力完成各自要完成的决策和行动。这一点并不是显而易见的,许多人工智能的设计者都没有认真地考虑人工智能在何种程度上应该信任人类。例如,在2018 年3 月波音737MAX 坠毁事件中,驾驶员注意到机头过低的问题,企图修正,但自动驾驶仍认为应当压低机头,最终导致了空难。人和人工智能之间应当有一种信任机制,或者一种信任的维度,这决定了混合能动者能否成功实现目标。在较为简单的目标面前,人机信任是比较容易实现的,但在面对复杂的目标时,这种信任的维度究竟如何,仍是值得研究 的。

抛开建构分析中仍需进一步研究的细节来看,混合能动者是能够完成目标并且被问责的。如果按照图梅勒的集体能动者模式来分,混合能动者是一个I-mode 能动者。图梅勒根据个体能动者所处的状态将集体能动者分为we-mode 和I-mode。他认为集体是以一个基础的理念(ethos)开始的,集体成员在集体理念的指导下,形成共同的集体目标。将自己作为集体成员而思考、行动并使集体的所得最大化,这种思考方式被称为we-thinking,基于这种集体思考方式行动的成员被称为wemode 模式。①Raimo Tuomela,Social Ontology:Collective Intentionality and Group Agency,New York:Oxford University Press,2013,pp.21—23.很显然,人工能动者无法实现we-mode 模式,“使集体所得最大化”的决策就应当是“好”的决策,这是它的短板。I-mode 则是以“我”能够如何完成目标而作为思考模式参与集体行动的模式。这种模式在社会和自然界都十分常见。人工能动者以“我”要做什么作为计算的目标,与人类进行共同行动,使得混合能动者成为可能。明确这一点的意义在于,I-mode 中的能动者是能够拆分、各自承担道德责任的。这使得混合能动者既能作为整体承担责任,也能够各自被问责,这是符合日常对于人工智能的认知和期待的,也使得人机间的责任问题有了较清晰的解决方 向。

混合能动者的行动哲学分析不仅给责任问题提供了解决思路,也给人工智能的伦理规则设计提出了新的要求。在形成联合意向的分析中,可以看到,以混合能动者为分界,与受动者相关的意向有多个:从混合能动者外部来看,它具备一个整体地指向受动者的意向;从其内部来讲,人、机各自有一个指向受动者的意向,同时,人、机互相之间存在各自的合作意向。也就是说,总共存在五个意向:混合能动者→受动者、使用者→受动者、AI →受动者、使用者→AI、AI →使用者。考虑到这五个意向方向,当我们考虑人工智能相关的伦理设计时,不能仅仅思考人工智能本身,而是应尽力保证形成这五个意向的过程和方式都没有(公认的)伦理问题。这才能在源头上阻止有伦理争议的结果。因此,基于这五个意向方向,人工智能的设计者与规范制定者需要考虑的伦理维度(至少)有六个:人工智能本身、AI—使用者、AI—受动者、混合能动者—受动者、使用者—受动者、使用者—AI。

从行动哲学的角度对混合能动者进行建构分析,论证了混合能动者的存在论可能性、可问责性。同时,也推论出了当前人工智能在伦理设计中存在某些问题的哲学根 源。

结 语

在大数据、云计算、深度学习技术的支持下,人工智能参与人类事务的情况越来越多,随之产生的许多责任困境又无法让人工智能完全地承担,因此,社会和学术研究对人工智能的伦理主体的需求是迫切而重要的。在人工智能尚不足以成为完全伦理主体的过渡时期,以人机混合能动者作为替代的伦理主体是有其现实需求和理论基础 的。

开展以人机混合能动者为主体的哲学研究不仅是伦理上的权宜之计,也有其必要性。仅以本文尚不甚深入的剖析来看,以混合能动者入手来研究所提出的问题正是人工智能社会面临挑战的关键问题,例如,合作问题、信任问题和伦理维度问题。但是,以混合能动者为主体的研究尚未引起广泛的关注,有待加强。以混合能动者作为切入点,是为了更好地应对人工智能时代所产生的伦理挑战,以人工物社会化的研究方式来前瞻性地构筑一系列的战略方针,化解传统问责机制的困境,发挥人工智能带来的技术进步优势,减低人工智能的伦理风 险。

猜你喜欢

人机意向人工
人工3D脊髓能帮助瘫痪者重新行走?
供应趋紧,养殖户提价意向明显
从内到外,看懂无人机
人工“美颜”
水下无人机:解锁钓鱼新姿势
“人机大战”人类智慧遭遇强敌
未来深空探测中的人机联合探测
人工制冷
亚投行意向创始成员国增至46个
五大洲57个国家成为亚投行意向创始成员国