APP下载

人工道德承受性:社交机器人的能动性与承受性论证

2023-07-30袁晓军王淑庆

昆明理工大学学报·社科版 2023年2期
关键词:存在物行动者能动性

袁晓军,王淑庆

(湖南师范大学 公共管理学院,湖南 长沙 410081)

在人类与机器交互越来越频繁的智能时代,人与社交机器人如何和谐共处,既是一个新颖的理论问题,也是一个难以回避的实践问题。除了法律和社会治理的研究,伦理学反思是一个更重要的维度,因为它具有更强的前瞻性与风险防范性。在人类与社交机器人的伦理关系上,一类基本的问题是社交机器人在人机交互中的道德地位问题。例如,社交机器人能否进行道德决策,它们可以拥有道德能动性(moral agency)吗?我们应该赋予社交机器人一定的道德权利吗?仅把社交机器人当作高级工具是不应该的吗?对这些问题的回答,甚至还形成了机器伦理学(Machine Ethics)[1-2]和机器人伦理学(Robot Ethics)[3-4]等新的伦理学分支。然而,当前国内外学界对社交机器人道德地位的研究,主要聚焦在人工道德能动性问题上,而对人工道德承受性(artificial moral patiency(1)Patiency与patient相对应,即patient是指具有patiency的存在物。国内对patient的翻译主要有四种:承受体、承受者、接受者、客体。笔者更赞同前两种翻译,相应地,patiency可翻译成承受性。)问题还没有引起足够的重视[5]。

在笔者看来,学者们对以道德能动性为核心的机器伦理学的过多关注,在某种程度上恰恰是人类中心主义的体现——它强调的是如何让社交机器人关怀我们,而不是我们如何道德地对待社交机器人。从实践上看,相比于能否把社交机器人看作道德行动者,是否要把社交机器人看作道德承受者,是一个更为现实的问题。那么,人工道德承受性是可能的吗?换句话说,我们应当在社交机器人的道德承受性问题上表现得慷慨大方吗?人工道德承受性的条件或标准又是什么?对这两个问题的回答是研究机器人权利以及机器人伦理相关问题的理论基础。

一、道德承受性与构建人机文化

在物理学中,承受性是指一个物体能够支撑或接受其他物体压力的特性。换言之,承受性总是跟压力联系在一起。如果把物体压力改为“抽象的压力”,如心理压力或目标任务压力,同样可以说承受性。譬如,当赞扬一个人“心理承受力强”时,就是指他对心理压力的承受能力强。类似地,道德承受性是指一个存在物或系统,有资格接受其他行动者(agent)的道德行动,即能够接受道德行动者对其进行道德关怀的特性。假如一个存在物确实值得道德关怀,就表明此存在物就具有道德承受性地位。在这个意义上,一个存在物或系统具备道德承受性,当且仅当,它有获得道德关怀的资格。

“道德承受性”作为一个哲学概念,本来只是一个随附性的概念,因为它必须依赖于道德能动性而存在。事实上,它远不如“道德能动性”那么受人关注。所谓道德能动性,是指行动者有能力实施道德行动的特性。一个行动者是道德行动者,就意味着他的某些行动具有道德影响力,例如,出于道德理由而做出的行动就是道德能动性的施展。从道德地位上看,如果没有道德能动性,也就不会有道德承受性[6]。正如哈伊丁(M.Hajdin)所言,道德承受者(patient)是道德行动者的导出和补充概念,它是类比道德行动者而创造出来的一个概念[7]。那么,反过来说,如果没有道德承受性,道德能动性也就没有所施展的对象。可见,道德能动性与道德承受性一起,才构成了完整的道德地位概念。正因为这种关系,研究社交机器人是否具有道德承受性是道德地位不可或缺的一个重要方面。

毋庸置疑,人类典型地具有道德承受性地位。那么,除了人类之外,其他存在物是否具有道德承受性?换句话说,如何判定一个存在物具有道德承受性?要回答此问题,必须探讨道德承受性的标准。从历史上看,道德承受性的标准的一个重大突破是从理性标准到感受性(sentience)标准的转变——它主要是环境伦理学和动物伦理学的贡献。在泰勒(A.Taylor)、辛格(P.Singer)等学者们看来,除了人类之外,生态环境和动物具有感受性,从而具有道德承受性,人们应当对它们施加道德关怀[8-9]。试图把道德承受性范围从有生命之物进一步扩大到无生命的社交机器人(2)能与人类进行交互和沟通,并且具有一定自主性的物理机器人。上,就是机器人伦理学的目标之一。

那么,社交机器人具有道德承受性吗?假如人们接受社交机器人具有道德承受性,就表明社交机器人具有一定的道德地位,那么,人们就不应当“伤害”它们。换句话说,社交机器人有道德承受性就意味着它是道德共同体中的成员,从而人类对社交机器人有某种道德关怀的义务。显然,接受这一命题,既有理论意义,又有现实意义。从哲学上说,它超出了传统伦理学的研究范围,势必引发哲学上的争论;在现实性上,如果承认这种观点,那么,在当下(以及未来)的人机交互中,人们就要承认人类对社交机器人具有伦理关系。相反,如果社交机器人根本不可能拥有道德承受性,人们就不必考虑机器伦理学是否是一门新的伦理学,也不用考虑以何种道德态度对待社交机器人,而只是单纯地把它看作人类的工具甚至奴隶[10]63-74。

以道德的态度还是非道德的态度对待社交机器人,对于构建人机关系与人机文化具有重要影响。在纯粹的工具文化中,人们使用社交机器人,仅仅是因为它能够帮助我们提高工作效率或供我们娱乐,在多数情况下是不需要考虑它的道德承受性地位的。正如博斯特罗姆(N.Bostrom)等人所认为的,一块岩石就没有道德承受性地位,我们压碎它不需要进行任何道德思量[11]。这种人机关系下形成的人机文化,更多地会是一种工具主义文化。工具主义文化在某种意义上可以凸显人的价值,但在道德上可能造成两个不利后果:一是容易引发人与人之间的冲突,因为人机关系在某种意义上是以机器为媒介的人与人之间的关系,如损害公共服务机器人就是对公共机构及至公众的伤害;二是会加强人们的非道德甚至暴力倾向,毕竟对机器的不友好态度有可能会移到对待人的态度上来,而人的德性具有较强的稳定性。反之,如果以一种道德的方式与社交机器人相处,则更容易形成一种人机友好型文化,它的前提之一是承认社交机器人具有道德承受性。不过,此观点面临的一个反驳:对社交机器人讲道德只会浪费有限的资源(包括情感浪费)[10]63-74。笔者认为,此反驳只看到了不利的一面,而未看到人工道德承受性有利的一面和不可避免的一面:它既有利于构建人机友好型文化,还是人机交互未来发展必须要考虑的。如伴侣机器人、护理机器人等社交机器人,当它们具有高度的自主性,并在现实中与人类深入交互时,将其纳入社会共同体的范围并对它们进行道德关怀也不是天方夜谭。总之,人工道德承受性能否成立,对于构建合适的人机关系与人机文化(道德相关的或不相关的)具有根本性的意义。

由上可见,在传统的道德哲学视域中,社交机器人是不可能具有道德承受性的,即人工道德承受性这个概念是不能成立的。要使人工道德承受性概念合法化,就必须扩展道德关怀的范围并给出哲学上的辩护,这个工作就是道德承受性的扩展论证(Extension Argument)。

二、扩展论证及其核心理据

凭什么要对社交机器人进行道德关怀?要回答这一问题,就必须给出人工道德承受性的理据(rationale)是什么,也即把道德关怀扩展到社交机器人的原理与理由是什么。换言之,试图论证人类应该对社交机器人进行道德关怀,就必须给出道德承受性的扩展论证。

(一)道德承受性的扩展论证

扩展论证最早出现在环境伦理学中,它试图论证人类对生态环境也有伦理关系,从而人类应当对生态环境进行道德关怀。比如,利奥波德(A.Leopold)对土地伦理的呼唤,后来就引发了环境伦理学中道德扩展论证的一个典型版本[12]:从人只是自然共同体中的一员,进而主张生态环境也应该受到道德关怀。类似地,对于社交机器人来说,道德承受性的扩展论证也有很多版本。综合各种具体的扩展论证,可以概括出一个完整的扩展论证模式[13-14],[15]209-221:

(1)从历史上看,道德承受性的范围确实在不断扩展;

(2)如果非道德地对待社交机器人,则易导致损他又损已;

(3)从行为主义的角度看,社交机器人的行动可以表现得像人。

所以,人类应当把道德关怀扩展到社交机器人。

显而易见,上述论证的前提(1)是无可置疑的。前提(1)表达的是历史事实,比如在奴隶社会,贵族甚至没有把奴隶当人看;此外,黑人和女人的道德承受性地位在历史上也在不断提高。当然,前提(1)作为历史事实并不意味着把道德关怀扩展到社交机器人就是理所当然的,而且人类的道德关怀不太可能无限地扩展下去。前提(1)的作用在于,它为人类的道德扩展提供了信心,毕竟相比环境伦理学和动物伦理学的道德关怀扩展,社交机器人的各方面表现更像人,直观上更有可能获得人类的道德关怀。

前提(2)既可以有义务论的理解,也可以有功利主义的理解,还可以有美德论的理解。比如,从义务论的角度看,它包括间接义务与自我建构两方面的理据。所谓间接义务就是指人的行动不应当对某些非人存在物产生伤害,如对马和狗的长期效劳心存感激“间接地都属于人的义务”[16]。根据康德的这一间接义务思想,戈德斯把它引入到机器人伦理学中来:如果一个人对社交机器人缺乏道德关怀,则其行动会间接地损害他人的利益,此即意味着人对社交机器人有间接义务[17]。自我建构则主要是指有义务不让自己的道德品行下降,而非道德地对待机器人就有可能让自己的德性变差,并进而把这种德性在对待其他人的过程中展现出来。此外,对于前提(2)来说,既可以强调不应该损他的部分,也可能偏重不应该损已的部分,这又分别形成了直接论证和间接论证。也就是说,如果从客体(object)出发,重点关注人类不应该损他的特性,则这种论证思路就是直接论证;相反,从人类主体(subject)出发,认为不对社交机器人进行道德关怀,会损害人类自身的利益,则是间接论证[15]209-221。

前提(3)是扩展论证的核心,学者们对它的看法各不相同,莫衷一是。当然,这一前提的争议性,并不是说社交机器人在行为主义或功能主义的意义上做不到“像人”,而是认为仅从机器表现得像人,无法得到人们应当对它进行道德关怀的结论。一个显见的反驳是:机器的行为只是按照固定的程序产生的,它没有自己的任何欲望和利益,即使有自己的利益也不需要关心它们自己的利益[18],机器在未获得意识前只是人类的工具。因此,承认它们的道德承受性地位,纯粹只是一种拟人的隐喻说法或自欺欺人的想法。可见,要使上述扩展论证成立,还需要更进一步的解释与说明。

在笔者看来,扩展论证其实还有两个隐含前提。换句话说,要使上述论证成立,还必须再加以下两个前提:

(4)在道德上,人们不应当做一些损他或损已的行为;

(5)如果一个存在物的行为表现得像人,那么就应当把它看作道德共同体中的一员。

显而易见,前提(4)是伦理学的基本原理,在此不需要为它辩护。就前提(5)来说,则还需要进一步辩护。我们可以设想一个社交机器人,它在各方面表现得都像人,但它们没有自己的心理状态,没有情感或感受性,也没有自身利益等要素,人们依然把它看作高级工具,对其可以没有道德关怀。既然这种设想是可能且有一定的合理性,那么,前提(5)为什么能够成立,就不是显明的。

不难发现,以上扩展论证的所有前提都可以看作道德承受性的理据。其中,前提(1)是历史理据,它为道德关怀范围的扩展提供了可能性;前提(2)和前提(4)是大家可以认可的事实(3)如前所述,对前提(2),学界有不同理解,但总体上各种理解都认可它是成立的。与伦理学原理;前提(3)和前提(5)是扩展论证的核心,它们才是真正会引发争议的前提,也是最需要辩护的。在笔者看来,这两个前提中核心是前提(5)。换句话说,只要前提(5)能够成立,则道德承受性的扩展论证在逻辑上就是无懈可击的。在这个意义上,前提(5)所表达的理由就是扩展论证的核心理据。

(二)扩展论证的核心理据辩护

既然前提(5)的成立不是显然的,但它又是扩展论证的核心理据,那么,如何为它进行辩护,就是扩展论证能否成立的关键。笔者认为,前提(5)并不具体,还需要把它严格化。这是因为一个机器表现得像人,并不意味着人们应该把它看作道德共同体中的一员。前提(5)有必要重新表述为:

(5’)如果一个存在物具有能动性且与人有交往关系并形成社会共同体,那么,就应当把它看作道德共同体中的一员。

这一表述最大的特点是用“能动性”和“与人有交往关系”替换了“行为表现得像人”。一方面,机器的行为表现得像人,并不表明它具有能动性,具有能动性的机器才可能是人类应该进行道德关怀的对象。所谓能动性,是指使得一个存在物成为行动者的那些特征,如自主性、独立性和交互性等[19]349-379。当然,这里的能动性可以是人工能动性,即承认社交机器人可以作为人工行动者。传统的哲学认为机器不具有能动性,但人工智能的目标之一恰恰是制造出具有能动性的机器(即人工智能体)。就目前的人工智能技术来看,社交机器人的行动越来越展现出能动性,而且它作为人工行动者的资质越来越被认可。

另一方面,行动者如果不在一个共同体中与人有交往关系,可能难以接受道德关怀。例如,与人类社会隔绝的狼孩当然是一个行动者,但他与人类没有交往关系。类似地,如果一个社交机器人没有与人类形成交往关系,那么,它也很难成为人类道德体中的一员。那么,为什么与人类有交往关系的行动者就值得对它进行道德关怀?这需要从社会共同体的角度来进行辩护。

在宽泛的意义上,共同体是指由一些个体组成的系统,这些个体之间互相依赖和影响,各个成员都有其特定的地位,特别是彼此承认。所谓社会共同体,是指这些成员之间具有社会交往关系,如分工、合作与竞争等。如果社交机器人具有能动性且与人有交往关系,意味着它与人可以形成一个社会共同体。社会共同体是道德扩展的基础,正如郑慧子在谈及环境伦理学的扩展论证时所说:“社会共同体是我们进行道德扩展的出发地。”[20]与环境伦理学不同的是,人机共同体暂时还难以达到区域共同体(人与生态环境的利益结合体)的高度,但恰恰有可能形成人机的社会共同体。一方面,如果有能动性的社交机器人,还能进行部分道德决策,那么,人类是会受益于其“道德关怀”的。例如,护理机器人与陪伴机器人的工作。另一方面,社交机器人在与人交往的过程中,会形成一种交往关系,这种交往关系既间接地联系着人与人之间的关系,也能让人形成新的道德德性或保持已有的道德德性。基于这两点理由,把道德承受性扩展到无生命的社交机器人身上,并非是天真烂漫的幻想。

既然扩展论证的所有前提都是支持道德承受性的理据,而这些理据的成立其实还需要假定道德承受性存在具体的可识别标准。那么,道德承受性的标准是什么,恰也是学者们争论不休的难题。

三、人工道德承受性的标准之争

关于道德承受性的标准,哲学者们众说纷纭。在这些众多观点中,主要有两大进路之争,即属性进路与关系进路之争。笔者将论证相比属性解释(property account),关系解释(relational account)能为人工道德承受性提供更优的标准。

(一)属性解释与关系解释

所谓属性,一般指一个存在物所具有的特性。它不能独立存在,必须依附于某个实体。从属性的角度来理解道德承受性的标准,就是所谓的属性解释[15]209-221,即把某种属性作为一个存在物或系统能够作为道德承受者的条件。例如,在古希腊,连亚里士多德都主张“使用奴隶与驯养动物毫无二致”[21],他认为奴隶由于天生理性不够而不是完全的道德承受者。这就意味着,理性是道德承受性的标准。而在环境伦理学的支持者们看来,把理性看作道德承受性的必要条件是错误的,他们提出感受性才是真正的必要条件。从直观上看,人们应当对猫和狗之类的宠物进行道德关怀,也不该对比较高级的动物在受伤时漠视不管,因为它们都具有像人一样的感受痛苦的能力。正如贡克尔(D.J.Gunkel)所说,在传统的道德哲学中,道德承受性的主要条件是一个存在物能够感受痛苦(can suffer)[22]。如果一个存在物或系统具有感受性这种属性,意味着它能够感受痛苦,那么,人们就不应该对它实施伤害行动,从而它就可以看作是道德共同体中的成员。除了理性与感受性外,还有意识、人格性以及自主性等标准,其中感受性作为道德承受性的标准,已得到很多学者的认可。例如,环境伦理学的代表泰勒和动物伦理学的代表辛格就是感受派的典型代表。

然而,感受性作为道德承受性的标准是有问题的,正如尼利(E.L.Neely)所认为的,感受性不是道德承受性的必要条件,他提出道德承受性的真正标准应该是拥有利益(interests)[23]。感受性之所以跟道德承受性密切相关,是因为具有感受性的存在物能够感觉到痛苦:道德的目标之一是不要造成伤害,这似乎意味着,只要造成了对方伤害对方就能感受到。然而,尼利发现,如果有些人患有天生无痛症(congenital analgesia),那么,他们就无法感受痛苦,但显然他们是道德承受者。在他看来,感受性只是表明一个存在物拥有利益的一种方式,只要一个存在物拥有利益,就应当考虑对其进行道德关怀。在这些意义上看,如果机器能够展现出自主性,就说明它们能够表现出一定的欲望,并进而拥有利益,那么,人们就不应当伤害自主性机器的利益。换言之,只要社交机器人具有自主性,它们就应当被视作道德承受者。由此可见,尼利的利益标准也是一种属性解释。

属性解释面临的困境有两个:一是何种属性才是道德承受性的本质属性,学者们各执一词;二是如何确定一个社交机器人具有某种属性,也非常困难。一方面,意识、意向性和感受性,哪一个才是道德承受性的真正必要条件或充分条件?它们的区分到底是什么,为什么它们必须与道德承受性联系在一起?目前对这些问题的回答还远未达到应有的共识。另一方面,如何确定一个机器具有意识或具有感受性,目前不存在一个有效的判定标准。鉴于这两方面的困难,可以说道德承受性的属性解释是没有出路的。

与属性解释相反,关系解释认为我们应当跳出某个存在物内部来看待伦理关系。不管是理性标准,还是感受性标准或者利益标准,它们都试图寻找某种属性作为道德承受性的标准。由于属性是附着在实体上的,所以属性解释背后是一种实体思维。然而,“在关系视域中,关系思维比实体思维更加根本。”[24]在关系解释进路的支持者们看来,道德承受性表达的是一种关系,即道德行动者对道德承受者的一种伦理关系。说一个存在物具有道德承受性,无非是说此存在物与我们同属一个道德共同体,我们不应该伤害它(即不能损害正当的权益)。在一个道德共同体中,一个存在物之所以具有道德地位,从根本上说,在于它/他是一个关系性实体(relational entity)。正如弗洛里迪等人所说,最小的伦理关系结构有三个元素,即行动者、承受者和道德关系[19]349-379。就道德承受性来说,它表达的是承受者能够接受行动者的道德行动。这种“接受能力”不在于它有某种属性,而在于它与道德行动者的伦理关系。

当然,不能因为属性解释面临困境,就认为关系解释更优,我们需要更进一步为关系解释辩护。

(二)为何关系解释更优

不管是基于属性的解释,还是基于关系的解释,它们都能给出道德承受性或人工道德承受性的标准(充要条件)。然而,从道德承受性的内涵来看,基于关系的解释要更切合道德地位的本质。

1.人工道德承受性本质上是一种种间伦理关系,它更能支持扩展论证。一个存在物具有道德承受性,意味着当一个道德行动者发出道德行动的时候,此存在物能够接受这样的道德行动。例如,一般情况下,一片树叶就不能说有道德承受性,因为它与任何道德行动者都不存在伦理关系。按照郑慧子的划分,伦理关系分为两种:种内伦理和种间伦理[25]。人与人形成一个社会共同体,从而人与人之间存在伦理关系,这就是种内伦理。而人与动物之间,或人与社交机器人之间,如果能组成共同体且有伦理关系,那么,这就是不同“物种”的伦理关系。传统的伦理学不承认种间具有伦理关系,从而反对把道德关怀扩大到生态系统和无生命的社交机器人。这也是为什么对于人工道德承受性来说,扩展论证会具有举足轻重的地位。正因为人工道德承受性是一种种间伦理关系,仅从属性进路来解释这种种间伦理关系,就是不充分的;相反,关系进路强调人与社交机器人之间的种间伦理关系,并把这种关系具体揭示出来,因而能弥补属性进路的缺陷。

2.社交机器人的道德地位建立在人机交互的基础上。如前所述,道德地位包括道德能动性和道德承受性,它们的基础都是人机交互。当社交机器人具有道德决策能力,能够在道德情境中主动地关怀人类,就可以说它具有道德能动性。那么,反过来,当我们不得不关怀社交机器人,则是承认它具有道德承受性地位。塔瓦利认为,社交机器人有成为道德行动者的潜在性,这是我们要考虑人工道德承受性的重要理由之一。其实,不管是人工道德能动性,还是人工道德承受性,它们共同预设的前提就是人机深度交互的可能性。正如戴益斌所认为的,只有在社交机器人主动地面向人类(具备对话能力)时,才可能成为道德承受者[26]。总之,社交机器人的道德地位要以深度的人机交往为前提,而要进一步解释这种交往关系一定有道德意蕴,就需要从关系解释进路来理解人机交往关系。

3.任何一种属性都只是道德承受性的必要条件,而交往关系才可能是其充分条件,且关系进路能够容纳属性解释。如前所述,在属性解释中,把理性、意向性、感受性等属性作为道德承受性的标准,其实严格来说它们最多都只是道德承受性的必要条件(4)需要注意,这些属性甚至并不一定是道德承受性的必要条件。。例如,如果把真正的意向性作为道德承受性的关键必要条件[27],就是说没有意向性的存在物都不可能成为道德承受者。至于一个存在物具有什么属性,就能成为道德承受者,意向性标准显然是给不出的,因为它并没有断定道德承受性的充分条件是什么。相对于属性解释,关系解释更有可能给出道德承受性的充分条件。关系解释首先承认道德承受性是一种基于交往关系的关系,它必须依赖于道德共同体而存在。在此基础上,关系解释强调人工道德承受者必须是一个行动者,只有在与人工行动者交往的过程中,才能形成伦理关系,进而对它们产生道德关怀。可见,关系解释其实不排斥属性解释,只是认为它仅仅是某种必要条件,而未提供充分条件。事实上,扩展论证中的前提(5’),就是既不否认属性可以成为道德承受性的必要条件,同时又强调基于交往关系而形成的命运共同体关系,它更可能为人工道德承受性提供一个真正的标准。

当然,相比属性解释进路,关系解释进路也有其缺点。例如,它无法提供更为明确的标准,可能滑入相对主义的深渊等。不过,由于关系解释进路并不必然排斥属性解释进路,它其实可以容纳属性解释进路,而属性解释进路却难以容纳关系解释进路——在这个意义上,关系解释进路有更好的前景。如前所述,人工道德承受性是机器人伦理的基本概念之一,对其可能性进行辩护是研究机器人权利的理论基础。在论证道德承受性标准的关系解释进路优于属性解释进路的基础上,重构人工道德承受性的扩展论证,从社会共同体思想的角度为社交机器人的道德承受性进行辩护。

四、结语

针对“人工道德承受性是否可能”这一问题,笔者重点从道德承受性的扩展论证和标准两个角度对其进行了研究,得到两个主要结论:

1.人工道德承受性是否可能取决于扩展论证能否成立,而扩展论证能否成立又取决于道德承受性的标准。

2.具备能动性的存在物或系统,如果它在与人类的交互中形成某种意义上的社会共同体,那么就很可能具有道德承受性。显然,并非所有机器都是这样的存在物,社交机器人最有可能满足这个标准。

可以设想,人工智能的进一步发展会使人机交互成为人类社会生活的常态。在这个背景下,社交机器人不可避免地会被广泛使用。那么,社交机器人是否具有道德承受性,以及如何与社交机器人和谐友好地相处,就将既是一个理论问题,也会是一个实践问题。从理论上说,扩展论证不仅是道德关怀的扩展问题,还是人类对道德的重新理解,在很大程度上都取决于人们是否会承认机器人的道德承受性地位。相对于目前显得虚无缥缈的人工道德能动性而言,作为机器人伦理学基本概念的人工道德承受性,才是现阶段以及不远的将来更可能面临的道德问题。因为不管社交机器人有没有自己的欲望、情感或利益,当社交机器人大规模地参与到人类事务中来的时候,考虑人机道德共同体的问题,本身就是对人类道德及其文化的重新塑造。

此外,机器人伦理学是一门应用伦理学,还是对传统伦理学的超越,在很大程度上取决于社交机器人的道德承受性地位能否被认可。如果人类确实有必要把道德关怀扩展到社交机器人中去,那么,对机器人伦理学的研究,就超越了传统伦理学对社会共同体与道德承受性的基本预设。在这个意义上,人工道德承受性是否可能,能够决定机器人伦理学的学科性质。无论如何,只要人机交互越社会化,人对社交机器人的道德关系就越显得重要。就当前来说,探讨社交机器人的道德承受性地位,主要是一种前瞻性的哲学思考,它当然不会带来所谓的资源浪费,也不只是一种争长论短的思维游戏。

猜你喜欢

存在物行动者能动性
与异质性行动者共生演进:基于行动者网络理论的政策执行研究新路径
最有思想的句子
调动主观能动性,提高写作水平
高职英语教学中学生“主体能动性”的发挥
敬仰中国大地上的绿色行动者
《1844年经济学哲学手稿》关于人的本质理论的探析
“对象性存在”的三重规定性及其意义*
网络行动者的新媒体使用特征、影响及媒介民主化
做“互联网+”的积极行动者
《1844年经济学哲学手稿》自然观之内在逻辑