APP下载

人工智能的伦理问题:挑战与应对

2018-01-23

伦理学研究 2018年4期
关键词:伦理道德机器人

王 军

近年来,人工智能在社会各领域迅速发展开来,并给人们生产生活带来极大便利。其产生的目的是为研究人类智能的本质内涵,具体而言就是为实现机器能够执行与人类智能相关的活动。然而,随着人工智能的发展,一些问题开始日益凸现,这些问题不仅有技术层面的也有伦理方面的。Rosalind Picard曾指出“机器的自由化程度越高,就越需要道德标准。”[1](P9)因此,对人工智能进行伦理审思显得尤为必要,这也是应对人工智能引发的伦理问题的前提所在,与此同时,我们还应当提出一些具有建设性的、可操作的建议,为人工智能的健康发展保驾护航。

一、人工智能的道德主体思考

以伦理的视角审思人工智能技术及发展现状,一方面能对人工智能的发展提供必要的伦理规范;另一方面也能对人工智能的良好发展提供方向性、原则性建议。

1.人工智能能否成为道德主体

很长时间以来,道德是仅仅就人而言的。随着生态伦理的兴起,一些生态伦理学家主张将道德的范畴扩大到有生命的一切存在物上,生态伦理正式被确立并得到广泛承认。而现今人工智能发展十分迅猛,在此情况下,一些学者认为也应当将人工智能纳入道德的考虑范畴之内,他们借法国哲学家拉·梅特之言为其辩护:“人是动物,因而也是机器,只不过是更复杂的机器罢了。”[2](P65)

进一步而言,人工智能是否能够成为道德主体呢?关于这一问题争论已久,学术界至今未能达成统一。大多数学者还是认为人工智能体不能够成为道德主体,因为道德是仅就人类而言的,这也是人与其他生物相区别的根本。具体而言,人之所以成为道德主体是因为具有意识、能够思考、能够判断的能力,这些能力是成为道德主体的必要条件。在这些明确的标准下,不同的研究者也存在着争论,一些学者认为:意识只能存在于生物体的大脑内,不存在离开生物体而存在的意识,“人工智能本质上是人造机器运用人类喂给它的知识,是人类已有明述知识的转移、利用”[3](P18)。另外一些学者明确指出,计算机中也存在意识,机器也可充当意识的载体,当科学技术发展到一定程度时,人工智能是有能力通过“图灵测试”①的。然而,有关图灵测试也在这两派中引起巨大的争论。所以,截至目前,关于人工智能是否具有道德主体的问题仍然争论不休。

2.人工智能是否应被给予道德地位

虽然学术界在人工智能能否成为道德主体的问题上存在着较大争论,然而这并不妨碍将人工智能纳入道德体系范畴之中。需要指出的是,将人工智能纳入到人类的道德体系范畴并不意味着肯定了人工智能的道德主体地位,而是人类作为道德主体拓宽了一些非人类事物的道德准入标准。现代生态学家奥尔多·利奥波德认为,应当把“权利”的主体范围进行扩展,也即是把道德权利主体扩大到有生命的自然物上去,这就使得人类生活的整个生态系统都具有了道德地位。英国的亚伦·斯洛曼教授受到近代生态伦理学家影响,他在《哲学中的计算机革命》一书中指出,人工智能技术下的机器人是存在思考和感知能力的可能的,因而把人工智能纳入到道德系统范畴内是合理的[4](P2-3)。虽然斯洛曼教授是基于一种可能性而言的一种主张,但显然,将人工智能纳入到人类道德范畴已势在必行。

在人工智能被纳入到人类道德系统范畴后,如何给予人工智能恰当的定位是十分重要的,就目前而言关于人工智能的主体定位尚存在较大争议。英国教授蒂夫·托伦斯(Steve Torrance)认为道德地位可以被划分为两个方面,分别是道德产出(ethical productivity)和道德接收(ethical receptivity)。他曾明确指出:“无论圣人还是杀人犯——以及那些诚实地提交他们纳税申报表的尽本分的人——都是‘道德的产出者’,而从其他人的行为中受益或者被其他人的行为所伤害的人都是‘道德接收者’。”[5](P495-521)因而,根据托伦斯教授观点,我们同样可以把人类和非人类给予道德角色定位,也即人类是道德行为的产出者,人工智能是受道德行为影响的道德接收者。

二、人工智能发展带来的伦理挑战

1.人工智能引起的道德决策风险

“随着生产力的进一步发展,人工智能科技会快速发展,但是人类自身的认知能力在特定的历史条件和阶段总是受到限制的,这也是人类认知历史发展的客观规律之一,人类理性的有限性表现为人类对人工智能产品道德风险认知的滞后性。”[6](P42)人工智能之所以具有道德决策风险主要在于,它被赋予越来越多的自主决策权,这一点可以在当前的自动驾驶汽车上很好的显现。“只要自动驾驶汽车与其他的道路使用者存在相互影响,自动驾驶汽车的零事故发生率就是不可能的。”[7](P98)自动驾驶汽车所面临的道德决策与“电车难题”十分相似,它首先被要求具有十分强的道德决策能力,并且要正确而合理。作为人工智能的产物,自动驾驶的道德决策能力是由其自身的道德决策参数所决定的,因而这就不可避免地带来一系列道德决策风险。

就目前而言,对于人工智能的道德决策能力研究主要有“自上而下”和“自下而上”两种进路。自上而下的进路是指通过顶层设计确定标准而后向下传播的一种方式。具体而言,就是将确定的伦理原则进行复杂的编码,继而将编码植入到人工智能系统的过程。然而这种方式也存在诸多缺陷。其一,人类还没有足够的能力考虑到人工智能所要涉及的各方面问题;其二,设定的原则也很难实现与人工智能体的完全有效融合;其三,不同的人工智能体之间的道德标准存在相互竞争与冲突;其四,人工智能体很难应对在发展过程中的各种突发状况。当然,这些缺陷也并不能完全否定自上而下路径的研究意义,自上而下的方式更有助于把人类的智慧、意识、情感等融入折射到人工智能体中,并且在当前的技术水平下人们至少可以确定一些初步的统一原则,如不伤害以及自由原则等。

自下而上的进路是指“智能机器不需要被嵌入任何道德规则或道德哲学,它只需要‘观察’并分析大量的实际情境中人类的行为数据,就能学会如何做道德决策”[8](P565-582)。这一路径使得人工智能体的道德标准与设计技术有望实现统一,但它也存在着如何实现道德进化目标的问题。耶鲁大学机器人专家Jonathan Hartman认为,阿西莫夫的三大定律应当作为智能机器人的适应性标准[9](P565-582),三大定律是指:机器人不得对人类个体造成伤害,也不能看到人类受到伤害而不管不顾;机器人应当服从人的命令,前提是不违反第一个律令;机器人应当保护自身的安全,前提是不违反第一、第二个律令。需要指出的是,人工智能体在向道德进化过程中并不能受到三大定律的严格限制,因为进化需要一个宽松的环境,而这也使得人工智能体在这种进路下产生危害的风险剧增。

除此之外,对于人工智能体的道德决策能力的研究进路还有很多,比如自上而下与自下而上相结合的研究进路等。但每一种研究进路都存在着或多或少的弊端与缺陷,这主要是由人类道德哲学的内在结构决定的,同时人类的技术还不能够完全使人工智能体的道德决策能力达到人类水平。人工智能体已广泛地应用于我们社会各领域,这又加剧形成道德决策风险乃至社会的系统性风险。

2.人工智能可能导致的社会伦理问题

在现实生活层面,人工智能带给人们更多的是社会伦理问题,如人们的工作、家庭、医疗、环境等问题。这些伦理问题是人们所不能忽视的,它与每个人的生活都息息相关,而了解、理清这些伦理问题的现状及本质有助于问题的解决。

其一,是对环境产生的伦理问题。人工智能在发展过程中,对环境不可避免地产生危害。人工智能对环境产生的危害源主要来自于两个方面:一是制造人工智能产品过程中产生的危害,例如伴随着人工智能产品制造过程中而产生的废料等。二是产品的更新换代以及自身意外损害等,譬如从事太空探索任务的机器人,很难回收再利用,多数沦为太空垃圾。这不仅是当前环境问题,由此也引出一些代际伦理问题。

其二,是对医疗产生的伦理问题。医疗机器人的应用带来许多伦理问题:首先是对医疗公平的冲击,由于人工智能医疗成本较为昂贵,多数普通患者不愿接受人工智能医疗设备的治疗,因而其主要受众也仅限于少数群体。其次是对病人隐私的威胁。比如人工智能机器在了解病人信息后会自动对信息进行储存分析等,即便手动删除个人私隐信息,在当今技术条件下依然存在恢复找回的可能,因而存在较大的隐私泄露风险。最后是对医疗安全性的挑战。纵使人工智能医疗技术越来越向精准化、智能化方向发展,但其应对突发情况的反应处置能力还是带来许多有待解决问题,例如医疗过程和医疗事故的责任界定等。

其三,是对家庭产生的伦理问题。这种伦理问题首先表现在夫妻的情感层面。如高仿真机器人的出现使得夫妻感情受到考验,当已婚人士对高仿真机器人投入时间和情感,甚至把机器人当作情感的倾诉者、心理的慰藉者甚至是性行为伴侣时,这是否构成对婚姻的背叛?同时,夫或妻的这种行为又能在多大程度上能得到对方的包容?高仿真机器人的市场化、普遍化与机器人的高仿真及个性定制等特性存在重大关联,当高仿真机器人发展到很多行为、情感、外表与人类相差无几时,人们是否更愿意把机器人作为自己的伴侣?人们可以随心所欲地对机器人伴侣进行挑选,甚至是量身制作,这不仅影响夫妻情感,更威胁到人类的繁衍和未来。此外,这种不良的影响还表现在亲子关系方面。在当前社会中,子女与父母相处的时间越来越少,随着会看护孩子的人工智能机器人的商业应用,这将加剧孩子与父母的感情逐渐淡化弱化,可能使孩童出现情感偏差和认知障碍。

3.人工智能可能导致的主体人存在与发展的伦理问题

任何科学技术都存在着两面性,人工智能也是如此,在其高速发展的同时我们也应看到其存在的潜在威胁。人工智能是人类实践产品的客体性存在,然而其越来越具有向主体性存在发展的趋势。如2017年10月25日机器人索菲亚被授予沙特阿拉伯王国公民身份,这使得越来越多的人开始担心人的主体性存在的问题,也即“人”概念与机器概念的融合。当前人工智能显然处于初级低智能阶段,在这一阶段“人们往往只对那些带有类人的实体外形的机器人或者某种对象化的人工智能赋予人格”[10](P42-43)。但这一层面模仿的人工智能体已可运用于实际战场,这些人工智能体与人不同,它们不会疲累不会饥饿,没有思想没有感情,因而会存在对无辜生命伤害的可能与危险。在人工智能向更高阶段发展时,也即开始向人类思维方式以及意向性方面模拟。在这一高度模拟化的过程中,人工智能存在不受人类控制的可能,并与人类形成竞争甚至是敌我关系。此时,人类安全将受到实际威胁。

另一方面,人类自身容易自我异化。人工智能的发展使得人类许多岗位被人工智能体所取代,首先带给人类的是生存压力,越来越多人失业,贫富差距逐渐被拉大,一系列社会问题出现。为缓解压力,更多人会选择逃避,逐渐走向异化。而富人们也不能避免异化,他们会沉迷于人工智能技术带来的便利以及由此而来的舒适生活,在这种生活环境下,人类群体的实践能力逐渐削弱,生活空间逐渐被压缩,人工智能成为其消磨时间的工具,人与人之间的交往愈趋虚拟化,人们慢慢迷失自我,走向异化的孤独。质言之,人工智能的发展使得人类有更多闲暇,贫困者承受着生存压力,选择在虚拟的人工智能体中逃避生活;富有者在享受人工智能带来的便利时沉迷于其中,进而为其所异化。

三、应对人工智能伦理问题的路径

“我们正在迈入开放性、异质性的智能社会,科技的威力更甚以往,有时甚至超出了人类的想象力。”[11]人工智能的发展已成为关乎整个人类的存在与发展的重大问题,深刻领悟马克思的科技史观、正确定位人与人工智能的关系同样有助于这一问题的解决。

1.以马克思主义指导人工智能的发展

在马克思的逻辑范畴内,生产技术属性是人本质属性的具体体现。那么,人工智能与人类的关系就十分明晰,人始终是具有主体性的存在,而人工智能技术及其衍生物只能作为客体而存在,这一主客关系是不容违背的,其直接导向的最高原则是以人为本。

在正确认识人与人工智能的本质关系上,我们还应当构建人与人工智能的良好互动机制。马克思人的技术化思想本身就要求人们实现人与技术的双向互动,双向互动包括两个层面的构建方式。其一,作为主体的存在者——人以其自身的需求创造出人工智能客体,实现人本质的力量向人工智能客体的转移,也即是一种对象化的过程。其二,人工智能体具有独立的存在形态,其对主体存在者——人的活动具有制约和导向作用,此时主体的存在者——人成为一定程度的受动性存在,然而人可以发挥自身的主体能动性,在认识和把握规律的基础上,掌握人工智能的规律,并把人工智能技术的能力内化为自身能力,从而实现自身能力的提升,这也是一个自我能力复归并提升的过程。质言之,人与人工智能之间的双向互动始终是以“以人为本”为最高原则,人虽然存在将自身能力外化为人工智能体,并受其制约和导向,但最终又返回人本身,最终提升人自身的实践能力。

2.加强伦理制度建设

伦理制度建设对于人工智能所产生的伦理问题是不可或缺的,“我们所体验到的那种无能为力并不是个人失败的标志,而是反映出我们的制度无能为力。我们需要重构我们曾经有过的这些制度,或者建立新的制度”[12](P15)。人工智能产品的研究与伦理制度的结合是应对人工智能伦理问题的最有效方式。伦理制度层面的建设应当包括人工智能的设计伦理以及人工智能的应用规范伦理。设计伦理旨在从源头上保障人工智能产品的安全性,规范伦理是意在保障人工智能产品在应用过程中的安全性,两者虽各有侧重,但需同时进行。

人工智能应用过程中的伦理制度规范一般是对人工智能的使用者而言的。当前,人工智能体不再局限于是减轻人类劳动的工具,而开始成为一种满足人类政治、经济、社会、军事需要的工具。在人工智能体不具备道德主体时,人工智能体的使用者就是一种道德主体,因而,对人工智能体的使用者制定合理的伦理制度规范是必要的。比如人工智能体的使用者不能为自身利益最大化而损害甚至是伤害其他人利益及健康安全,故此应当禁止人工智能应用于可能对人类及整个社会造成危害的领域。除了外在的伦理制度规约,人工智能使用者也应当注重自身的伦理责任意识培养,这一方面需要人工智能使用者将人工智能道德制度规范内化为自身的主体信念;另一方面需要人工智能使用者加强自身道德修养,提升自身责任意识。

3.正确处理人与人工智能的发展

当前,人与人工智能是一种相互嵌入式的发展模式,这种发展模式对旧有的人与人之间的道德关系形成重大冲击,因而,旧有的道德关系已不再适应当前时代,而新型人与人之间的关系是实现人与人工智能和谐相处的前提所在。具体而言,新型的人与人之间的关系是一种共享共存关系,是一种相互合作、相互信任的和谐关系。新型的人与人之间的和谐关系要求在对待人工智能技术方面,要始终坚持“以人为本”的最高原则,要以实现人的自由全面发展为最高目标。这首先要求人们克服对人工智能的工具理性的崇拜,摆脱人工智能对人的控制与束缚,维护人自身的尊严。同时,人们自身也应当注重丰富人全面发展的具体内容,以人工智能为载体,对其进行升级改造,更加注重人工智能与人的个性、意识、价值、艺术创造相融合,并以此展示人的全面性,通过在人工智能的展示过程中不断拓展人的全面性的新内容,进而完善人自身。

此外,人们还应树立正确的科技观、技术观。人与人工智能之间的和谐关系是建立在人能够科学正确地看待人工智能的基础上,然而在当今社会中关于人工智能技术的知识普及较为匮乏,多数人是通过观看科幻电影方式了解的人工智能,而这种科幻电影多以人工智能主宰地球、统治世界的形式展现,因而多数人对人工智能具有畏惧心理,并在一定程度上排斥人工智能。故而,普及人工智能相关知识是十分必要的。首先应让民众了解人工智能技术是计算机学科的一个分支,其本身并无好坏之分,当然,对其研究应更多地注入伦理关怀与人文精神。其次,当前一段时间内人工智能技术的发展只是处于模仿人的行为层面,是服务人类的客体存在物。此外,面对有关人工智能的相关危险言论,人们应当理性思考,不宜盲目跟风。

4.加强人工智能领域的监管

人工智能所产生的一些伦理问题与人工智能领域的监管不严或空白有较大关联,而一个有效的监督系统应是多层次、全方位的,有效监督系统的根本保障在于法律制度的建立与全方位地覆盖整个过程并由此而形成闭环。当前有关人工智能领域的法律较为匮乏甚至空白,这给实际的监督管控带来很大困难,因而,一个囊括政策、法规、法律解释以及司法准则的法律系统亟待制定实施。

对人工智能的监督并不是限制人工智能发展,而是保障其健康可持续发展,更好地为人类服务;政府要依法对人工智能进行监督,做到有法必依、执法必严、违法必究。民众对人工智能及其产品的监督是加强人工智能领域监管的重要环节。民众是人工智能及其产品的使用者,在人工智能应用过程中更容易直接发现一些存在的问题及潜在风险。此外,科技工作者及伦理学者也是监督的重要环节,他们往往能够从专业上看到问题的本质,在趋势判断上也更具预判性,从科学理性的角度来说其监督是必不可少的。

对人工智能的监督还应涵括其他环节,“按照人工智能的研发流程,我们对其进行的监管应是全流程的、分层次的,既要保障人工智能能够快速发展又要使其能够在法律的监管下运行”[13](P126)。首先是人工智能产品设计环节,这是最重要的监督环节,这一环节的监督应当包括,如人工智能的设计不能对人类及社会造成伤害及重大危害,不能对人类的尊严、人权等造成危害,不能带有欺骗性等等,具体的相关监督还应当根据法律明文规定来执行;其次是人工智能产品出售环节。应严把出售关,准确监督其是否具备投入市场应用的能力,是否具有相关使用说明等,而在重要的人工智能产品出售时,还应当实行准入制或登记制等,如登记购买产品者相关个人信息等。最后是人工智能产品使用环节。这一环节的监督主要在于民众对其所使用产品的反馈,这包括人工智能产品的使用是否对环境造成危害,是否对使用者安全构成威胁等。

[注 释]

①图灵测试(The Turing test)是由艾伦·麦席森·图灵所提出的一种实验,是指人在与人工智能产品隔开的情况下,通过一些装置向人工智能产品随意提问,进而判断其是否具有人类智能。[参考文献]

[1]Picard,Rosalind. Affective Computing[M].Cambridge,MA:MIT Press,1997.

[2]拉·梅特里.人是机器[M].北京:商务印书馆,1981.

[3]王礼鑫.马克思主义新认识论与人工智能——人工智能不是威胁人类文明的科技之火[J].自然辩证法通讯.2018(4).

[4]Sloman A.The Computer Revolution in Philosophy:philoso-phy,science and models of mind[M].Brighton:HarvesterPress,1978.

[5]Torrance S.Ethics,Consciousness and Artificial Agents[J].Artif Intell Soc,2008(4).

[6]闫坤如.人工智能的道德风险及其规避路径[J].上海师范大学学报(哲学社会科学版),2018(2).

[7]孙保学.自动驾驶汽车事故的道德算法由谁来决定[J].伦理学研究,2018(2).

[8]http://news.gmw.cn/2017-09/11/content_261 09182.htm.

[9]Wallach,W.,Allen,C.,& Smit,I. Machine morality:Bottom-up and top-down ap proaches for modelling human moral faculties[J].AI and Society,2008(4).

[10]蓝江.人工智能与伦理挑战[J].社会科学战线,2018(1).

[11]李美凤.“人的技术化”:内涵与过程[J].沈阳师范大学学报(社会科学版),2011(7).

[12]安东尼·吉登斯.失控的世界:全球化如何重塑我们的生活[M].周红云,译.南昌:江西人民出版社,2001.

[13]倪楠.人工智能发展过程中的法律规制问题研究[J].人文杂志,2018(4).

猜你喜欢

伦理道德机器人
《心之死》的趣味与伦理焦虑
灵长类生物医学前沿探索中的伦理思考
头上的星空与心中的道德律
护生眼中的伦理修养
跟踪导练(五)(2)
道德是否必需?——《海狼》对道德虚无主义的思考
机器人来帮你
认识机器人
机器人来啦
用道德驱散“新闻雾霾”