APP下载

自动驾驶汽车的道德算法设计
——一种风险分配立场

2021-07-05

天府新论 2021年4期
关键词:功利主义电车道德

于 涵

真正有价值的悲剧不是出现在善恶之间,而是出现在两难之间。

——黑格尔

一、从“电车难题”和“摩托车困境”谈起

最早的“电车难题” (the Trolley Problem),是英国哲学家菲莉帕·富特(Philippa Foot)于1967年提出的。难题的内容十分简洁:一辆有轨电车失去了控制,司机看见前方的轨道上有五个人。司机可以任凭电车继续前行,这样一来,这五个人一定都会被撞死(这五个人不知何故都无法离开轨道);司机也可以将电车转向,开到一条岔道上,而这样只会撞死另一个人。那么,司机是否应当把电车开到人少的轨道上,撞死一个人,而不是五个人呢?(1)卡思卡特:《电车难题》,朱沉之译,北京大学出版社,2014年,第3-4页。以此为基础,演化出了非常多版本的“电车难题”,此处不再赘述。诺亚·古道尔(Noah Goodall)就此提出过另外一种情况:一辆自动驾驶汽车正面临迫在眉睫的撞车事故。它可以选择两个目标中的一个转向:要么是戴头盔的摩托车手,要么是没有戴头盔的摩托车手。那么,该如何做出决策呢?(2)网址:https://www.wired.com/2014/05/the-robot-car-of-tomorrow-might-just-be-programmed-to-hit-you/,访问日期:2021年5月4日。(姑且称戴头盔的人为甲,没戴头盔的人为乙,并称这一决策难题为“摩托车困境”)如果撞向甲,甲戴头盔的本意是为了保护自身安全,而现在却变成了“活靶子”,这不是在变相鼓励违反交通规则的行为吗?如果撞向乙,由于其没戴头盔,受到的伤害肯定远远高于甲,两弊相权不是应该取其轻吗?

无论是“电车难题”还是“摩托车困境”,其共同点都是当面对人类目前无法解决的伦理问题时,自动驾驶如何处理。(3)唐兴华、郭喨、唐解云:《电车难题、隐私保护与自动驾驶》,《华东理工大学学报(社会科学版)》2019年第6期。若将这个问题置于传统的交通事故中,驾驶员所做出的任何决定均没有太多探讨的空间,因为这是其价值观与潜意识的体现,并无正确与错误之分。而这个问题在自动驾驶领域,需要道德算法设计理念考量形式法治与实质法治的权衡、法律与道德的界限、价值序列的排序、不同价值观的取舍等,这些都是促成结果多元化的重要因素。不可否认的是,我们没有办法找到一种能够统摄所有人思想的通用理论。那么,面对功利主义与义务论的二元对立,我们不禁要问:是否有必要预设道德算法?如何预设道德算法?

二、两种算法设计模式之争

(一)功利主义模式

作为功利主义(utilitarianism)的开创者,边沁认为,功利原理是指:它按照看来势必增大或减小利益有关者之幸福的倾向,亦即促进或妨碍此种幸福的倾向,来赞成或非难任何一项行动。(4)边沁:《道德与立法原理导论》,时殷弘译,商务印书馆,2017年,第59页,第60页。(就整个共同体而言)当一项行动增大共同体幸福的倾向大于它减小这一幸福的倾向时,它就可以说是符合功利原理的。(5)边沁:《道德与立法原理导论》,时殷弘译,商务印书馆,2017年,第59页,第60页。穆勒指出,“功利主义把‘功利’或‘最大幸福原理’当作道德基础的信条主张,行为的对错,与它们增进幸福或造成不幸的倾向成正比”(6)穆勒:《功利主义》,徐大建译,上海人民出版社,2007年,第7页,第35-41页。。实际上,对功利原则的证明十分复杂(7)穆勒:《功利主义》,徐大建译,上海人民出版社,2007年,第7页,第35-41页。,甚至可以认为它是“不证自明”的(8)边沁认为,“人类身心的天然素质,决定人们在一生的绝大多数场合一般都信奉这个原理而无此意识……当一个人试图反驳功利原理时,他所用的理由实际上是从这个原理本身抽引出来的,虽然他对此浑然无知。”为此,边沁举了一个例子,他曾听人说:“功利原理是个危险的原理,在某些场合考虑它有危险。”这等于是说,考虑功利是不符合功利的;简而言之,考虑它亦即不考虑。可参见边沁:《道德与立法原理导论》,时殷弘译,商务印书馆,2017年,第61页。,但其结论却很简单:功利原则是解决任何实践问题的唯一和完全充分的理由,而不用依赖任何更高的理由。(9)边沁:《政府片论》,沈叔平等译,商务印书馆,2017年,第157页。根据功利主义原则,在“电车难题”中,应该牺牲一个人而挽救另外五个人;在“摩托车困境”中,则牺牲戴头盔的驾驶员。

对于这一问题的回答,我们可能没有办法简单根据“两弊相权取其轻”的原则,理所应当地牺牲少数无辜者。根据功利主义模式所得到的结论,建立在经验主义认识论的基础之上,且与大多数人的理性相符,即便可能和日常生活中的道德直觉相背离。但不可否认的是,以此设计道德算法仍具有相当的正当性。然而,若两条轨道上的人数相等,又该如何进行抉择呢?或许,当“人”这个概念完全被形式化后,功利主义者很难以“幸福最大化”为基准回应这一问题。其原因在于,功利主义模式对“电车难题”的回应并不是具体的,而是在无知之幕(veil of ignorance)下,将人抽象化。如果置于特定情境中,人与人的价值必然存在差异。举例来说,若只考虑社会贡献因素进行取舍,那么在此观念指引下,社会最终必然会分裂成两个极端。

正如罗尔斯在《正义论》中指出:“功利主义观点的突出特征是:它直接地涉及一个人怎样在不同的时间里分配他的满足,但除此之外,就不再关心(除了间接的)满足的总量怎样在个人之间进行分配。”(10)罗尔斯:《正义论》,何怀宏等译,中国社会科学出版社,1988年,第25页。由此带来如下问题:其一,功利主义将“最大多数人的最大幸福”置于最高位阶,凌驾于所有因素之上,但可以为此牺牲虽为少数却是无辜者的利益吗?少数和多数并不是独立的,而是相对的,在不同的情境下可以相互转化。如果将功利主义视为一种绝对的价值准则,演变到最后,结果只能沦为:每个人都是被牺牲者。其二,如果将生命视为可以用于“紧急避险”的牺牲品,即变相承认生命与生命之间存在质与量的差别,这会导致生命成为一种“交易品”,于法不容,甚至导致多数人的“暴政”。(11)如果将类似问题视为简单的数学题,必然会使个人权利处于极其不稳定的状态中。举例来说,可以随时进入你的私人空间,甚至将你杀害,只要是为了实现多数人利益的最大化。其三,人类欲望并非道德原则,无法从“是”推出“应当”。即便多数人赞同某一算法是既定事实,但也不是算法具有正当性的充分条件。就如同毒树之果(fruit of the poisonous tree)一样,用一种“非法”方式取得的结果,将自己的幸福建立在别人的不幸之上,还能被视为一种“幸福”吗?社会可以为了追求好的结果,而采取坏的手段吗?(12)功利主义可能为刑讯逼供提供理论支撑。举例来说,某一犯罪集团的某一成员被捕,如果采取刑讯逼供,得到有用信息,就可以制止犯罪集团的不法行为,那么,一个人的痛苦和千万人的幸福、安定相比,自然是可以舍弃的。其四,功利主义将个人的幸福与他人的幸福混合在一起计算,没有体现出对个体权利的尊重。举例来说,如果自动驾驶汽车在能够避免损伤的情况下,故意撞向某人而致其受伤,这对被撞伤者无疑是“非幸福”,但若因此给成千上万的人带来“幸福”,那么,依据功利主义理念,有什么理由禁止这种行为的发生呢?

综上所述,不难发现,即便功利主义模式存在瑕疵,但它仍具有极强的优越性。究其原因,主要在于功利主义的认识论是以经验为基础的,相较于唯理论所强调的“绝对真理”,少了些许神秘色彩,与我们的日常生活相贴切,而具有极强的现实意义。

(二)义务论模式

义务论(deontology)的代表人物是康德,他反对功利主义道德原则,认为“幸福的规范往往夹杂着一些爱好的杂质,所以,人们不能从称之为幸福的满足的总体中,制订出明确无误的概念来”(13)康德:《道德形而上学原理》,苗力田译,上海人民出版社,2005年,第15页,第16页,第17页,第53页,第55页,第61页。。如果将道德置于人类欲望——即便是追寻幸福——之上,便混淆了“幸福”和“善良”间的界限,从而误解了道德的真正含义。倘若道德不是建立在欲望之上,那还剩下什么呢?尽管康德是一名基督教信徒,但他并没有将某些神圣权威(如上帝)视为道德的基础,而是强调通过“纯粹实践理性”以实现道德。康德认为,“只有出于责任的行为才具有道德价值”, “一个出于责任的行为,其道德价值不取决于它所要实现的意图,而取决于它所被规定的准则”。(14)康德:《道德形而上学原理》,苗力田译,上海人民出版社,2005年,第15页,第16页,第17页,第53页,第55页,第61页。这与边沁所提倡的功利主义只注意到人类感性部分不同(15)从严格意义上讲,功利主义并未完全摒弃“理性”这一概念,只不过这种理性是“工具理性”,是实现目的最大化的手段,而非决定何种目的值得去追寻。相较而言,康德所提倡的“理性”观念,是一种“纯粹实践理性”,即忽略所有的经验目的而设定了一种先验性。,因为人还有理性,理性与感性是人类的一体两面,而只有将理性视为最高统治者,才不会使我们沦为欲望的存在。康德进一步指出,“只有为有理性的东西所独具的,对规律的表象自身才能构成,我们称之为道德的,超乎其他善的善”(16)康德:《道德形而上学原理》,苗力田译,上海人民出版社,2005年,第15页,第16页,第17页,第53页,第55页,第61页。。为了实现道德,每个人都应该服从这样一种规律,即“任何时候都不应把自己和他人仅仅当作工具,而应该永远看作自身就是目的”(17)康德:《道德形而上学原理》,苗力田译,上海人民出版社,2005年,第15页,第16页,第17页,第53页,第55页,第61页。。就目的而言,“超越一切价值之上,没有等价物可代替的才是尊严”(18)康德:《道德形而上学原理》,苗力田译,上海人民出版社,2005年,第15页,第16页,第17页,第53页,第55页,第61页。。康德由此将道德最高原则定义为“意志自律性”,即“意志由之成为自身规律的属性,而不管意志对象的属性是什么”(19)康德:《道德形而上学原理》,苗力田译,上海人民出版社,2005年,第15页,第16页,第17页,第53页,第55页,第61页。。从这个意义上讲,道德并不是一味地遵循欲望,也不是为了实现某种目的而选择的最佳手段,而是根据自己给自己设定的法则而“自律地行动”。也就是说,应当通过尊重人的尊严的方式将人视为目的,即为了目的本身去选择目的。

康德式的尊重(Achtung)针对的是人类广泛存在的、没有差别的理性能力。他将人视为目的本身,而非实现目的的手段,从而将每个人都定义成自由的客体。从义务论的观点出发,在“电车难题”中,五个人的权利与一个人的权利是平等的,如果为了五个人而牺牲一个人,那么这个被牺牲者便成为挽救五个人性命的工具,而非将其作为目的本身加以尊重。当然,如果换一个视角,或许基于功利主义也可以得到相同的结论。具体来说,如果允许通过牺牲一个人的方式来挽救五个人,那么今后每个人都会尽量避免自己成为“那一个人”,故而从长远的角度来看会降低“功利”。然而,依据义务论仍然可以对这种观点进行反驳,因为这种功利主义说辞是将潜在的“那一个人”视为他人幸福(目的)的一种纯粹手段(工具)。也就是说,不牺牲“那一个人”,只是为了让其他人不会担心自己成为“那一个人”而已。

在“电车难题”中,既然拯救五个人是道德义务,不牺牲一个人也是道德义务,那么当两者发生冲突时,只能选择不作为,即“遵从上帝的旨意”。然而,康德式的义务论在很多情况下缺乏现实可操作性,甚至会陷入“乌托邦”似的幻想。举个极端的例子来说:倘若一条轨道上站着一个人,而另一条轨道上站着1亿人(如果可能的话),如何抉择?难道能依据义务论模式得出“1亿不大于1”的结论?这显然是很荒谬的。此假设中,功利主义将理论与现实割裂开来,将人抽象为观念上的存在加以比较,从而具备了义务论难以反驳的优势。届时,被命运选中的那个牺牲者,或许只能将其视为一种“原罪”,而非1亿人针对他一个人的不公。由此观之,在电车难题中,如果双方所牺牲的利益的天平出现严重倾斜,其结果必然会滑向功利主义。

三、是否有必要预设道德算法

自动驾驶汽车的普及注定是一股不可阻挡的潮流。在人工智能时代下,如何实现人与人工智能的和谐共处呢?很多人回答过这一问题,代表性例证是“阿西莫夫三定律”(Asimov’s three laws)(20)“阿西莫夫三定律”是指:第一,机器人不得伤害人类,或看到人类受到伤害而不作为;第二,机器人必须服从人类的命令,除非与第一条相冲突;第三,机器人必须保护自己,除非这种保护与前两条相冲突。更多评述可参见Balkin,Jack M.,“The Three Laws of Robotics in the Age of Big Data,”Social Science Electronic Publishing,2017,pp.1-10.,其旨在引导科技向善(Tech for Social Good),即在机器人“伤害人类”与“保护人类”之间选择后者而尽力规避前者。这种制度架构符合任何一个正常人的理性认知,并没有什么值得探讨的空间。而真正困难的抉择并非出现在善恶之间或利弊之间,而是在“两恶”或“两弊”之间,这也正是探讨“电车难题” (或“摩托车困境”)的核心价值所在。如果不预设道德算法,意味着在面临上述困境时,有以下两种可供选择的路径:

一是将决定权交给车主,由其自行选择承受损害的主体。这无疑将选择结果与个体在一刹那间的价值判断相连接,具有较大的偶然性与随机性。就车主而言,采用功利主义模式与道德直觉相违背,采取义务论模式又缺乏现实可操作性。在不断追问下,可能会陷入道德之愣(morally dumbfounded),并引发决策悖论:怎么选择都可以,怎么选择又都不行。最终,道德抉择只能来自情感本能,即从朴素的价值观出发,以直觉先行,而推理通常在判断形成之后才做出,目的是影响别人(如图1所示)。(21)乔纳森·海特:《正义之心:为什么人们总是坚持“我对你错”》,舒明月、胡晓旭译,浙江人民出版社,2014年,第47页。笔者反对由车主设定道德算法,理由有二:其一,将道德难题交给车主,无疑将个体行为与自动驾驶连结在一起。由于损害结果与车主行为直接相关,则难免会要求车主在一定程度上——未必是全部——承担责任。此时,个体在道德上的自私性将充分表现出来。例如,在任何情况下,均采取最大限度地保护自己的方式。其二,就技术层面而言,随着自动驾驶技术的进步,人类驾驶人角色被不断消解(22)黄波:《自动驾驶汽车交通肇事的刑法应对》,《天府新论》2018年第4期。,甚至完全沦为一个“乘客”。而在突发事件中,往往需要在极短的时间内做出道德抉择。这对车主(乘客)而言,既不可能,也不现实。

二是将决定权交给“上帝”,采取一种无差别的抉择方式,无论现实情况如何,算法均回避多元的社会现实,不存在任何的倾向性。为了实现“公平”决策,甚至有学者建议在道德体系中使用随机数生成器。(23)Robert Trappl, “Ethical Systems for Self-Driving Cars:An Introduction,”Applied Artificial Intelligence,2016,Vol.30,No.8,p.746.那么,就自动驾驶汽车而言,可以不预设任何道德算法,抑或采取一种“掷硬币”的方式将命运交给“上帝”吗?答案是否定的,理由有三:其一,鉴于人工智能的发展对社会的影响愈发凸显,人们普遍认为,受到人工智能影响的人应该对技术足够了解。(24)Wischmeyer T.,“Artificial Intelligence and Transparency:Opening the Black Box,”in Wischmeyer T.,Rademacher T.(eds.),Regulating Artificial Intelligence,Springer,Cham,2020,p.76.在“算法黑箱”(black box)中产生的结果难以被民众接受,是“刑不可知,则威不可测”的一种倒退。算法的不透明性使其丧失了对行为的指引功能,民众没有办法明确地采取有利于己的行动。为了规避潜在风险,只能被动做出远高于算法设计所需要的让步,其结果必然导致个人权利空间被压缩。其二,算法设计必须引入公众参与,实行民主决策。究其原因,不仅在于这与每个人的权益——所承受的风险——紧密相关,更是实现风险决策者与风险承受者相统一的因应之策。其三,不预设道德算法或许能够实现形式平等,但可能与实质平等相悖。以“摩托车困境”为例,如果撞甲还是撞乙完全是随机的,不存在任何倾向性,那固然做到了形式平等。但倘若撞不戴头盔的乙会致其死亡,而撞戴头盔的甲仅会致其轻伤,此时若撞向乙,显然与实质平等相抵牾。不预设道德算法可能导致自动驾驶汽车选择不道德的行为,甚至触碰法律所维护的底线。

正如美国麻省理工学院情感计算研究组创始人罗萨琳德·皮卡德(Rosalind Picard)所言,机器的自由度越大,便越需要道德标准。(25)Wallach,Wendell and Allen,Colin,Moral Machines:Teaching Robots Right from Wrong,Oxford University Press,2009,p.23.就自动驾驶汽车而言,设计道德算法是必要的,关键在于如何规避功利主义模式与义务论模式的弊端,以实现最优解。

四、风险分配模式:第三种路径之可能

功利主义模式与义务论模式是基于不同价值观的表征,两者在特定情境下均具有合理性,并不存在“上下之分”,有的只是“左右之别”。而笔者所提出的风险分配模式是在功利主义与义务论两种极端中选取的第三条道路,其优越性可以从一种更抽象的方式加以证立。举例来说,如果甲、乙两人需要分完100元钱,那么,甲之所得必为乙之所失,甲之所失必为乙之所得,这显然是一个零和博弈。如何设定各自的分配金额呢?当然,可以将100元钱全部给甲,或者全部给乙。但这两种分配方式处于两种极端,使一方收益最大化而另一方损失最大化的做法,是极其不公的。如果选取第三种分配方式,使甲、乙两人都分到一定数额的金钱,那么,无须讨论何处才是“黄金分割点”,因为只要将这个点设在两种极端之间,即便其中一人只分到一元钱,相较于上述两种分配方式而言,也是占优的。

道德算法设计中的风险分配与财富分配相似,唯一的区别可能在于:财富是可分的,而风险一旦转化为现实损害,就由不确定性变为确定性,从而无法分割。具体来说,在道德算法设计中,撞甲抑或撞乙是二元对立的抉择,被撞者必然受到全部损害,即100%;而另一方必然不会受到任何损害,即0。损害没有办法像财富一样,在两者之间公平分担。(26)诚然,如果事后让没被撞的人给予被撞者一定的物质补偿,也是在变相“分担”风险。但就风险本身而言,是无法分割的。那么,第三种模式如何生成呢?答案在于概率。实践中,谈及概率的意义非常有限。因为在损害发生时,概率要么是100%,要么是0,不存在第三种可能。但是,将概率引入道德算法设计具有极强的理论意义:一方面,其将损害转化为风险,将确定性转化为不确定性,正面回应了自动驾驶的道德算法设计悖论;另一方面,基于调和论立场,运用偶然性强行打破了功利主义算法与义务论算法间的界限,至少在理论上徘徊于两种极端之间,且具有超越两者的显著优势。

从本质上讲,道德算法的设计模式体现着自动驾驶汽车的风险分配方式,起决定作用的是社会主流的价值判断与价值选择。理论上无法设计出一套既符合社会大众共识又满足公平正义要求的通解,这或许正是“电车难题”的核心症结所在。为了确保道德算法的有效性与普适性,应当采取道德的普遍化原理(principle of universalization),即每项有效的规范必须满足如下条件:所有旨在满足每个人的利益的规范,其普遍被遵循所产生的结果与附带作用,均能不经强制而为所有相关者所接受。(27)Jurgen Habermas,Moral Consciousness and Communicative Action,The MIT Press,1999,p.65.具体来说,一方面,把是否“满足每一个人的利益”视为规范有效性证明的标准,在这里“每一个人”代表着一种超越任何特定社会、团体、阶层的“每一个单个的个人”的意思,即它并不指特定群体也不指那种抽象的或总体的人;另一方面,它又要求在所有可能的或不同的应用情境中来确证规范的有效性(它因此把对规范实践的“后果和副作用”的适当考虑当作是否“满足每一个人的利益”的条件)。(28)刘钢:《哈贝马斯与现代哲学的基本问题》,人民出版社,2008年,第215页。从这一立场出发,风险分配模式与道德的普遍化原理十分契合。一方面,它没有以部分群体的价值观为基础,制定统摄所有人——自然包含拥有不同价值观的另一部分群体——的道德算法,而是将自我与他我置于同一位阶进行考量,通过交换主体性,使每一个人都能站在他人利益的立场之上;(29)可以参见无知之幕版“电车难题”,https://www.wjx.cn/jq/10003546.aspx,访问日期:2020年6月4日。另一方面,将抽象算法与具体情境相结合,通过民主协商使每一个个体表明自身利益,并在合理的妥协中实现“人人利益之并行”。由此观之,风险分配模式具有超越功利主义与义务论的显著优势。那么,如何以此为基础,设计道德算法呢?

(一)道德算法的支点:价值等级序列

价值等级序列是指价值在相互的关系中具有一个“级序”,根据这个级序,一个价值要比另一个价值“更高”或者说“更低”,它包含在价值本身的本质之中,并且并不只对那些为我们所“熟悉的价值”有效。(30)马克斯·舍勒:《伦理学中的形式主义与质料的价值伦理学》,倪梁康译,商务印书馆,2011年,第146页。从理论上讲,既然存在道德算法,就肯定能找到一个由不同层级价值所构成的“序列”。它的最高一级就是直接“撞毁整个地球”,最低一级是作为被撞对象所损害的最低价值。在这两级之间,包含了自动驾驶汽车可能侵犯的所有潜在利益。这些利益遵循着“无形”的序列,由高到低排序。在设计道德算法时,需要找到能够衡量所有被撞对象价值大小的基本标尺,从而进行倾向性选择。其实,美国麻省理工学院媒体实验室(MIT Media Lab)一直致力于机器道德的研究,通过测试来了解大众对于道德两难议题的看法,以为研究自动驾驶汽车道德提供依据。实验结果表明,民众对于不同性质利益间的权衡是相对一致的,如倾向于保护遵守交通法则的人,相较于保护动物而言,倾向于保护人类,等等。(31)网址:http://moralmachine.mit.edu/,访问日期:2020年6月4日。另可参见:Awad,Edmond etc., “The Moral Machine Experiment,”Nature,2018.

从本质上讲,价值序列的设定与刑法中的“紧急避险”条款相似,即为了消除自动驾驶汽车在道德困境中的危害,通过牺牲较小利益的方式而保全较大利益。从社会主流的价值判断与普通民众的基本认知出发,一个普遍能接受的价值序列是:生命利益大于身体利益,身体利益大于动物利益,动物利益大于财产利益。也就是说,当不同性质的利益间发生冲突时,必然以牺牲较低阶利益的方式保全较高阶利益,而人类生命处于最高位阶。在确定了价值序列之后,需要回答的便是:在同种利益间——如人的生命和人的生命——如何进行取舍?这种取舍,不能简单依据数量的多寡而优先考虑一方,而应努力寻求彼此间的“实际一致性”(practical concordance)。

(二)道德算法的核心:风险分配均等化

风险(risk)是指特定时间内某种特定危害发生的可能性或者某种行为引发特定危害的可能性。(32)Baldwin,R (eds.),“Law and Uncertainty:Risks and Legal Processes,”Kluwer Law International,1997,pp.1-2.许多著作中用数学公式来表现风险,即期待值R等于用于表达某一个可能时间及其后果的数值(损害规模S)乘以有关该事件及其后果发生的可能性(H)的数值:R=H×S。(33)刘刚编译:《风险预防:德国的理论与实践》,法律出版社,2012年,第24页。在设计道德算法时,应当引入风险理论,以保证机器决策的随机性。质言之,应当根据损害程度决定风险分配的概率,而不是在两难决策中进行非此即彼的确定性选择。如果从博弈论的角度来看,算法设计不应存在纯策略均衡,而应构建混合策略均衡,即让潜在的被撞者知道,是否戴头盔与是否被撞之间没有必然的线性因果关系。当然,这种随机模式与掷硬币不同,不是走向完全无为的混沌状态,而是利用偶然性,防止潜在被撞者发现道德算法的设计规则,从而规避被撞的可能。

将风险理论引入道德算法设计的优势在于,可以缓解功利主义与义务论间的张力。那么,如何计算概率呢?最基本的原则就是实现风险分配的均等化。偏离风险理论而另行寻求其他的界限,不仅会破坏两难决策下的平衡,还会导致被撞者在承受风险程度上的悬殊,甚至畸重或畸轻。面对公民日常生活和社会运转之中泛在的算法歧视(34)何傲翾:《数据全球化与数据主权的对抗态势和中国应对——基于数据安全视角的分析》,《北京航空航天大学学报(社会科学版)》2021年第3期。,风险分配均等化是设计道德算法的科学且公正的参考系,具有客观性、随机性、公平性、普适性,可以最大程度地跨越时间与空间的界限,是道德算法的核心。基于这一理念,便能够回答前文中提到的两个问题。就“电车难题”而言,如果不考虑其他因素(35)德国发布了世界首份自动驾驶伦理指南,第九条指出,“在事故不可避免的情况下,基于个人特征(年龄、性别、身体或精神体质)而进行的任何区分都是严格被禁止的”。也就是说,禁止依据人群属性对受害者区分对待。参见Luetge,C.,“The German Ethics Code for Automated and Connected Driving,”Philos. Technol,2017,No.30,p.552.,只从数量来看的话,则有5/6的概率撞向一个人,有1/6的概率撞向五个人。在“摩托车困境”中,如果戴头盔的甲被撞,受到的伤害值是3,而没戴头盔的乙被撞,受到的伤害值是7,则有70%的概率撞甲,有30%的概率撞乙(见表1)。

表1

(三)道德算法的修正:社会主流价值

算法应恪守基本伦理规则和主流价值导向。(36)陈晓彦:《用主流价值导向驾驭算法》,《白银日报》2019年9月28日。对于如何设计自动驾驶汽车的道德算法这一问题,在不存在通用正解的前提下,本质上是在决定用何种价值观将风险分配给谁。与财富分配的等级化相区别,风险分配应以均等化为基础,并通过不断修正而实现“公平性”。质言之,风险分配方式应遵循社会主流价值,并随着主流价值的发展变化而及时调整,从而形成某种程度的循环。对混合方法的综合或更迭运用,由一整套复杂的规则构成,它优于其他单个方法或多个方法的简单采用,更能体现出对悲剧性选择的正确认识。(37)盖多·卡拉布雷西、菲利普·伯比特:《悲剧性选择:对稀缺资源进行悲剧性分配时社会所遭遇到的冲突》,徐品飞、张玉华、肖逸尔译,北京大学出版社,2005年,第214页。因此,道德算法的设计并不是永恒不变的,而应根据社会主流的价值判断与价值选择,对均等化分配风险之基准进行修正。当然,这种调整存在两个默认的前提:其一,社会主流价值判断并非由某一方单独决定,而是采取一种民主的方式表达所有潜在受影响者的利益;其二,算法能够呈现这种价值判断,即具备可操作性,这就将社会地位等因素——至少在现有技术水平下——排除在外。

对风险分配均等化的修正需要从三个层面展开。首先,确定所有需要考量的因素,包含但不限于年龄偏好、性别偏好、是否重视保护乘客、是否违反交通法规等。其次,根据重要程度,设定每个因素的权重。例如,社会主流价值取向表明,极其重视交通法规,而不太重视性别偏好。那么,在协商后可能会将前者的权重设定为30%,后者的权重设定为5%。最后,将各个因素的权重作为对风险分配均等化的修正。以“摩托车困境”为例,如果只考虑交通规则因素,在甲(戴头盔)没有违反交通规则而乙(没戴头盔)违反了交通规则的情况下,需要把30%的权重加进去,且确保总体概率为100%(见表2)。

表2

五、结 语

针对自动驾驶汽车的道德算法设计模式,本文超脱功利主义与义务论的争辩,以风险分配为基础,旨在用不确定性算法代替确定性算法,以逼近理论上可能存在的、通用的“正解”。质言之,道德算法并不是固定不变的。当特定群体所承受的风险超越极限时,便应再次通过民主程序,根据社会主流价值判断调整各因素的权重,从而修正风险分配均等化。或许,这就是风险社会下分配风险的终点与宿命。

猜你喜欢

功利主义电车道德
头上的星空与心中的道德律
跟踪导练(五)(2)
道德是否必需?——《海狼》对道德虚无主义的思考
不能将功利主义标签化
福柯眼中的微观权力
功利主义理念在思想政治教育中的柔和
当代大学生功利主义价值观成因及其对策
由电车引出的故事
用道德驱散“新闻雾霾”
电车奶奶