APP下载

后人类时代人工智能体的价值观何以可能

2021-12-29包彦征邓辉文

内蒙古社会科学(汉文版) 2021年1期
关键词:逻辑决策价值观

包彦征,邓辉文,2

(1.西南大学 逻辑与智能研究中心,重庆 400715; 2.西南大学 计算机与信息科学学院,重庆 400715)

进入21世纪,人类中心主义全面动摇。原始的、传统意义上的“人”正在消失。与此同时,科学技术居于主导地位,智能机器崛起,人机融合将成为未来我们理解人的一个重要方面。在后人类时代,现代技术的高度发展是“后人类”最为显著的特征,人们对技术的依赖超过以往任何时期。在后人类时代背景下,人工智能系统所具有的伦理道德、价值属性、价值追求等计算理论将被设计到人工智能中以替代人类价值目标的某些功能,人工智能体的价值观的产生将推动人机共同体在后人类时代实现人机和谐发展。实现人机和谐发展,一个重要的任务是为人工智能系统嵌入与人类一致的价值观,以实现价值对齐,这是后人类时代人工智能技术发展的必然趋势。本文通过展望后人类时代人工智能的发展趋势,选取逻辑视角的方法论路径以实现人机价值对齐,一定程度上弥合伦理逻辑的整体性造就的人类与技术物的属性边界,从而为后人类时代的人机和谐发展提供有益参考。

一、问题缘起

随着大数据技术的发展、智能算法和算力水平的大幅提升,人工智能技术取得了长足进步,人工智能产品遍及社会各个领域。人工智能技术发展给人们的生产生活方式带来了革命性的变化。与此同时,人工智能带来的负面影响也不断地引起人们的担忧。并非危言耸听的人工智能威胁论、“黑箱”问题的不可跟踪以及人工智能应用中产生的诸多问题等等,使人们对可信人工智能的发展充满期待。为推动实现人的自由而全面的发展,人工智能的发展应以增进人类福祉为目的,与人类的价值标准和道德规范相符合。因此,在预估人类整体发展趋势的同时,应积极寻求人类和人工智能和谐发展的多元路径,探寻后人类时代背景下人机和谐发展的可能性甚至法则。2017年1月,在美国召开的“阿西洛马会议”通过了阿西洛马人工智能原则(Asilo-mar AI Principles)。这些原则包括研究主题、伦理与价值、长期议题等三个方面。其中伦理与价值方面主要讨论了隐私、道德地位、价值观、价值归属、故障追责等问题。[1]近年来,学术界围绕人工智能的价值定位、人工智能伦理等问题展开了广泛的讨论,产生了一系列富有卓见的研究成果。在进行人工智能伦理研究的同时,为适应后人类时代人工智能技术发展的趋势,应同步开展人工智能体的价值观研究并寻求将价值标准嵌入智能系统的方法论。

“后人类的观点通过这样或那样的方法来安排和塑造人类,以便能够与智能机器严丝合缝地链接起来。在后人类看来,身体性存在与计算机仿真之间、人机关系结构与生物组织之间、机器人科技与人类目标之间,并没有本质的不同或者绝对的界限。”[2](PP.3~4)2017年12月在浙江乌镇举办的世界互联网大会上,苹果公司首席执行官库克(Martin Cooper)提出了要把更好的人性与价值观嵌入到人工智能技术中的想法。人工智能技术不应该是冷冰冰的,人工智能设计人员应强调程序设计和算法的人文情怀,将算法背后的价值观体现在程序设计的整个过程。设计过程“包含了设计者的价值理念与价值判断,在人工智能设计之初规范设计者的价值理念显得尤为重要”[3]。因此,使人工智能体具有一定的价值观,从根本上说,是人类价值观对智能体的拓展和延伸,是人类意志和价值诉求在智能体与环境交互和智能决策过程中的具体体现。人类社会伦理道德的最现实作用就是使人对事物产生价值观,而价值观是产生意向和存在的主要源泉。意向性是意识的基础,因此,人类的价值观标准与道德准则在规范人类社会活动和个人行为的指导作用上是基本一致的。价值观更多强调整体价值理念,伦理道德更多注重具体的行为规范。换句话说,价值观是“软”要求,其规定价值选择的基本方向;道德规范具有“硬”的要求,其规定智能体具体的道德决策内容。因此,在人工智能系统中嵌入人类的价值观标准和道德规范具有同等重要性。开展对人工智能价值观及其逻辑嵌入的研究,既能够确保人工智能的发展方向符合人类利益,又能够使智能体在与环境交互的过程中,在遇到复杂的道德选择而需要做出道德决策时拥有正确的价值标准的指导,防止智能机器做出有悖人类价值理念和伦理道德的错误决策。价值观的指导意义也在于此,它不仅仅局限于具体的技术和操作层面,更重要的是在基本框架和根本问题上做出符合道德规范的指导。

在已有的智能程序和智能算法的设计中,技术权贵的价值理念和价值偏好在机器学习、逻辑嵌入等智能算法中已经以间接的方式有所体现,但不能直接影响智能行为和决策。因此,基于人工智能对事实判断和价值判断相互转换的可操作性诉求,以及为满足人工智能可解释性和可信赖的现实需要,将人类价值观的基本价值理念和价值标准嵌入到智能系统中,以实现其在与环境的交互活动中发挥价值引导作用则显得尤为重要。有学者提出,人工智能体在通用人工智能阶段才会具有价值观,在专用人工智能阶段不会拥有价值观。笔者认为,只要人工智能体在专用人工智能阶段拥有价值主体地位,就可以将人类的价值观“输入”智能体系统使其拥有价值观。而如何面对人工智能的价值主体地位问题,同人工智能体的道德主体地位问题一样,人工智能专家维贝克(Peter Paul Verbeek)提出的“道德物化(materialization of morality)”的观点为我们提供了依据。[4]本研究正是立足于专用人工智能阶段综合研判后人类时代人机发展的基本趋势,尝试运用逻辑工具将人类价值观的基本价值标准嵌入到智能系统或程序设计中,使人工智能体拥有和人类一致的价值观,实现人机价值对齐。

二、人工智能体的价值标准

目前人类的普世价值观由三个基本要件组成——公平、正义、自由,这是人类价值标准的共同底线。人类价值观是一种潜移默化的价值理念,是人类意识的集中体现,专用人工智能体没有意识,本身不会产生价值观。在后人类背景下,人与智能机器逐步实现融合,技术权贵在设计智能体系统的过程中,将人类的价值标准以直接或者间接的形式植入智能体系统,即将自身价值理念转化为价值算子赋予技术中,并通过技术将其嵌入到智能体系统中,使智能体的智能行为和智能决策符合人类的价值标准和道德准则。在此过程中,技术权贵的价值观念、技术的价值追求、智能体的价值判断应坚持一定的价值原则和基本要求。

(一)坚持人本性

人工智能的产生和发展应以人的需要为根本,因此,应该把坚持人本性作为人工智能技术发展的首要和最为重要的原则。所谓人本性,就是人工智能的发展要坚持“以人为本”的基本要求,即在框架结构、程序设计、算法优化和应用实践等环节都要把人的需要和利益放在第一位。2018年12月18日,欧盟人工智能高级别专家组正式向社会发布了一份人工智能道德准则草案,该草案被视为欧洲制造“可信赖人工智能”的讨论起点。秉持人类价值观引领人工智能健康发展的理念,将人类价值规范更多地应用于人工智能的发展,突出人本性的价值取向。无论是目前人工智能产品的普及应用,抑或是后人类时代人机融合发展的未来趋势,“以人为本”的价值理念应主导智能科技的发展方向,并将其塑造为引领人工智能群体的核心价值理念,达到人本性和价值性的结合。

坚持生命至上的原则,把保护人类的生命作为最高价值追求,在此基础上最大化地减少生命财产的损失。以人类驾驶汽车为例,人类驾驶员在遇到特别紧急的情况时,由于过度紧张而很难快速作出判断并迅速采取正确措施来应对险情,他们往往会本能地选择自我保护,这样做的后果是牺牲车上其他乘客的利益或车外第三者的利益,这样的现实案例举不胜举。人的本能反应是人类在长期的生物进化过程中形成的一种生存应激反应,智能机器虽不具备这种本能反应,但恰恰相反,无人驾驶汽车在紧急情况下却能综合判断形势并作出“理性”决策,这是人类驾驶员很难做到的。在实际的算法和编程设计中,可以按照优先次序和偏好顺序决定智能决策的结果,使无人驾驶汽车在遇到紧急情况时能够坚持“以人为本”和“生命第一”的原则,尽力保全车上乘客或者第三方的生命安全,避免伤亡或尽可能使伤亡降到最低限度。这不仅仅是法律问题、道德问题,更是技术蕴涵人本性的重要体现。

(二)体现平等性

按照普遍的划分,人工智能的发展分为专用人工智能和通用人工智能两个阶段,目前的人工智能技术处于专用人工智能阶段。理论支撑和技术制约等多方面因素的限制和类人的非理性能力、情绪控制、情感产生等技术的难以实现,使通用人工智能是否能够实现成为具有很大争议的问题之一,而基于后人类时代的人机融合将成为人工智能技术发展的未来趋势。对人类而言,从工具论和目的论角度出发,把人工智能发展到人类所需的上限,真正把人类从具体事务中解放出来,并帮助人类实现自由而全面的发展,是人工智能技术发展的根本动力和目的所在。在人类社会中,“平等”的价值观念占据主流。因此,基于工具目的的专用人工智能也要遵循平等原则,在实现人工智能技术造福人类的过程中,在技术研发的竞争性、系统设计的公开性、算法的非歧视性等各个环节都要体现这一原则。尤其需要注意的是,算法本身是中立的,然而在人工智能的具体应用中,由于技术的限制、技术权贵的认知偏见、在训练算法的过程中使用有问题的数据集等原因导致智能决策中可能存在的算法歧视等现象,这是目前人工智能发展体现平等性原则需要解决的重要问题。比如在2016年召开的首届“国际人工智能选美大赛”上,机器人专家组依据“准确评估人类审美与健康标准”对参赛选手的面部进行评判,最后比赛的获胜者都是白人,这就是技术权贵设计的算法未能考虑到其他肤色人种的评判需要所造成的歧视。这种不平等的情况在类似人脸识别等多种技术系统中的出现,是人工智能算法设计者需要十分关注的问题。

“梅赛德斯-奔驰”无人驾驶汽车的程序设计中就存在着不平等的价值标准。针对在遇到紧急情况下智能系统会优先选择救路人还是保乘客的两难问题,奔驰无人驾驶汽车的智能系统会优先选择保护驾驶员和乘客。随着自动驾驶技术的进步和智能决策算法的优化,智能系统在综合各方面的情况后会做出最优决策,使生命财产的风险降到最低,这也是解决上述两难问题的最好出路。因此,人工智能技术发展要充分体现平等性原则,通过技术平等实现人类平等、人机平等,最终实现人机和谐相处,使智能技术能够真正造福人类社会。这一要求既符合各方利益诉求,也会消除人类对“机器奴役人”“机器消灭人”等诸类问题的担忧。

(三)突出差异性

坚持正确的价值导向、突出差异性,就是要依据不同的需求对体现不同价值目的的智能系统植入不同的价值标准和道德准则。价值观的植入,要体现人类的价值目标和价值诉求,体现智能机器决策的最高指令要求,坚持价值观对价值选择和道德决策的引领作用。

由于人工智能技术涉及多个领域,因此,应在不同领域或不同用途的智能体系统中突出其差异性,使从事不同行业或工作的人工智能体的智能系统遵循不尽相同的价值标准,并以此来指导具体的道德准则和行为规范。对此,偏好逻辑为我们提供了一个很好的逻辑工具。有学者说:“提到的偏好的模型都是很抽象的,故它们可以应用到与偏好逻辑相邻的领域中去,如道义逻辑。我个人一直相信,规范和义务的改变也可以用与偏好改变相似的方式来建立模型。”[5](P.13)关于这一点,前面我们提到的自动驾驶技术就是一个很好的例子。自动驾驶汽车除了要遵守基本的交通规则外,在遇有突发情况需要进行智能决策时,价值观要引导智能系统在第一时间发挥积极作用,引导其在智能决策过程中按照偏好次序做出正确决策。在具体的程序设计上,对体现差异性的智能体进行分类设计,将不同的价值算子嵌入到智能体系统中,并依据一定的偏好进行排序。要确保正确的价值理念在人工智能系统中发挥导向作用,并体现其差异性,使其各尽所能地为人类服务。

三、人工智能体的价值观构建路径

中国人工智能学会人工智能伦理专委会主任陈小平指出:“已经提出的人工智能伦理准则,大部分属于反映普世价值的原则,当把这些准则应用于具体的实际场景,就需要细化为可操作的具体规定,否则必然停留在口号的层面上无法落地。”[6]因此,将人工智能系统的价值观构建与具体的道德规范嵌入结合起来,在哲学反思的基础上寻求开展人工智能体价值观的逻辑嵌入的方法论研究,为后人类时代实现人机和谐发展提供有益参考。

(一)加强制度建设,规范技术权贵的价值观念和道德标准

人工智能体的价值观归属问题是人工智能价值观构建的核心问题。工具论视角下的人工智能体本身不具有主体的属性,同其他技术一样,它只是人类认识自然和改造自然的工具。而基于后人类时代的人工智能体的价值观构建,同样需要建立在人类价值观的基础之上。在人类社会,尽管公平、正义、自由成为人类价值标准的共同底线,但是文化传统的差异又使人类具有了不同的价值观念。因此,从制度层面统一人工智能技术权贵的价值观念具有本体论承诺的现实意义。目前,针对算法逻辑主导下“流量变现”的平台需求与人本导向下“算法批判”的价值需求之争,欧美的人工智能发展战略为智能时代的信息价值观引领提供了借鉴。欧盟人工智能伦理高级专家组提出了人工智能伦理的七条准则[7],即确保人的能动性和监督性、保证技术稳健性和安全性、加强隐私和数据管理、保证透明度、维持人工智能系统使用的多样性、非歧视性和公平性、增强社会福祉以及加强问责制。从整体来看,欧盟的人工智能发展战略并非单纯的技术发展方向,而是秉持“以人为本”的欧洲传统,突出人文牵引的价值观和伦理观以彰显其独特优势,即通过价值观引领人工智能技术的发展,以体现人类对公平、正义、自由的价值诉求,造福人类社会。这一发展理念最大限度地体现了人类的共同价值观对人工智能发展具有重要的指导意义。2019年6月,中国国家新一代人工智能治理专业委员会发布的《新一代人工智能治理原则——发展负责任的人工智能》强调人工智能发展应坚守的八条原则——和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理,在制度层面提出中国人工智能发展的基本原则和价值标准,旨在推动人机和谐发展。

人类社会制度层面的价值冲突和“道德难题”也是值得关注的重要问题。虽然目前一些国家和地区已经建立了普遍认同的人工智能发展伦理体系,但是基于价值观和道德认知标准的不同,因而对一定行为认知的价值冲突和“道德难题”依然存在,它们仍是哲学反思和现实争议的重要问题。因此,让持有不同价值理念的技术权贵为智能机器的价值标准和道德准则进行形式刻画,会出现不完全一致的结果,机器在具体行为决策中的表现亦会有所差异。基于不同的价值取向和道德评判标准,所得的评价结果亦有所区别,这主要取决于智能系统的设计者采取什么样的设计理念、按照什么样的价值观念和道德标准进行技术设计。从价值观层面讲,它可以为智能机器的价值判断和道德决策提供一个宏观的价值评判标准,按照诸如人本性等基本价值标准指导智能体做出相应的智能决策。因此,通过加强制度建设、规范技术行业和技术权贵的价值观念和道德标准,使技术权贵把人类意识中正确的价值观要素和现实生活中的道德成分赋予人工智能体,以价值观要素引领技术要素,在宏观层面、核心领域、关键时刻发挥积极作用。

(二)优化算法,增强智能体的价值判断和道德决策能力

人工智能的产生给人类社会的发展注入了新的活力,加快了人类文明的发展进程,但是悲观主义者对未来人工智能的担忧亦不无道理。人类不仅应该预见后人类时代人工智能的发展对人类利益的损害,更应该防止智能机器“奴役”或者“消灭”人类的悲剧出现。有效避免和消除这样的忧虑,推动后人类时代的人机和谐发展,是现阶段人工智能研究领域需要努力的一个方向。确保算法安全以增强智能体的价值判断和道德决策能力,可以从根本上解决这一问题。“技术本身的安全性、可控性与人性化是实现友好人工智能的关键性内在因素。”[8]加利福尼亚大学伯克利分校计算机学教授斯图尔特·拉塞尔指出,如果我们能够解决如何把人类价值变成可编程的代码,那么这种危险是可以避免的。[9]人工智能相关领域的研究人员应该秉持“算法只是一种工具,指导算法的应是一种价值观”的理念,强化智能技术的社会融合功能与人类的价值引领作用,并将二者结合起来,增强智能体在与环境交互过程中的价值判断和道德决策能力。

第一,基于算法基础上的人工智能系统应受到程序正义的约束。希特轮(Danielle Keats Citron)在其论文《技术正当程序》中指出,鉴于智能算法日益决定着各种决策的结果,人们需要建构技术公平规范体系,通过程序设计来保障公平的实现,并借助于技术程序的正当性来强化人工智能机器决策系统的透明性、可审查性和解释性。[10]由于逻辑系统具有透明性、可追溯性和可解释性的特点,建立在符号主义基础上的人工智能算法将会在程序正义的价值约束下发挥积极作用。智能主体在与环境进行交互的过程中,通过认知技能掌握交互环境知识,并按照一定的程序将其转化为相应的行为;在此基础上,智能主体的认知活动按照这样的方式不断进行更新、修正,直至实现既定目标;在此过程中,受到程序正义约束的算法可以发挥重要作用。“通过对于人类价值评判行为的观察、归纳与模拟,复制人类社会成员践行人道主义原则的行为方式,并以这种迂回的方式尽量体现‘阿西莫夫三原则’对于人工智能产品的行为约束。”[11]

第二,建立长效的算法监督和评估机制。在目前众多的智能产品中,为防止智能机器作出违反人类价值理念的言语或行为选择,可以通过人工智能技术系统来监管人工智能技术系统,借助大家普遍认同的价值理念和道德标准来建立逻辑系统和设计智能算法,对人工智能机器或智能系统进行持续性的技术监管。实施监督和评估机制有两种途径,即外部监管和内部评估。一是加强外部监管。随着智能机器交互能力的不断增强以及交互环境的变化,智能机器的价值选择和道德决策可能会偏离初始的设置标准,因此技术监管机构需要定期对智能机器的算法进行伦理水平测试,并按照一定的评估标准和实际需要决定是否有必要调整偏好顺序或进行算法升级。二是强化内部评估。从算法上设置一种二阶程序实时监控智能机器的道德决策行为,当出现价值偏差或者道德决策错误时,即在短时间内提示智能系统进行纠正或者进行二次决策。

通过优化算法,确保算法安全、增强智能体进行价值判断和道德决策的算法能力,始终是人工智能与人类和谐发展的根本保证。智能技术驱动的创新观与人文牵引的价值观之间的平衡,必将是我们反思智能时代信息价值观的逻辑起点。[12]

(三)强化技术的可解释性,确保正确的逻辑进路

人工智能源于数理逻辑,正是数理逻辑对“计算”的追根寻源,使得人类第一个计算的数学模型图灵机得以诞生。目前逻辑学的知识和成果仍在不断推动人工智能技术的更新和升级,智能系统中主体知识库的表达、主体推理模式的建立充分地运用一阶逻辑、直觉逻辑、模态逻辑、多值逻辑和模糊逻辑等逻辑工具,使得逻辑的可解释性特征愈发具有技术优势。使智能机器具有价值选择和道德决策的能力可以实现,但前提是我们要找到把人类的价值标准和道德规范设定成算法的方法和规则。对智能系统开展价值代码植入研究,使智能机器算法遵循“善法”,是人工智能系统进行符号主义路径研究的重要内容。逻辑预设了真的实在性,价值标准和道德规范预设了善的实在性,在逻辑手段的可刻画性和机器的可实现性之间找到一个恰当的平衡点,是伦理学、逻辑学和计算机科学等相关领域共同的研究课题。

人工智能技术领先的国家应加强技术合作,在基本价值理念框架下建立统一的、具体的价值标准和道德准则,实现智能系统逻辑进路的本体论承诺。首先是规范技术权贵的价值取向。技术权贵在进行智能系统设计的过程中应坚持正确的价值取向,体现人本性和公平性的基本价值诉求,而不能设计带有价值偏差和价值歧视的智能系统。其次是规范技术的价值目标。技术权贵在将技术转化为智能的过程中,应将正确的价值理念“赋予”智能系统,使智能机器在实现智能化的过程中始终坚持正确的价值导向,引导其作出正确的价值选择和道德决策,以实现价值目标的科学化和最大化。当然,由于人类对人工智能的需求具有多样性,智能机器将在不同领域或不同技术层面受不同技术权贵的影响而拥有多样化的价值体现。

如何将人类规范化的价值理念和价值标准转化为形式语言,实现价值算子嵌入到智能体系统中呢?据美国石英财经网站2016年11月1日报道,加利福尼亚大学伯克利分校计算机学教授斯图尔特·拉塞尔认为,随着机器人从事更加复杂的任务,我们绝对有必要把我们人类的道德转化为人工智能语言。“理性机器植入道德元素,如程序规则的行为,可能构成人工道德主体所需的理性。”[13]由于价值观和伦理道德对行为所发挥的作用基本相同,因而,将价值观的基本理念嵌入智能系统应遵循与道德规范嵌入智能系统一样的方法论。具体来说,应遵循自下而上的机器学习方式和自上而下的逻辑嵌入方式。徐英瑾认为:“康德对于人工智能科学家的启发就在于:知觉的‘自上而下’进路(‘知性’或‘高阶知觉’)和‘由下而上’进路(‘感性’或‘低阶知觉’)都是不可或缺的,因此一个更全面的人工认知模型将囊括这两者。”[14](P.86)

第一,自下而上的机器学习方式。这种进路是让机器自主学习,进而掌握一定的价值理念。“自下而上进路”与“自上而下进路”的道德主体模型构建都坚持道德上“善”的行为标准,不同之处在于“自上而下进路”关注普遍性伦理学理论基础上的道德构建,而“自下而上进路”获得道德的方法是把规范化的价值当作机器隐含的内容。[15]以自动驾驶汽车为例,一个来自NVIDIA公司的团队近期证明了一辆采用“端到端”机器学习的自动驾驶汽车,仅通过72小时的人类驾驶观察数据就能够实现自主驾驶。[16]自动驾驶系统在短时间内会根据人类驾驶员的实际操作进行学习,通过观察实际情境中人类驾驶员的行为获得相应的价值理念和价值偏好,并在实际场景中进行价值判断和价值选择。这符合人类价值观潜移默化的功能。自动驾驶系统在学习的过程中把规范化的价值当作机器隐含的内容固定下来,并在实际场景中指导机器做出相应的价值判断。但自下而上学习方式的问题是,机器在习得人类驾驶员好的驾驶习惯和价值偏好的同时,无形中也学到了人类驾驶员不符合人类价值规范的行为偏好,比如有的驾驶员习惯跟车太近,有的驾驶员有路怒症的表现,等等,这些都是偏离正确价值理念的不恰当行为偏好。因此,要对智能系统已学到的价值理念和价值偏好进行测定,对不符合人类价值标准的行为习惯和价值判断要给予修正,同时对智能系统进行实时监控并定期升级。需要指出的是,在自下而上的学习方式存在的问题中,有的是以“黑箱”的方式存在,实际操作中的行为决策很难被追溯。

第二,自上而下的嵌入方式。在智能系统中加入道德算子是人工智能道德技术正确的逻辑进路,同样,将人类价值观的核心理念作为价值决策算子嵌入智能系统中,也要遵循同样的方法论选择。人工智能道德自上而下的逻辑进路就是把伦理学理论中的德性论、义务论、功利主义、正义论等伦理标准、伦理规范与伦理原则嵌入到人工智能体系统的设计中,在此基础上构建人工道德主体模型。按照这样的思路,技术权贵将含有人类价值理念的自然语言转化为形式语言进行技术刻画,并将其嵌入到系统当中,使智能系统在设计过程、智能行为和智能决策中带有人类的价值理念和价值标准。在实际操作中这样的方案是可行的。

首先,规范价值标准的本体论承诺。阿西莫夫三定律是“自上而下”道德主体模型的模板,“任何讨论‘自上而下’式的机器人道德设计都不能不谈阿西莫夫三定律”[17](P.91)。为智能主体系统设计利于形式化的价值标准,主要依据人类的普世价值以及更能具体反映人类价值标准的自然语言,比如法律机器人可以依据“公正”原则提供相关法律建议,在其系统设计时可以借助道义逻辑这一工具进行形式刻画,技术人员依据道义逻辑的规则将含有“禁止”“允许”“中立”的算子加入到系统当中。价值标准可以是普世价值的基本内容或者反映普世价值的具体的价值准则,如生命(目前自动驾驶汽车的价值偏好是“优先保护车内乘客的生命安全”)、平等(前面提到的非歧视原则)、公正(法律机器人尤其需要关注的价值准则)等等。同时,普世价值的价值准则可以结合具体的道德规范进行形式刻画,比如康德的绝对命令、功利主义或结果论的某种形式。在现实操作中不可避免地存在着价值冲突和“道德难题”,本杰明·康斯坦特(Benjam Constant)指出,绝对命令将迫使某人告诉杀人犯他的猎物位置,因为在任何情况下都禁止说谎。[18](PP.1774~1799)而如果遵循结果论就会得出结论认为,作为一种减少造成不可避免损失的方法是一辆汽车最好选择撞向相邻车道内两辆车中比较便宜的那辆汽车,这显然会引起人们的担忧。[19](PP.58~65)基于价值观的宏观指导和道德规范的具体要求的不同,智能体做出的行为决策所发挥的作用也不尽相同。智能机器在面临价值冲突或者道德困境时,Piotr Kulicki和Robert Trypuz设计的道德机器为我们提供了一种思路,他们提出运用“通盘考虑”(all-things-considered)的思想解决多值道义逻辑在面临道德冲突问题时的解决办法。(1)Piotr Kulicki, Robert Trypuz, Judging Actions on the Basis of Prima Facie Duties-the Case of Self-driving Cars, Logic and Logical Philosophy, 2019,(006)。按照这一思路,智能系统可以依据不同类型的智能主体以及要实现的价值目标等综合因素,进而选择不同的价值偏好次序。

其次,将人类价值观的核心理念作为价值决策算子嵌入智能系统,是智能机器体现人类价值标准的正确逻辑进路。如何将人类现有的价值理念进行形式刻画,并将形式化的价值理念嵌入到智能机器中,是实现人工智能体价值观的关键。在形式化方面,自然语言中与正确价值观念和符合道德规范的相关词项将得以符号化。在以逻辑为工具的智能系统设计中,道义逻辑在涉及法律法规、道德规范、价值标准等方面将发挥积极作用。“道义逻辑有助于把模糊的伦理学概念精确地加以规定,并且把它们的潜在含义和关系阐发清楚,以构成一个前后融贯的理论体系。”[20]然而,道义逻辑存在的一些悖论也使道义逻辑在人工智能法律和道德系统设计方面受到一定的局限,这也是逻辑学家和计算机技术专家需要解决的现实问题之一。比如道义逻辑悖论中最经典的罗斯悖论,用逻辑公式表示为Op→O(p∨q)。这条道义逻辑定理是说,如果应该p,则应该p或q。这符合命题逻辑推理规则,但在现实生活中,我们通过语义解释为如果说你应该寄走这封信,那么,你应该寄走这封信或者烧掉它,显然是违反了人们的直觉。因此,罗斯(Alf Rose)指出这个推理并不被直接看作是逻辑有效的,说明标准道义逻辑的语义理论在刻画道义推理的特征方面是不充分的。在实际应用中,技术人员应该结合技术设计的应用场景,有效处理价值冲突、“道德难题”以及“逻辑悖论”的困扰,合理运用非标准逻辑工具,把一些明确的价值标准和道德规范嵌入到智能系统当中,使其在现实应用中发挥价值引导和道德规范的积极作用。

除了发挥多值道义逻辑在智能系统自上而下进路的作用外,动态偏好逻辑、动态认知逻辑等非经典逻辑将会在动态认知和不确定推理的价值判断中发挥积极作用,这也将是人工智能符号主义者在今后的人工智能价值判断和道德决策应用当中需要关注的问题。“动态认知逻辑是关于知识、行为以及二者相互关系的逻辑,这不是关于一个逻辑,而是关于允许我们说明理性主体系统的静态和动态的一整套逻辑。”[21](Preface)同时在这方面已有不少动态认知模型,其中最流行的是布莱特曼(M.Bratman)的BDI模型(Belief-desire-intention model)。它是一种基于信念、愿望和意图的模拟人类能动性的较为合理的智能体抽象模型,尝试将这一模型加入含有价值标准和道德规范的算子进行逻辑刻画,并依据价值偏好设置优先次序,可以增强智能体在智能决策中进行价值选择和判断的能力。当然,由于价值冲突和道德难题的存在、人工智能技术的限制、逻辑工具的开发进程缓慢等因素的影响,使得实现价值观引领人工智能道德的逻辑进路困难重重,这也是哲学、伦理学、逻辑学和计算机科学等相关学科研究需要共同解决的问题。

结语

人工智能价值观的构建并不会在短期内完全实现,而是需要一个长时间的认知过程和技术发展过程。但我们必须相信,价值观引领的人文技术在未来人工智能应用中,在确保未来人工智能的安全、可靠、可控以及实现人机和谐过程中必将发挥重要作用。展望未来,随着人类认知水平的大幅提高和智能技术的飞速发展,人们对智能机器的依赖程度不断加深,人机融合将进入新的阶段,人机和谐发展必将成为后人类时代发展的主题。因此,将人类的价值理念具体化和价值标准形式化,并借助逻辑工具实现系统嵌入,从而为人工智能价值观与人类价值观实现价值对齐提供技术支持,将成为人工智能符号主义者未来的一个研究方向。在方法论上,动态偏好逻辑、多值道义逻辑和动态认知逻辑等逻辑刻画将成为符号主义者研究人工智能体的价值观及其构建问题的主要工具,并将为事实判断与价值判断在动态的认知活动中实现相互转化提供技术支持。

猜你喜欢

逻辑决策价值观
刑事印证证明准确达成的逻辑反思
我的价值观
逻辑
为可持续决策提供依据
创新的逻辑
图说 我们的价值观
图说我们的价值观(三德)
决策大数据
决策大数据
诸葛亮隆中决策