APP下载

人工智能创新发展中的道德风险研究*

2020-01-19常晓亭

中国医学伦理学 2020年2期
关键词:道德风险伦理道德

常晓亭

(广州中医药大学马克思主义学院,广东 广州 510006,283952830@qq.com)

人工智能设备如无人驾驶汽车、服务型机器人、军用机器人等半自主性决策,甚至自主性决策的人工智能系统越来越多地进入社会生活中,给人们的生活带来了便利,也为企业带来巨大效益,但也产生了道德风险问题,如无人驾驶汽车伦理困境、数据隐私泄露、自主性武器伤害无辜生命等。人工智能道德风险的研究可以分为两个方面,一是从外部加强人工智能伦理建设和管理;二是从技术内部提高人工智能道德维度的安全性[1]。2019年4月8日,欧盟委员会发布了人工智能伦理指导原则,然而,为响应欧盟委员会的人工智能伦理指导原则而成立的谷歌道德小组,仅存在一周便解散。其原因之一是该小组的一名委员反对保障同性恋和变性人同等权利的法律,从而导致了谷歌员工对该委员的资格产生了异议。由此可见人工智能道德风险问题的棘手性及人们对该问题的严谨与审慎的态度。同时也表明了人工智能道德伦理的建设不可能是一蹴而就的,将是一个需要从全方面、多角度进行探索的过程。在2018年中共中央政治局的一次就人工智能的集体学习中,习近平指出“要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。”[2]因此,从“风险社会”理论的视角出发,结合现代技术风险的特点,对人工智能道德风险的成因、表现、影响及规避途径进行分析与研究,或许是一次有益的尝试,将有助于完善人工智能风险管理体制,促进该技术稳健发展。

1 人工智能道德风险的内涵与表现

人工智能道德风险可以理解为人工智能技术带来伦理结果的不确定性,具体有两方面表现,一是技术设计阶段所产生的道德风险,主要有道德算法风险和道德决策风险;二是技术应用阶段所产生的道德风险,主要有人类主体地位被削弱的风险、数据隐私泄露风险、道德标准固化的风险和感染道德型计算机病毒的风险等。

1.1 技术设计阶段产生的道德风险

首先是人工智能道德算法风险。人工智能和神经科学伦理学专家温德尔·瓦拉赫(Wendell Wallach)和认知科学家科林·艾伦(Colin Allen)在他们合著的《道德机器:如何让机器人明辨是非》书中提出来的三大进路,即自上而下式进路、自下而上式进路和混合式进路是关于人工智能的道德算法的设计中最典型的方法。自上而下式进路是为人工智能设定道德普遍原则,根据普遍原则的不同,又可以分为功利主义和道义论两种。功利主义秉承的原则是“最大数量的人的最大幸福”。英国哲学家杰里米·边沁(Jeremy Benthanm)提出的“道德算术”和计算机科学家詹姆斯·吉普斯(James Gips)提出的效果论机器人的四能力是对功利主义思想的发展。道义论认为道德的核心是责任,康德的绝对律令和黄金法则及阿西莫夫三定律可以作为其代表。自下而上式进路是将进化和发展的观点融入人工智能的道德设计中去。阿兰·图灵(Alan Turing)提出的“模仿孩子的思维”以及由约翰·霍兰德(John Holland)的遗传算法启发而产生的人工生命的观点都可以视为自下而上式进路的例子。复杂的系统设计中,工程师和技术专家们倾向于采用混合式进路,即同时使用自上而下式进路与自下而上式进路进行人工智能道德功能建构。因此,要完成人工智能道德算法的设计工作就要完成两个重要的任务,必须要从两个方面进行研究,一是筛选出自上而下式进路需要的道德总标准;二是建立一个自下而上式进路需要的道德能力的学习模型。第一种方法在道德总标准的制定方面,哲学、伦理学及心理学等学者一直以来对康德的绝对律令、黄金法则和阿西莫夫三大定律等诸多道德准则的普适性的争论,让我们认识到,目前任何一个道德准则都有其局限性,将这些道德准则设计到人工智能中,面临复杂社会道德伦理问题时,将产生不可预知的伦理结果。即使我们确定了较完善的道德总标准,将这些道德标准转化为程序时也不能做到完全精准,出现转化不对称的风险。第二种方法中自下而上式进路侧重以实际环境为背景的道德能力学习模型,要从实验室走进现实社会环境,这其中的巨大的环境因素的差距是不能忽视的。一个小的错误的道德标准的学习,可能产生严重影响社会的结果。

其次是人工智能道德决策风险。可以分为两个方面,一是道德决策设定方面,二是人工智能体参与实践方面。在道德决策设定方面,一方面需要由政府、企业和技术专家等相关利益主体进行风险评估。在此过程中,由于技术本身的不确定性,人们很难做出准确的风险评估,因此,在风险评估的基础上做出来的道德决策便具有一定的风险性;另一方面人工智能是面向社会公众的,其产生的道德风险也是面向社会和公众的。仅有政府、企业和技术专家所作出来的道德决策不仅在某种程度上是对社会公众决策权的剥夺,呈现一定的不公正性,而且很可能会出于自身利益团体的考虑而导致损害到社会公众的利益。在人工智能体参与实践方面,人工智能体参与到实践活动中去产生的道德决策风险最为著名的就是“自动驾驶汽车的伦理困境”。自动驾驶仪在面临伦理困境时,“学术界已经提出两种相互竞争的解决方案:强制的伦理设定和个人的伦理设定。”[3]但无论是“强制的伦理设定”还是“个人的伦理设定”其背后的算法设定无外乎两种,即功利主义算法和道义论算法。道义论算法被质疑会引起社会的不公平,功利主义算法因其秉承社会效益最大化的原则而更具合理性。但是功利主义虽然确保了事故中大多数人的利益,但却损害了相对应的少数人的利益,剥夺了事故中少数人的安全正当性。因此无论哪种道德决策,都会产生一定的道德风险。也许随着技术的发展,人工智能可以做出比人类更好的道德决策,但至少目前这种道德决策风险是现实存在的。

1.2 技术应用阶段产生的道德风险

首先是人类主体地位受到挑战的风险。人工智能作为一项技术应该为人类谋求福祉,而不应该阻碍人类发展甚至威胁人类命运。但是随着人工智能道德维度自主性的不断提高,它在社会关系中扮演了越来越重要的角色,这在一定程度上削弱了人的道德主体的地位。例如目前的支持决策工具(DSTs)就被社会学家巴蒂雅·弗里德曼(Batya Fridman)和皮特·卡恩(Peter Kahn)认为“可能导向一个人类决策者放弃道德责任的滑坡谬误。”[4]33人工智能技术越完善,人们对其信赖及依赖程度越高,完全自主的决策系统也越可能到来。当自主决策系统到来时,直接参与道德行为产生的结果是否符合人类的预期并为人类所掌控将不得而知。

其次是数据信息泄露的风险。大数据是人工智能的一个重要支撑,一是在进行人工智能道德算法时需要收集大量数据信息,二是在使用过程中会预先存储或者在现实环境的运行中存储数据信息作为经验案例。这些数据信息的来源和存储都涉及人们的个体隐私,但公众对这些数据信息的私密性重视程度不够使得许多隐私数据信息的获取十分容易。而且在数据隐私安全性方面也存在隐患,例如目前投入市场的家用机器人,其在投入使用时需要存储家庭中的数据信息,一旦出现黑客入侵问题,就面临隐私泄露的风险。

再次是道德标准固化的风险。人工智能道德标准固化可以分为两个方面,一是其内置的道德标准的固化,二是社会道德标准的固化。人工智能内置的道德标准的固化表现在,具有社会性质的道德伦理原则和准则在不同地域和不同的历史条件下往往具有很大差异,而且道德建构时的数据收集往往是抽样的、有限的,随着时间的推移和社会伦理规则的不断融合与演化,人工智能道德系统部分不能因时因地的更新,在面对最新的道德伦理问题时,不可避免地将产生错误的行为结果,带来负道德效应。而社会道德标准的固化,对人工智能的发展是不利的,新技术需要新的伦理标准来推动,目前的人工智能伦理准则不能很好规约该技术的发展和应用中的问题,导致出现诸多问题。

最后还有由于技术失控而产生的道德风险。目前越来越多的人工智能产品投入市场,应用于人们的日常生活和工业生产等方面,但其技术安全性目前尚不完全成熟,有可能会产生失误和伤害。自动驾驶汽车的技术差错在实际环境中便是关系到个体生命安全的重大问题,美国军用机器人在伊拉克战场上射杀的无辜平民的真实案例也已经发生。家用机器人、服务型机器人等智能服务系统如果感染病毒,对人身的直接伤害也是显而易见的。在这些案例中,如果内置的道德准则被推翻,那么,人工智能很可能会违背阿西莫夫三大定律的第一条“不伤害人”的原则,对社会道德伦理产生恶劣的影响。

2 人工智能道德风险的成因分析

人工智能道德风险的成因可以从三个方面分析:一是主体层面,主要是相关主体如技术专家、 企业、政府和公众等由于自身的特点产生的。二是技术层面,主要有技术本身创新发展中的不可控性和人工智能道德伦理的系统建构在技术方面还有待提高。三是社会层面,主要有政治、经济、文化等因素的影响。

2.1 主体成因

工程师和科学家是人工智能道德风险的直接制造者,韦德与布劳德认为科学研究活动中技术实践者的诚信缺失是造成科技道德风险的成因之一。人工智能的实际编码工作是由工程师来书写的,在此过程中工程师的个人道德素养和社会道德价值取向便体现在了转化代码中,以一种隐性的方式渗入道德程序中,最终出现在人工智能的道德伦理行为中,产生了一定程度上人工智能技术中的个人道德偏见。传统伦理学认为只有人类才是目的,才可以成为道德能动者。20世纪出现的非人类中心主义将道德对象从人类扩大到了一切生物,而人工智能道德功能的建构无疑就是非人类中心主义思想的体现。随着人工智能道德自主性的不断提高,其去人类道德中心主义也越来越明显。

政府和企业也应该积极承担起应对人工智能道德风险的责任。随着技术的发展,其受政治的干预日益增强。人工智能技术全球化特点显著,其道德风险理应得到高度重视。各国政府基于本国国民的经济效益考虑,在面对复杂的国际环境时,都想把控人工智能发展方向,拥有全球主导权。这势必会造成人工智能技术国际合作紧张化,不能够形成很好的全球调控作用,以至于留下空隙让人工智能对全人类的道德伦理发起了挑战。而企业则以盈利为目的,合理的生产及销售获得合理的经济效益也是正常的,但是目前人工智能作为不断创新发展中的现代技术,其技术稳定性还不能完全保证,高风险也没有充分得到评估。风险社会学家乌尔里希·贝克(Ulrich Beck)[5]认为企业通常会优先考虑自身经济利益,其次才考虑社会公众的利益,甚至会有意引导公众对技术风险的忽视。此外,政府和企业对人工智能技术的科普力度不够,致使公众对该技术没有达到一定的认知水平。比如对自我隐私不够重视、被有目的的信息宣传所蒙蔽以至于对人工智能道德风险的认知不准确、主观臆造人工智能对人类带来的风险等,都会对人工智能的道德伦理建设产生消极的影响。

2.2 技术成因

技术创新是一个发展的过程,各种新知识更新的速度和频率是不可控的,其中的道德因素的不可控性尤为显著。法国技术哲学家贝尔纳·斯蒂格勒(Bernard stigler)[6]认为不确定性体现了一切技术物的本质。人工智能技术作为不断创新发展的现代技术,无论是在技术阶段还是运行阶段都有诸多不确定性。尤其是人工智能道德功能的建构,其本质上是为了应对人工智能的风险问题产生的,但其自身也存在着相应的风险,这就意味着我们在使用有风险的技术来控制技术风险,从而很可能产生巨大的有损社会道德伦理准则的风险。其次人工智能道德伦理的系统建构在技术方面还有待提高。自上而下式的道德设计进路的缺点是产生人工智能道德标准固化风险的原因之一。人工智能在应用到社会关系时,其本身的以自上而下式进路内置的道德准则是固定的,社会却是不断发展与更迭的,道德伦理标准也在不断演变与更新。人工智能中固定的道德标准不能够完全应对时时更新的伦理问题,这构成了道德标准固化风险的技术成因。自下而上式进路需要在数据环境中学习,这个学习过程中许多不可控因素是产生道德风险的另一原因。此外由于技术发展中不可避免的异化现象推动着人工智能道德自主性不断提高,使得人工智能开始直接参与道德行为,导致人类丧失部分的道德责任的主动权,产生人类的责任主体地位受到挑战的风险。

2.3 社会成因

首先在政治方面,政治对人工智能技术发展的过多干预是产生巨大道德风险的成因之一。目前有关人工智能国际伦理规则的制定,大多来自拥有尖端技术的西方发达国家。而发达国家与发展中国家的技术价值观和道德制定标准是有差异的,这也会造成某种程度上的人工智能道德风险。如在军事方面,20世纪80年代的美苏军备竞赛中曾引入搭载核武器的船舰,这些舰船取消了十分钟屏障,由计算机进行数据分析和自动执行运算结果。在关乎生命死亡的重大事项上,人类反而失去了决策权。2007年美国陆军又资助计算机专家罗纳德·阿金(Ronald Arkin)[4]16研发军用机器人所要遵守的战争伦理准则的软件。很明显,无论这些软件中的伦理准则是什么,基于军用机器人的作战特性,它们都将违背阿西莫夫第一定律,即“不能伤害或杀害人类”。这种为实现政治霸权而致力于杀人军用机器人的研究,对人类生命将造成极大的威胁。

其次在经济方面,一味追求技术的经济效益而忽视人类福祉和代际发展是产生人工智能道德风险的又一成因。在人们关注人工智能技术带来的巨大的经济效益时,却在一定程度上忽视了其产生的道德风险。人工智能不仅威胁到人的主体地位而且还关乎到人类未来命运。传统的道德伦理规范已经不能满足人工智能在当今社会关系中的需要,而新的伦理规范没有及时跟进,直接影响了对人工智能道德功能建构各个阶段的把控力度,这在某种程度上损害了社会公众的利益和生态效益。

最后在文化方面,技术价值观人文信仰等因素也对人工智能道德风险的产生有一定的影响。如技术乐观主义倾向于继续提高人工智能道德的自主性,来实现人工智能自我道德约束;而技术悲观主义者则对此持消极态度,认为人工智能道德自主性的提高会对人类的主体地位产生不利影响,因此抵触人工智能道德自主性的发展。

3 人工智能道德风险的防范与治理

在人工智能道德风险成因的基础上,人工智能道德风险的规避途径的探寻也可从主体层面、技术层面和社会层面三个方面展开。

3.1 主体层面

人工智能道德风险具有不同于传统工业社会的现代技术风险的特点,即人为性、责任侧重定位到个体或团体的特性,因此所涉及的主体的道德建设便显示出了其独特的时代意义。人工智能道德风险所涉及的主体主要有技术专家、企业、政府及公众等,另外随着人工智能自身智能特性的不断提高,人工智能体作为道德接受者或者发出者的情况也逐渐进入人们的视野,因此人工智能体作为道德风险主体的情况也应该充分考虑。

引导人工智能技术专家正确的技术价值观和呼吁企业的社会责任担当对应对人工智能道德风险而言具有重要意义。技术专家是人工智能道德风险最直接的制造者,其自身要树立正确的技术价值观,重视职业道德素养,具有人道主义精神,不能为利益所裹挟而忽视了人工智能道德风险对人类及人类未来而言的重大意义。同时也要为技术专家营造良好的职业发展空间,从制度上保证技术专家的独立性。此外,还要有明确的激励机制,提高人工智能道德风险的成本,加强技术专家的个体责任感和集体责任感。企业对人工智能道德风险也应该承担相应的社会责任。人工智能道德自主性越来越高,人工智能产品参与社会关系的比重也越来越大,这就要求企业要确保投入市场的人工智能道德责任主体明确,指向清晰,不能只为企业私利而将目前道德责任主体模糊的人工智能产品大量投入市场,要为企业的长远发展和社会公众利益考虑,体现出一个值得信赖的企业的责任与担当。

政府的有效监管是规避人工智能道德风险的重要环节。政府要加强对技术发展方向和企业人工智能产品运行情况的监管,人工智能产品在社会关系中产生的事故责任要明确,处理事故问题要快速有决断力,让社会公众在人工智能技术发展中真正受益。加快跟进人工智能道德伦理标准的制定,在涉及人工智能与社会道德伦理关系时,一定要确保人的完全的监督能力,不能让人工智能威胁到人的道德主体地位。开展人工智能道德风险的科普工作,提高公众的道德风险意识,树立公众正确的技术价值观,不盲从轻信和主观臆断技术风险,让人工智能在安全的基础上发挥其最大的社会效益,真正推动技术稳健发展。

此外,应加强人工智能的产出控制。随着人工智能道德自主性的不断提高,其作为道德主体而产生相应的道德风险的情况也有可能出现。要严格控制其生产质量和投放市场的数量,加强售后观察,保证人工智能系统在特定范围内运行,保证人类的绝对监督权和管理权。

3.2 技术层面

从技术外部看,实现技术民主化是应对人工智能道德风险的一个重要举措。人工智能道德风险涉及的不仅仅是计算机专业的问题,由于其复杂性,需要更多的领域参与技术设计和决策中来。首先,从人工智能技术专家的组成来看,有必要让哲学家、心理学家、伦理学家等相关学科的学者参与进来,并且将政府、企业、公众的建议纳入参考范围。其次,要确保技术透明性和安全性,尤其是人工智能的数据信息的隐私保护,正如欧盟委员会制定的人工智能七大原则中指出“人工智能系统收集的个人数据应该是安全的、私有的。它不应该让任何人接触,也不应该轻易被盗”[7]。

从技术内部看,提高人工智能道德设计的安全性是一个重要的措施。瓦拉赫与艾伦提出了人工道德智能体(Artificial Moral Agents)的概念,从自主性和对价值的敏感性这两个维度出发进行设计。人工智能奇点研究所的创始人之一的埃利泽·尤德科夫斯基(Eliezer yudkovsky)提出并发展了友善人工智能的概念。此外,约翰·福克斯(John Fox)提出的“危险动态管理”理论对人工智能道德设计也有重要的参考意义。他提出在医疗领域的人工智能系统中将“静态软件设计”与“验证和危险的动态管理”结合,将能够识别潜在危险的智能系统看作独立的行为主体,与主系统同时运行[1]。同样,在人工智能道德设计的自下而上式进路中设置一个识别与管理潜在危险的独立智能系统,对有悖于内置伦理规则的错误学习有很好的规避作用。

3.3 社会层面

在政治方面,应加强国际政治合作,充分发挥对人工智能技术政治上的正向干预。现代技术越来越多地受到政府干预,而且这种政治干预全球化趋势明显。贝克认为我们已经处在了一个世界风险的社会,“现代化风险具有一种内在固有的全球化趋势”[8]。人工智能道德风险即是如此,它是全人类要面对的风险,尤其是人工智能道德自主性的不断提高所带来的代际风险,更是对人类未来带来巨大威胁。因此,应该将该风险防控上升到全球政治高度,加强国际合作,建立“全球治理”机制,运用世界“力量”来应对。此外,道德伦理准则应随着社会的发展而发展。在当今世界逐渐全球化的趋势下,应该致力于创建新的全球伦理,积极研究与制定全球人工智能伦理原则,以国际人工智能伦理标准为原则,因时因地制宜才能更好地应对人工智能道德风险。

在经济方面,要将保证全人类的利益作为技术发展的第一原则。人工智能道德风险关乎人类未来的发展,必须审慎对待,做好规避工作,确保人工智能技术最终目的是造福人类,而不是妨害人类自身主体发展。企业也不能一味只考虑经济效益,正如汉斯·伦克(Hans runk)在其所主张的“责任伦理”中强调,要避免“有组织的不负责任”。企业应该重视内部道德标准的提高,进行及时有效的技术风险评估和自我监督,自觉全面做好人工智能道德风险的应对工作。

最后还要考虑到文化因素的作用。作为现代技术的人工智能技术的道德风险具有显著的人为性,对此应该重视加强人工智能界专业人员的道德教育,将哲学、心理学和伦理学等学科吸纳进来,加快技术人员对人工智能道德风险全面准确的认知与把控。从人类命运共同体的角度出发,加强国际文化交流,在民族文化差异、宗教信仰不同的基础上探讨和建构一个多层次多角度的人工智能道德风险的应对系统。

人工智能道德风险的研究是人工智能技术创新发展的重要环节。以“风险社会”理论为基础,探讨人工智能道德风险的成因与表现,响应人工智能道德伦理建构的发展趋势,有助于完善人工智能道德伦理建构体系,确保人工智能创新发展的安全、可控、稳健。

猜你喜欢

道德风险伦理道德
《心之死》的趣味与伦理焦虑
灵长类生物医学前沿探索中的伦理思考
头上的星空与心中的道德律
护生眼中的伦理修养
跟踪导练(五)(2)
道德是否必需?——《海狼》对道德虚无主义的思考
伦理批评与文学伦理学
中国僵尸企业现象的经济学分析
股票市场对上市公司道德风险的反应研究
我国医疗保险中的医疗道德风险问题研究