APP下载

人工智能伦理的起承转合

2020-03-25李华晶

清华管理评论 2020年2期
关键词:伦理人工智能

李华晶

起:人工智能应当性本善

机器伦理并不是新鲜话题,而且从一开始就确定了善的本性。在标志人工智能诞生的1956年达特茅斯会议之前的1942年,美国作家艾萨克·阿西莫夫就在其短篇科幻小说《环舞》中提出了具有伦理属性的机器人三定律:第一,机器人不得伤害人类,或者不能无视受到伤害的人类;第二,在不违背第一定律前提下,机器人必须服从人类命令;第三,在不违背第一与第二定律前提下,机器人有义务自我保护。

这三个定律虽然来自近80年前的科幻作家,却一直伴随并深刻影响着人工智能技术的发展,就像悬在空中的“达摩克利斯之剑”,时刻警示着人们防止人工智能像罂粟花一样美丽绽放之后结出恶果。

1950年,阿兰·图灵发表的论文《计算机器和智能》被视为人工智能的先声。其实,这篇发表在英国哲学杂志《心智》上的论文也是哲学史上的经典之作,不仅展示了人工智能技术的发展方向,同时也提醒了人工智能对人类的可能威胁。标志人工智能缘起的1956年达特茅斯会议成员马文·明斯基,被称为人工智能之父。他在2012年接受他的学生、奇点理论提出者雷·库兹维尔的采访时说,他相信奇点的到来,机器智能超越人脑可能就在我们的有生之年。霍金生前也多次警告“人工智能在并不遥远的未来可能会成为一个真正的危险”。

虽然现在尚无法确定人工智能是好是坏的唯一答案,但可以确定的是人工智能应当性本善。人类要尽全力确保人工智能发展对于人类和环境有益,尤其在人工智能再次爆发的今天,人工智能性本善应当受到关注和重申。《自然》杂志在2019年4月一篇评论文章提出:我们有义务搞懂我们所创造出来的技术,人工智能应当负责任。文章两位作者之一是大脑研究科学家,他认为由于人工智能驱动的机器越来越多参与到社会互动中,理解人工智能行为有助于我们控制它们并从中获得利益,而且将危害降到最低;另一位作者是经济学家,他倡导人工智能研究除了计算机科学还应纳入与社会、经济、文化等密切相关的科学,并特别提到每当一家公司在使用人工智能算法开展活动时,比如改变新闻推送方式或向用户提出添加好友建议时,都存在一个伦理道德的立场。

更为重要的是,人工智能伦理有其复杂性和独特性。历史上围绕创新技术的伦理讨论并不鲜见,比如炸药和克隆技术在推动社会进步的同时也会带来伦理问题。但是,相比较而言,人工智能这把“双刃剑”更加锋利和迅捷,一面是能为人类生活带来颠覆创新的强大“建设性”,另一面却是可能替代甚至摧毁人类的巨大“破坏性”。借用特斯拉CEO埃隆·马斯克的判断,人工智能是人类在不知不觉中创造的“不朽独裁者”。这形象反映出人工智能伦理相较于其他技术伦理的差异:不是针对人与人的关系、人与自然的关系,而是解决人与自己创造出的机器之间的关系。这个类人甚至超人的机器,社会互动性和行为能动性更强,不少人提出要给予人工智能法律主体身份来对其进行规制。

承:人工智能伦理决策难题

从善如流对人类而言并非自然而然,那么,人工智能伦理也容易口惠而实不至。哲学家罗素认为,“在一切道德品质之中,善良的本性在世界上是最需要的”。“最需要”往往意味着“最稀缺”。耶鲁大学心理学教授保罗·布鲁姆在多年实验研究的基础上发现,每个人内心都活着一个苛刻的“道德家”,成为一个好人不容易。同样,如何让具有很强溢出带动性“头雁效应”的人工智能成为好人、做出好事,非常必要但也极具挑战。

一则典型案例是2019年4月的巴黎圣母院大火。谷歌旗下视频服务公司YouTube为了遏制虚假新闻在自己网站上传播,自2018年开始在新闻视频中加入指向维基百科和百科全书条目的链接,这原本是件“好事情”。但是,2019年4月巴黎圣母院大火后,YouTube却在关于大火的一个直播视频下自动关联了9·11恐怖袭击事件链接,这就意味着网友在浏览巴黎圣母院大火直播报道时,会被推荐关注大英百科全书的9·11事件词条。这一关联立即引发了网友强烈不满,甚至被批评为混淆视听和制造阴谋,这可真是件“坏事情”。

如何判断“好事情”与“坏事情”,对人对机器都是件难事情。来看看伦理学领域著名的思想实验之一“电车难题”。这个实验大致内容是:一辆有轨电车正朝五个人驶去,挽救这些生命的唯一方法,就是控制开关让电车驶向另一条轨道,但这样做则会碾压另一条轨道上的一个人。在这种场景下,你会选择打开开关、换一条轨道吗?随着无人驾驶汽车日益普及,特别是一些无人驾驶车祸事故的发生,“电车难题”成为保证无人驾驶安全性甚至人工智能伦理必须要思考的问题。

麻省理工学院参考“电车难题”设计了“用户应该撞向路人还是撞向障碍物(乘客会遇难)”等场景,在2016年启动了一个名为道德机器(The Moral Machine)的在线测试项目,收集整理公众的道德决策数据,并在2018年10月的《自然》杂志发表了他们的研究发现。研究人员对九个不同的因素进行了测试,其中包括用户更倾向撞到男性还是女性,选择拯救多数人还是少数人,牺牲年轻人还是老人,普通行人还是横穿马路的行人,甚至还会在地位低和地位高的人之间做出选择。来自233个国家和地区的数百万用户共计4,000万个道德决策的数据反映出一些较具一致性的全球偏好(global preference):更倾向于拯救人类而不是动物、拯救多数人牺牲少数人、优先拯救儿童。

不过,思想实验的结果落到具体现实中,又有了不一样的表现。虽然上述研究表明,测试者倾向于拯救多数人牺牲少数人,但是,在少数人是自己的孩子、多数人是陌生人的场景下,不少测试者会选择放弃让电车转向(牺牲多数人),而去保护自己的孩子(拯救少数人)。奔驰公司面对这个难题也曾给出正面回应:奔驰的下一代无人驾驶车“会优先保证车上乘客的安全。如果有可能拯救生命,那么一定要先救车上的乘客。”但這样的表态,又引发了新的争论。

因此,当前人工智能伦理决策标准难以统一,甚至也不应该整齐划一。德国联邦交通运输和数字基础设施部门的道德委员会,在2017年联合科学家和法律专家提出了约20条无人驾驶规则。比如:无人驾驶汽车应当首先考虑保护人类的生命,即便这样做会伤害动物或损失财产;如果发生意外是不可避免的,无人驾驶车不能选择去救谁,不应该就年龄、性别、种族、残疾等做出决定,所有人类生命都是平等的。而且,他们承诺要通过某种方式强制执行这些规则。但是,美国交通部在这方面却有着不太一样的态度,比如提出每年发布的指南是自愿性而非强制性,主张针对人工智能这一尚在迅速发展的新生事物,首要行动是消除不必要的障碍,灵活变通和技术中立的政策比规定具体的技术解决方案更能保障并改善安全。

由上可见,人工智能伦理决策不是非黑即白、非此即彼的。那么,谁来掌控这个方向呢?目光聚焦在人身上。还是以德国为例,虽然德国联邦参议院已经通过法律,允许汽车自动驾驶系统未来在特定条件下代替人类驾驶,但明确要求驾驶人必须坐在方向盘后。这就形象说明了,让如电车般飞速疾驶的人工智能做善事,关键还得回归技术背后的人,“电车难题”实质上也是“电车人的难题”,而这些人不只有司机。

转:人工智能伦理多元主体

人工智能伦理主体涉及方方面面,首当其冲的是引领人工智能技术发展的三驾马车——算法、算力和算料背后的人。他们如何不犯错误、驱动人工智能积极向善呢?

算法伦理:脑力向善。人工智能算法的标志是深度学习,与人工神经网络密不可分,是人工智能焕发生命力量的来源。前文YouTube的例子,就是因为算法出了问题,公司已经承认“这些面板是通过算法触发的,有时会犯错。”不过,依赖顶尖科学家来完善道德算法以解决人工智能伦理问题也潜藏巨大风险。纽约大学AI Now研究所2019年4月发布报告警告:人工智能领域教授中的女性和有色人种比例严重不足,白人男性编码人员过多就可能带来潜在的无意识偏见。为此,该研究所建议企业能够发布更多按照种族和性别划分的补偿数据,来规避“多样化危机”。

算力伦理:心力向善。人工智能的算力以芯片为标志,具有专用架构,应用在云端和终端不同场景,是实现算法的载体。比如 AlphaGO需要1920个CPU和280个GPU才能完成计算。算力看上去貌似是不好不坏的稳定中间派,实际上,作为支撑算法的效率加速器,当人工智能伦理方向出了问题,算力水平越高,则带来的危害越大。这就不难理解为什么很多人会把“芯”片解读为“心”片,算法背后的人解决人工智能的大脑问题,算力背后的人需要关注人工智能的心问题。有人用“拔电源”来比喻阻止人工智能做坏事的途径,好比让心脏停止跳动,形象说明了从算力层面解决伦理问题的做法。

算料伦理:动力向善。人工智能的算料就是海量数据,没有数据就没有人工智能发展的土壤。引爆这次人工智能热潮的关键因素之一,是大数据应用发展最后一公里的打通。这些海量数据背后的人就是用户,进一步来说,算料加工存在道德问题的“始作俑者”可能就是提供原材料的用户自身。人工智能依据大数据形成用户画像、了解消费习惯,进而可以进行精准溢价。比如,大数据“杀熟”。很多人在不知情的情况下为人工智能添油加料,然后被这个“最懂我的人”伤得最深。但是,用户愿意或者能够做到不把数据甚至隐私数据“喂给”人工智能吗?

因此,人工智能算法、算力、算料背后的程序员、科学家、工程师和消费者,都是影响人工智能伦理的重要主体,但也难以独当一面。比如科技界的亿万富翁、eBay公司曾经的创始人,在2018年成立了总部位于伦敦的组织Luminate,通过设立基金来让公众更好认识人工智能带来的危害,确保人工智能能够维护公平、人类自治和正义的社会价值观。关于为何进行这项公益事业,Luminate的首席执行官表示:“这是一个新生的领域,我们发现,人工智能是由那些不关心道德后果的程序员开发出来的。”

这样的评价有失偏颇,但也反映出,为人工智能伦理定方向和节奏,需要整合多主体的力量以使众人不跑偏。而拥有并擅长整合之道的,非创业者莫属。

创业是高度平衡的艺术,创业的关键要素(创业者/团队、创业机会、创业资源)与人工智能核心支柱(算法、算力、算料)具有异曲同工之妙。创业者/团队作为创业过程的起点,发挥着主观能动作用,就像算法在人工智能中的大脑地位,推动创业活动不断创新和迭代。机会承接着创业者主体认知与情境特征,表现为一种未被明确的市场需求,发挥着如同“芯片”的载体作用,驱动创业主体通过满足市场需求来减少情境中的知识“能耗”,启发创业者通过创造市场需求来提高情境中的知识“性能”。资源对于创业而言是万万不可或缺的,但资源又不是万能的,这与数据对于人工智能的价值非常相像,反映了各种要素的效用。

人工智能创业者驾驭团队、机会和资源,融汇硬技术与软思想,主导着人工智能伦理方向。在这个过程中,资源是稀缺的,情境是不确定的,风险难以预测,规则尚未完善,竞争压力如影随形。面对上述挑战,创业者也会在追求个人利益与遵循伦理规范之间陷入两难困境。不过,创业者不是在“光明地带”或“黑暗地带”之中做选择,而是通过创新、风险承担和超前行动“绘制地图”。换言之,具有伦理导向的创业行动有助于整合各方力量来创造性解决人工智能伦理难题。

创业领域权威期刊《商业创业杂志》在2009年曾出版了“伦理与创业”专刊,其中围绕技术创新与创业伦理进行了专门讨论。文章提出,技术是价值载体,技术创新特别是“破坏性(disruptive)创新”带来的范式变革,冲击每个人的价值判断,而创业者特别是创业型企业是伦理变革的行动主体,他们往往通过充满想象力的方式来直面“伦理创新(ethically pioneering)”情境带来的问题。甚至可以说,正是伦理困境成为创新创业的源泉,基于技术创新的创业倫理是未来研究值得探寻的“大道”。

合:上善若水的人工智能创业伦理

人文智慧中蕴藏着技术创新问题的解决思路,人工智能创业伦理也不例外。说到从善如流之道,相信许多人都会想起《道德经》第八章“上善若水”。虽然这里的“善”不只意味着善良,但是,老子总结的、近于道的七点水德——居,善地;心,善渊;与,善仁;言,善信;政,善治;事,善能;动,善时——就蕴藏着人工智能创业伦理实践可以参考的门道。

古今中外的结合更能碰撞出思想火花。2019年4月,欧盟发布了《可信赖人工智能的伦理准则》(以下简称欧盟准则),列出了七个关键条件:人的自主性和监督力,技术的稳健性和安全性,隐私和数据治理,透明度(可追溯性),多样性、非歧视性和公平性,社会和环境福祉,可追责性。2019年10月8日,商汤科技等八家人工智能企业被美国列入出口管制“实体清单”。对此,成立于2014年、成为全球最具价值的人工智能创新企业商汤科技回应道:“我们通过制定并实施严格的人工智能技术使用的伦理标准,让人工智能技术能获得正确的应用,以最负责任的态度推动人工智能技术发展”。

为此,不妨把上善若水七点水德、欧盟七条准则与中国人工智能企业的创业伦理行动相结合,在理论与实践、经典与探索以及东西方的交织中提炼相通之处,探寻人工智能创业伦理的行动方向。

居,善地,原意为选择地方。对人工智能创业伦理的启示在于,目标定位应着眼社会价值。欧盟准则“社会和环境福祉”,也是在强调人工智能系统的应用应促进积极的社会变革,增强可持续性和生态责任。例如商汤科技的愿景和使命,瞄准了社会问题的解决:坚持原创,让人工智能引领人类进步;致力于研发创新人工智能技术,为经济、社会和人类发展做出积极的贡献。

心,善渊,原意为心胸深沉。对人工智能创业伦理的启示在于,市场开拓应朝向包容创新。欧盟准则“多样性、非歧视性和公平性”,就意味着人工智能系统应包容性地考虑人的能力、技能和要求的总体范围,确保可接近性。例如中国人工智能创业型企业积极向医疗、健康、养老、教育等BOP(Bottom of Pyramid,金字塔底端)市场拓展,旨在从基础改变世界,满足最广泛用户的需求。

与,善仁,原意为待人友爱。对人工智能创业伦理的启示在于,用户服务应注重友好体验。欧盟准则“技术的稳健性和安全性”也主张人工智能算法应当具有足够的鲁棒性和让人放心,以应对人工智能系统演进周期阶段的错误或偏差。腾讯马化腾提出的人工智能“可知、可控、可用、可靠”,就关注了人工智能如何让更多人共享技术红利和避免技术鸿沟的同时,能够足够快地修复自身漏洞,真正安全、稳定与可靠。

言,善信,原意为恪守信用。对人工智能创业伦理的启示在于,价值实现应坚持诚信为本。欧盟准则“隐私和数据治理”,意味着公民数据应当由自己完全掌控,而且公民相关数据的应用不能伤害或歧视公民。2019年9月,旷视科技研发的视觉人工智能在教育场景中的应用引发关注甚至争议。对此,公司的回应也再次强调了坚持正当性、数据隐私保护等核心原则,积极接受社会的广泛建议和监督。

政,善治,原意为治理有方。对人工智能创业伦理的启示在于,治理体系应加强制度建设。欧盟准则“可追责性”意味着需要构建人工智能系统及其成果负责和问责机制。科技部部长王志刚在2019年3月两会期间表示,相比较快步前行的人工智能技术,法律规范、社会公德、公民习惯、社会治理等方面其实相对滞后,应当尽快跟上。同年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,就在从治理角度为人工智能提供负责任的行动框架和指南。

事,善能,原意为发挥所长。对人工智能创业伦理的启示在于,技术发展应立足创新能力。欧盟准则“人的自主性和监督”意味着人工智能系统应当支持人的能动性和基本权利,而不是减少、限制或误导人的自治性。2019年8月世界人工智能大会上,马云和马斯克曾有一次对话,虽然两人不少观点并不一致,但是他们都强调人工智能与人类之间的交互影响,相信人类认知和能力在未来的提升。

动,善时,原意为把握时机。对人工智能创业伦理的启示在于,永续成长应把握创业机会。欧盟准则“透明度”意味着确保人工智能系统的可追溯性,这也反映了人工智能技术发展的流动性,而与流动性相生相随的动态不确定性,正是孕育创业机会的不竭之源。近期有人提出,人工智能每隔二十年左右便会遭遇一次寒冬,因此新的寒冬马上将至。与此同时,我们则看见更多创业者通过“AI+”或“AI in All”等机会开发路径,开创着如火如荼的人工智能新事业。是寒冬还是暖风?亦冷亦热背后反映出,解决人工智能伦理,不能囿于技术孤岛,而需要跟上技术与产业和社会的融汇大潮,在流动中把握演化节奏,实现人工智能的可持续成长。

尾声:水流向何方

需要反思的是,人工智能与创业伦理的交融亦非一蹴而就。印度科技巨头Infosys公司的一份报告显示,澳大利亚企业在“全球人工智能成熟度”中排名非常靠后,原因不仅在于技能的缺乏,还包括伦理问题的考量,从而影响了澳大利亚采用人工智能技术的水平。报告显示,六成多的澳大利亚企业受访者表示,部署人工智能计划的主要障碍来自伦理问题的考量(而美国的这一比例约为三成);超过七成的受访企业领导者认为,伦理问题的考量使得人工智能技术不能最大程度的发挥作用,这一比例也高于其他任何国家。

这样看来,伦理对于人工智能技术创新和创业发展的积极作用机理,仍需深入挖掘。哈佛大学心理学家史蒂文·平克就曾质疑伦理审查对科学进程的正面意义,他在《波士顿环球报》发表文章提出,过分的伦理监督将干扰创新速度,积极作用不大,因为生命和疾病是一对孪生兄弟。他认为生物领域方面的伦理学规则导致研究被延迟,可能使得许多患者无辜地失去生命,而这些待审查的治疗方法原本可能对他们有积极作用。可见,伦理对技术不是简单的疏堵,不能像控制开关阀门那样简单,而是一个复杂的社会系统工程。

特别是区块链与人工智能结合的最新动态,凸显了人工智能创业伦理问题的重要性和紧迫性。2019年10月,区块链被确定为中国核心技术自主创新重要突破口,将和人工智能、大数据、物联网等前沿信息技术深度融合。当人工智能遇见区块链,有助于将数据资源管理和信息技術应用推向更高的水平,但也会对社会公众认知和思维范式带来更多挑战,从而加剧伦理冲突。

对此,乐观还是悲观?乐观者认为,由于区块链的分布式网络,能够把人工智能等新技术整合在一起,形成新的治理架构,从而提高了“作恶”门槛,在教育、就业、养老、精准脱贫、医疗健康、商品防伪、食品安全、公益、社会救助等民生领域的应用前景广阔。悲观者提出,区块链技术相关联的应用,如发行数字货币和记录资料和隐私等,潜藏风险巨大,君不见发币变成割韭菜、隐私依然难保护。

探寻答案的生力军还是创业者。2019年6月,Facebook正式对外发布一种新的加密数字货币“天秤币(Libra)”,随即,马化腾在微信朋友圈进行了点评:“技术都很成熟,并不难。就看监管是否允许而已。”

但如何让监管的仰止高山与技术创新的大水汤汤,成为造福人类的生态系统?又怎样实现人工智能“利万物而不争,处众人之所恶”的伦理价值?仍有待我们继续观察。如同孔子对子贡的提醒,“君子见大水必观焉”。期待人工智能科学知识充分涌流、技术创新健康发展,从而更好更快地泽被社会、普惠大众。

本文系北京林业大学科研反哺人才培养研究生教学改革项目(编号JXGG19030)、国家自然科学基金项目(编号71972014)的阶段性成果。

猜你喜欢

伦理人工智能
科技伦理
人工智能之父
浅谈我国社会工作伦理风险管理机制的构建
2019:人工智能
人工智能与就业
数读人工智能
亲组织非伦理行为研究
亲组织非伦理行为研究
下一幕,人工智能!
下一幕,人工智能!