APP下载

人工智能引发的治理挑战及其应对

2020-03-02江,孙坤,李

岭南学刊 2020年6期
关键词:伦理人工智能算法

詹 江,孙 坤,李 凡

(1.广东财经大学 金融学院,广东 广州 510320; 2.广东财经大学 华商学院,广东 广州 511300; 3.深圳大学 中国特区经济研究中心,广东 深圳 518060)

一、引言

在当前技术革新日益加快的时代背景下,AI人工智能、大数据、云计算等新兴大数据技术的迅猛发展,成为了新一轮人工智能科技产业革命和产业结构性变革的重要技术驱动力量,人工智能已经渗入社会经济生活的各个方面,并且为未来经济增长提供持续发展的动力。

目前各级地方政府都加大对人工智能创新应用的重视,并结合自身优势和要素禀赋着力进行战略部署,分别有19个省份和16个市公布了人工智能产业发展规划,其中以北上广深为代表的一线城市具备良好的先发优势,尤其是深圳和上海已经成为首批人工智能产业的先导地区。

根据埃森哲对全球经济的预测研究,到2035年,人工智能产业的发展将有效提振全球经济下滑趋势,有效应用人工智能的发展,中国经济增长率有望上升至7.9%,增长额高达7.1万亿美元。此外根据麦肯锡的预测,人工智能产业将每年为中国经济增长贡献0.8至1.4个百分点。尤其此次疫情加速了人工智能技术为代表的数字经济的发展。人工智能产业的发展将迎来重要机遇期。

西方发达国家普遍已将人工智能的研发提高到未来战略的高度,对于人工智能技术应用于人类经济社会作出了大量前瞻性研究。但人类利用AI技术的同时,也会带来一系列风险,其中有对人类道德认知、常识性伦理判断等的挑战,例如自动驾驶系统的安全性、达芬奇手术机器人事故、伪造视频deepfake技术的滥用等。人工智能作为一种广泛影响人类经济生活的重要科学技术,应该采取何种政策加以规范和引导日益成为重要问题。随着新一代人工智能算法和产品的快速开发和部署,人工智能在日常生活中扮演着越来越重要的角色,并对现代人类社会生活产生重大影响,加上其本身还在不断的动态发展之中,具有很大的不确定性,因此人工智能治理便显得日益重要。

二、 人工智能引发的挑战——风险与治理困境

人工智能技术的迅猛发展,使得目前针对人工智能的治理模式匹配不上新内容、新业态的不断发展,治理失效引发的一系列挑战没有有效解决,如用户隐私的泄露、算法的偏见与歧视,技术伪造等各类风险事件频繁发生,同时技术扩散难控制、责任主体不明、应用边界模糊等治理困境值得关注与加强研究。[1]

(一)人工智能技术引发的风险

1.数据隐私

大数据是推动人工智能的产生和持续发展的必要技术前提。人工智能算法在开发过程中,需要大量数据作为深度学习的数据测试。目前,人工智能企业的数据采集主要包括现场无差别采集、直接在线采集、网上公开数据源和商务采购等方式。在现场无差别采集时,由于无法提前预知采集的用户,难以获得用户的充分授权同意。而在直接在线采集时,由于人工智能系统通常由训练好的模型部署而成,对用户数据需要进行分析,因此很难保障用户的修改、撤回等权益。在网上公开数据源和商务采购时,由于目前数据共享、交易和流通的市场化机制不健全,存在一部分企业通过灰色渠道获得用户数据的现象,特别是在微软、IBM,Facebook和谷歌等公司与各大高校的研究合作中,大量用户仅授权用于学术研究的个人照片被作为算法数据来源并用于商业领域,而这些数据缺乏用户知情同意,因此引发了国外社会对隐私安全的广泛担忧。

2.算法歧视

算法歧视这一概念目前并未有明确的学术定义,一般认为指的是应用程序背后的人工智能算法有意或无意侵犯他人的权利或造成广泛歧视的社会影响。在商业领域主要体现为通过算法进行用户画像,并预测消费者的偏好模式进行差别定价,从而实现其商业利润。诸如阿里巴巴、腾讯、亚马逊等互联网的大平台企业也面临类似的潜在风险。这些互联网技术企业在其使用人工智能技术过程中通过不断获取用户隐私数据,并利用大数据、云计算、深度学习算法等技术进行数据分析,使之发展成为自身重要的数据资源和市场竞争优势[2],由于并未有严格的数据保护措施,其中包含了潜在的数据滥用风险,如亚马逊利用大数据技术的“杀熟”行为,本质上是一种价格歧视行为,构成了对消费者知情权的侵犯,甚至在某些场景下构成消费欺诈。一些掌握大量数据信息的企业利用数据分析用户信息,同样的服务和产品,对消费者进行差异定价,对老用户设置的价格高,搭售不必要的服务。此外,算法模型在实际运行过程中存在偏见和歧视的现象也多有发生,造成了较大的社会负面影响。如google图片的算法标注曾出现大量误判,造成对有色人种的种族歧视。微软人工智能语音聊天系统Tay也因包含大量种族主义歧视言论而上线仅一天就被迫下架。在某些特定情境下,算法歧视的危害在于它不仅会侵害公民的权利、自由,甚至会影响生命安全。面对来自社会各界的强烈批评与信任危机,越来越多的国际机构、政府、企业、社会组织等加入到治理的参与者行列,以共同解决算法带来的技术歧视等不良后果。[3]

3.技术伪造

深度伪造(Deepfakes)技术是近两年发展的一种基于深度学习的人物图像合成技术。随着更先进的算法技术的不断发展应用,视频、音频数据的内容伪造门槛逐渐降低,其甚至达到了伪造内容难以鉴别的程度。例如换脸(faceswap)技术,模拟真人声音、创造出非真实影像资料等等。这些具备极高欺骗性的深度伪造的技术应用也引发了诸多争议。

上述人工智能技术发展所带来的风险的根源在于“算法黑箱效应”。而这些会对用户产生重要影响的信息对于算法或代码开发背后的生产商往往容易获取。掌握信息数据的主体,在法律缺失、监管不力情形下,具有过度追求商业利益的倾向。这正是具有人工智能技术背景的企业凭借算法侵蚀用户利益的重要原因。

(二)人工智能技术发展困境的根源

人工智能技术的变革对人类社会秩序的挑战具有颠覆性,并且其深远影响还将持续下去,人工智能既有提高人类社会生产力发展的重大优势,同时也给人类社会带来前所未有的挑战。而人工智能技术发展困境的根源,是由于人工智能技术本身的固有性质所决定的。

1.技术扩散造成传播广泛不易控制

由于技术应用具有全球流动性,技术引致的风险也随之具有全球扩散效应,并对社会治理带来冲击挑战。目前与人工智能技术发展相关的法律仍然是一个技术盲区。由于人工智能技术更新发展的局限和不可预知性,监管部门很难在事前明确提出合适的技术监管和治理规则,事后的监管基本上也很难完全追随人工智能上一代技术更新的发展步伐,基本上很难得到有效实施。同时,人工智能的系统设计者在根本上赋予了人工智能的系统使用者自主进行深度学习的能力之后,人工智能自身的技术自主性和社会主体性使得目前对于人类和社会的技术监管和治理体系存在天然的缺陷,人类社会无法准确预测人工智能系统在人类社会现实和生活中的具体行动和轨迹,无法明确人工智能监管的对象和人工智能监管的范围。另外,人工智能监管技术涉及的业务范围广泛,应用的方式和形态也演进迅速,当人工智能越来越深入地嵌入到了人类的工作和日常生活中时,分布式、低成本、低门槛的新技术和人工智能的研发模式将导致人工智能监管方式和对象的高度粒子化,监管将在社会逐渐失去其效力。因此,目前的人工智能监管技术方法难以在下一代人工智能的技术发展中起到可以预期的作用和效果。

2.风险责任主体众多界定困难

从人工智能法律和道德层面考虑,当人工智能的载体如机器人是不是能够成为人格意义上的道德行为载体乃至法律意义上的民事主体地位,目前各界仍有争议。但有观点认为目前人工智能技术发展仍处于弱智能阶段,不具备独立思考的能力,因此无法对自己的道德和行为恰当地承担责任,对人工智能的法律责任的规范应主要以开发厂商和应用平台为主。当人工智能系统提供者出现了故障未能及时起到相关技术服务提供者所事先承诺的安全性能保障要求而出现故障导致的问题产生的,由人工智能系统的提供者承担责任。当人工智能发展到强智能阶段,主要特征是达到人工智能的自主决策程度,即根据大量的自主判断学习,人工智能提供者掌握了如何进行自主判断的人工智能标准,并根据人工智能标准的判断进行自主的选择时,应主要考虑人工智能系统自身所产生的法律后果和影响。例如美国麻省理工学院所研究和开发的“道德机器”就是提出了一个基于无人驾驶的商业伦理风险困境:如果人工智能的学习通过大量的数据在线学习和数据采样技术得到了机器人学习的最佳结果,这种情况就相当于一个机器人的学习得到了一个大多数的公众可以投票的结果,以大多数公众的看法和意见可以作为人工智能判断其好坏的依据和标准,并且以此作为其行动的重要依据。如何解决责任的划分问题因而变得尤其重要。同时风险和责任的明确就会因此变得相当复杂。目前来看,企业的风险责任承诺和商业保险责任承诺是一种对人工智能相关产品的风险责任明确的方法,但是未来,需要更加合理的风险责任主体承诺体系。因此通过明确各方主体责任这一路径将是人工智能的治理重点。

3.人工智能应用边界模糊不可预知

虽然当前世界各国都不同程度地提出了对人工智能发展的引导规范,但人工智能治理体系尚未达成全球共识和一致性框架。快速迭代的人工智能技术的一个弊端在于具有不确定的潜在风险,难以提前预估,使得人工智能自身所具有的“不可预测性和潜在的不可逆性本身就是一种实际的伦理风险”。在伦理和人工智能的未来发展问题上,大多数从事伦理技术研究的学者与人工智能技术研究专家的观点和意见都存在较大的分歧,伦理学研究专家普遍认为对于人工智能技术研究要抱有审慎的原则,而人工智能技术研究专家则更大程度地看重人工智能技术所带来的工作效率的改进。目前,对于先进的人工智能深度学习技术的研究相对缺乏,深度机器学习的能力和信息聚合识别能力尚普遍缺少适用的技术上的识别方法,特别是在人工智能深度机器学习的方法逐渐成熟并得到广泛应用时,机器学习的迭代速度识别能力已经远远超过了人工智能预估的迭代速度。此外,人工智能以先进的大数据机器学习技术作为其基础,通过大数据和互联网的手段进行大数据挖掘与信息采集,利用所采集获得的大量非深度结构化、不完全受控的大数据信息系统进行对神经网络的学习,所得到的学习结果往往难以预测,具有高度黑箱化的数据特征。因而在技术自我迭代中,可能出现非工程设计人员的开发意图,其智能化决策的程度与不可控风险成正比[4],不仅多数人无法理解其结果,甚至连开放算法的工程师也极有可能无法洞悉演化算法和迁移学习的“黑箱”,对算法本身做出清晰的解释。

三、人工智能治理应对的可能路径

随着当前我国以数字新基建、数据新要素为特征的新一波数字经济浪潮全面来临,推动全球人工智能发展逐步从“探索期”向“成长期”过渡,在技术和产业上均进入重要的转型阶段,各种相关风险层出不穷。虽然目前世界各国都出台了治理方案和对策。2016年6月,日本AI学会的人工智能伦理研究委员会正式发布了人工智能伦理规范,要求相关研究工作人员严格遵守人工智能伦理指标和草案;2019年5月OCED成员国共同签署《政府间人工智能推荐性原则和建议》,提倡负责任的技术发展态度;2019年6月我国也正式发布《新一代人工智能治理原则——发展负责任的人工智能》,把共担责任作为一条重要原则。但总体而言目前的治理框架仍相对滞后于人工智能技术的发展,在此背景下,深入讨论人工智能治理问题已然成为人工智能全面新发展的重要制约瓶颈和亟需突破的关键挑战。本文试图从平台治理、数据治理、算法治理层面提出具体的治理路径。

(一)平台治理

所谓平台是指人工智能技术的开发主体、组织或企业。随着互联网平台的不断发展扩大,平台治理既是人工智能平台对于自身的一种内部管理,也包括外部相关利益机构为了实现社会公共利益而展开的共同参与。各方主体立足于数字时代人工智能发展的基础上,需要不断进行顶层设计和深入探索。[5]

虽然政府部门已经尝试引入高技术手段对网络平台进行监管,新技术平台企业已经开始介入政府规则制定和政策工具设计之中,但由于平台治理存在大量差异化、碎片化的场景生态模式,在人员、技术和理念等方面仍旧存在很大滞后性,对平台治理研究和实践缺乏足够的关注。

今后,需要对平台治理的以下几个方面进行强化。一是政府部门需要打通“数据孤岛”,平衡数据开放、利用与保护。二是由于责任主体较多,有必要建立动态灵活的风险协同应对机制和利益分享机制,促使各方主体激励相容。三是考虑多层次的综合治理路径。如从企业微观层面的自我约束机制、中观行业层面的自治协同、宏观层面的法律规则和市场机制的选择。总之,强化多层级协同治理方案是较为有效的平台治理路径。

(二)数据治理

随着近年来全社会数据的开放共享不断扩大,隐私保护问题日益突出,对此的监管治理也提出了更高的要求。著名的国际安全咨询机构gartner认为数据安全治理不仅仅单单是一套用数据和工具进行组合的数据产品和技术升级的解决方案,而是从数据决策层发展到数据技术支撑层,从数据管理制度支撑到数据和工具的支撑,自上而下的一条贯穿整个数据治理组织和架构的完整数据治理链条。组织内的各个治理层级之间都需要对于数据安全信息系统治理的基本目标和其宗旨取得共识,确保其采取合理和适当的安全保护措施,以最有效的手段和方式有效保护数据安全信息系统资源。

我们认为,数据治理包含数据技术治理和数据安全治理两个方面。数据技术治理从数据处理技术本身而言,治理范围着重在企业内部,围绕数据来源、处理、应用等方面。而安全层面的数据治理的挑战相对更大,需要综合多种法律、技术途径而实现。从现有情况来看,一些国际组织和机构已公布了关于数据安全的政策标准。[6]例如,早在2018年欧盟的《统一数据保护条例》就已正式生效,规定算法歧视的规制应确立数据无害化原则,确立了完善个人信息保护法律体系,以制定个人信息保护为源头,民法、刑法、行政法等多部门法综合治理手段。2019年5月,《欧盟非个人数据自由流动条例》正式生效,《条例》明确了欧盟成员国政府在非个人数据流动监管领域须遵循的基本原则,即“自由流动、规则透明,公共安全保留”。同样美国第一部为保护个人隐私权而专门立法的《隐私权法》、规范个人信息采集与处理的《个人数据通知和保护法案》《消费者隐私权法案》等,初步形成了以隐私权为治理对象、通过各地立法为主要手段,以行业自律为重要辅助相结合的方式。[7]就我国而言,2020年7月3日,全国人大正式公开《数据安全法(草案)》并征求意见,反映出我国对数据安全的重视已上升到法律层面。各地方政府紧随其后,如深圳市也公布了“深圳特区数据条例”,反映出各地方政府在数据安全治理方面的迅速跟进。但总体而言目前我国数据安全法律体系尚处于加快建设和完善的情况下,同时人工智能数据安全标准更偏落地应用,技术层面先行先试的策略使得监管往往不能面面俱到。这些实际情形也对我国政府人工智能数据安全监管和企业数据安全治理提出了更高的挑战。

(三)算法治理

对于算法治理,首要原则是公开透明,即保障用户的知情权,同时应该以易于公众理解的形式公开,对于获得公共公众信任具有非常大的意义。在具体策略上可以采取技术创新、风险量化、算法审查等多种策略。

一是算法带来的问题可以通过算法技术的改进和创新予以克服。以优良算法代替不良算法的途径破解算法本身带来的问题。如脸书发布的FairnessFlow工具会对涉及性别种族等某种不公平算法做出警告。对于利用人工智能技术生成的伪造信息同样可以利用区块链的技术加以识别破解。我们应该认识到一些问题存在的本身往往是技术创新的重要推力,通过技术对抗,技术创新的方式,逐步优胜劣汰,从而消解一部分因技术带来的难题与挑战。二是可量化、可解释和可学习的风险分析技术对保障人工智能的安全至关重要。[8]借鉴风险分析模型在金融领域的成功应用,如VAR的风险测度模型,同样可以将算法风险特征提供的信息以概率分布进行表示,然后用风险特征的分布估计目标实例的标签概率分布,最后实现风险指标的量化分析。三是加强算法公平、算法透明的审查机制。在数据的应用处理过程中,对于算法所涉及的各方主体还应设立合理的问责制,完善事后救济与责任承担制度。[7]

四、优化人工智能治理体系的实践对策

(一)加强人工智能法治生态,构建人工智能法治体系

一是努力建设人工智能法治生态。人工智能技术作为近年来的新兴技术,随之引致的风险日益增加,对人工智能的治理成为了一个非常突出的问题。应尽快将人工智能治理纳入法治轨道,探索相关的法治原则、标准和体系等法治生态的建设。运用法治思维和风险意识,提前应对可能风险、规划治理方案和构建治理体系。人工智能发展发达地区应积极总结成功经验,探索是否具备可复制、可操作的借鉴模式。

二是建立人工智能法治体系。考虑人工智能技术发展对现有治理体系的冲击,提前研判和应对人工智能技术的发展对社会经济、法制伦理的广泛影响,在避免不可控因素和保障人工智能的良性安全发展的前提下释放技术变革的潜能,努力达成人工智能治理体系的共识。影响人工智能法治体系的构建应注重与顶层设计方案的契合,注重人工智能治理的前沿研究与实践应用的并重,侧重于支持对人工智能产业规范的指导。同时由于其跨学科属性,在建设该学科发展中,应探索适合产业发展需求的跨学科人才的培养模式。最后人工智能法制体系还应加强对未来人工智能治理风险与挑战的趋势研判和应对措施。

(二)明确人工智能伦理的基本价值,建构人工智能伦理框架

如前所述,平台治理、算法治理、数据治理说到底在于对使用数据和技术背后的人的治理,数据作为生产要素的关键资源,也应该考虑在使用过程中的信息过滤的功能,通过良好的平台治理途径和相应的监管措施,尽可能地减少人类社会的偏见与歧视导致的算法污染,使其在提升人类生产效率的同时建立起公平、正义与向善的社会伦理规范,为原本中性的技术的利用提供健康的生存环境。因此,要在充分考虑人工智能技术需求和社会需求,同时以人类福祉为目的的前提下,实现人工智能的创新与发展。要从影响伦理风险治理的根本性、现实性问题入手,推进伦理与技术融合共生机制的生成。自2015年以来,国内外存在两个影响较为广泛的人工智能伦理共识:阿西洛马人工智能原则和IEEE组织倡议的人工智能伦理标准。尽管如此,在技术爆炸时代,仍有必要建立新型人工智能伦理治理框架。

首先,建立算法从业人员以及AI行业的伦理规范,从源头遏制与预防人工智能技术风险,从而规制算法设计与技术发展应用遵循人类的伦理与道德。其次是加强在AI的技术创新促进人类福祉和可持续性发展方面凝聚共识。[9]如利用人工智能技术主体的技术评估、社会公众的体验评估,全面提高人工智能技术伦理风险的科学性。最后可以考虑在企业层面筹建人工智能伦理委员会,研究制定伦理标准。规范的依据应当是技术只能作为实现人类福祉的手段。

(三)推进算法向善的技术进步,实现良性向善的算法社会

一是加强对算法技术的源头治理。考虑因果推理技术对于优化算法的重要性,[11]有研究者使用因果推理工具开发了一套严格的模型,结果表明因果模型能够有效捕获社会偏差,该模型使算法能够考虑到对个体产生的不同社会偏见,并有效地补偿这些偏差。二是加强算法科技人员的技术向善的伦理认同。向善性技术进步不仅着眼于技术创新,更加强调人工智能的目的不应违背人类伦理道德的基本方向,在使用过程中不作恶。向善性的要求包括考察人工智能是否以促进人类发展为目的,如和平利用人工智能及相关技术、避免致命性人工智能技术滥用;同时,也要求考察人工智能是否有滥用导致侵犯个人权利、损害社会利益的危险,例如是否用于欺诈客户、造成歧视、侵害弱势群体利益等。三是借助算法革命改善社会经济福利。积极利用新技术促进产业革命,重构新业态、新模式、新产业的发展,积极推动算法技术来推进人类社会福祉的良性实现。

猜你喜欢

伦理人工智能算法
《心之死》的趣味与伦理焦虑
护生眼中的伦理修养
基于MapReduce的改进Eclat算法
Travellng thg World Full—time for Rree
2019:人工智能
进位加法的两种算法
人工智能与就业
数读人工智能
下一幕,人工智能!
一种改进的整周模糊度去相关算法