APP下载

人工智能技术风险规避探析

2019-02-15闫坤如马少卿

关键词:人工智能人类算法

闫坤如,马少卿

(华南理工大学 马克思主义学院,广东 广州 510640)

人工智能自诞生以来,不断取得新的技术突破,弗洛里迪(Luciano Floridi)把“人工智能革命”称为“第四次革命”[1]。人工智能对人类社会产生了极其重要的影响,从智能导航系统到老年护理系统,从智能生产线到排雷机器人,人工智能从过去的解放了人类的双手到现在甚至解放了人脑,人工智能技术给人类带来便利的同时,也存在一些风险。

一、人工智能技术风险分析

人工智能技术的突飞猛进,使人们产生了技术无所不能的幻象,“这个社会在技术上越来越完善,它甚至能够提供越来越完美的解决办法,但是,与此息息相关的后果和种种危险却是受害人根本无法直觉到的”[2]。人工智能技术风险主要包括数据泄露对个人、企业和国家带来的巨大风险;人工智能可能威胁人的主体性地位,使人沦为机器的奴隶;人工智能生产效率的提高会给社会带来如失业等负面影响。

(一)人工智能引发数据泄露风险

人工智能技术的发展需要大数据(big data)来支持,大数据指的是所涉及的数据规模巨大甚至无法通过传统的数据分析软件和程序对数据进行有针对性的分析、摄取和管理的海量数据,海量数据中包括个人数据、商业数据、政府数据等多种数据,这些数据的泄露将会给个人、商业和政府部门带来巨大的风险。

人工智能技术在大数据的支持下快速发展,由于技术发展速度和水平的不一致,对于数据管理和使用的各个环节都可能存在漏洞。

在数据采集环节,不同的数据采集程序对数据采集的标准和精度各异,会导致不符合标准与精度的数据泄露,如采集收入状况的程序会把负债数据剔除,从而造成负债数据的泄露。目前不少人工智能技术对使用者的信息存在过度采集的情况。如VR技术会对使用者的面部物理特征进行采集,从而造成使用者隐私泄露。

在数据分析环节,不同的算法对相同的数据有着不同分析程序,从而将算法认为不重要的数据内容不予分析甚至剔除,从而造成数据泄露。如2017年美国五角大楼架在亚马逊S3云存储的数据库,由于人工智能程序的错配,使得三台S3型人工智能服务器的数据“可公开下载”,其中包括了约18亿条关于美国主要社交论坛的个人发言记录和登录地址,而一旦这些信息被不法分子滥用,将会给发言者个人、论坛和社会带来巨大风险。

在数据管理环节,数据的使用者对于数据的管理不当或者恶意泄露会造成数据在管理环节的泄露。另一方面,人工智能技术对于数据的使用者权限设置并不完善,无法区分数据的使用性质,从而会造成数据的泄露。

(二)人工智能技术威胁人的主体地位

人工智能技术会在一定程度上挑战人的主体地位,威胁人的自主地位。人工智能技术给人类社会带来巨大变革的同时,也使人类陷入混沌和迷茫,在当今社会背景下,人类全方面服从于技术,人的身心自由受到了挑战,人类在一定程度上沦为人工智能的“奴隶”。马尔库塞(Herbert Marcuse)指出,“因为这种不自由既不表现为不合理的,又不表现为政治性的,而是表现为对扩大舒适生活、提高劳动生产率的技术装置的屈从。”[3]例如动车需要驾驶员每隔30秒踩踏安全踏板一次,否则会强制停车。除此之外,人的主体性地位丧失还表现在由于人工智能能够高效而廉价地完成人类的许多工作,会使人类对自身的劳动价值和意义产生怀疑,如一个人一个月的工作量人工智能技术一个小时就能完成,那么人们会对自身工作的意义和价值产生怀疑。随着人工智能技术在人类情感领域内不断取得新的突破,智能伴侣、虚拟情侣等产品的产生更对人类情感的独特性带来巨大冲击,“技术可以导致人类的劳动价值丧失;个人的孤独封闭和人际间的疏远冷漠等精神方面。人的思维成为无必要的。技术就是一个摒弃人类能力的过程”[4]。更有预言家提出人工智能最终将统治人类,甚至毁灭人类。因此,越先进的人工智能技术,越挑战人类的主体性地位。

(三)人工智能带来新的社会伦理风险

人工智能技术给社会带来伦理风险,对社会的稳定和发展构成冲击,这些问题都引发学者思考[5]。美国路易斯维尔大学网络安全实验室主任亚姆波斯基(Roman Yampolskiy)教授的论文《人工智能与网络安全:人工智能失效时间表》对2016年人工智能发展带来的问题进行梳理[6],包括微软聊天机器人Tay散布种族主义、特斯拉半自动驾驶系统发生车祸,致人死亡。人脸识别存在种族或者人种歧视现象,人工智能可能导致数据鸿沟以及社会公正与社会正义等等各种社会风险。机器学习的应用让阿尔法狗战胜世界围棋冠军棋手,却给人类带来了机器智能超越人类智能的担忧。总体而言,人工智能技术给社会带来的风险主要分布在政治、经济、文化、社会等各个领域。在政治领域,人工智能通过高效的技术优势,可以对选举进行操控和干预;在社会公平领域,拥有人工智能技术的国家和地区会对没有该技术的国家和地区带来数字鸿沟,拉大贫富差距;在经济领域,人工智能技术的使用会造成不正当竞争,干扰或者破坏正常的经济秩序,拉大物质财富差距;在文化领域,人工智能疏远了人与人之间的距离,使人们沉迷于人工智能技术成果,造成上瘾、迷失自我等问题,如互动性电子游戏;在社会领域,人工智能技术的运用会造成大批劳动者的失业,失业者过多会给发放失业补贴的政府财政和社会稳定带来巨大压力;在安全领域,人工智能技术会导致人类伤亡,如军用无人机带来大批平民死亡。除此之外,人工智能技术在商业领域、教育领域、医疗领域和科学研究领域都会带来较大风险。

二、人工智能技术风险原因浅析

(一)人工智能设计者的主观因素导致风险

设计人员自身原因导致风险。不同的设计人员有着不同的成长经历和教育背景,从而形成了每个人相对独立和稳定的价值观,也形成了根深蒂固的偏见和习惯看法,不同的设计人员对于同一件事的观点和看法可能大不相同,所以对于人工智能技术的风险认识会良莠不齐,甚至背道而驰,因此,设计出来的人工智能也会相应缺乏对于风险的准确把控。设计者的设计意图也会导致风险。设计者的设计意图与利益驱使、企业目标等有关,设计者为了自身利益最大化,企业为了盈利最大化,人工智能技术的使用者亦为了自身利益得到保障,忽视其他重要因素带来的如破坏社会公平、污染环境等不良后果,而去追求最高的收益。在各方利益的驱使下,人工智能技术的设计者刻意忽视的社会公平、环境保护等方面的因素会给不使用人工智能技术的人带来巨大风险和挑战。

(二)人工智能技术中的算法引发风险

人工智能的核心运行支持是算法,而算法具有不透明性和运行的自主性,是造成人工智能具有风险的客观原因。由于算法体现出来的所谓的“客观性”,因此算法被认为具有相当的决策权力,“越来越多的权力存在于算法之中,它不仅塑造社会与文化,直接影响与控制个人生活,甚至获得了真理的地位”[7]。算法的不透明性即所谓的“算法黑箱”,也就是算法程序的可解释性困难,算法的可解释性即“展示自己或其它主题做出的决定所依赖的原因”[8],由于算法内部的运行机制缺乏足够的可解释性,所以不难理解为什么会产生各种各样的“算法歧视”,比如黑人总会优先和犯罪分子建立联系,而白人则总是最后才和犯罪分子挂钩,欧米内(Omer Tene)和波洛尼斯基(Jules Polonetsky)所说的:“即使使用不敏感的数据,预测分析也可能对个人和社会产生令人窒息的影响,从而延续旧的偏见。”[8]算法的不透明性则直接挑战了人类的知情权和主体地位。荷兰学者泰勒(Linnet Taylor)指出,“算法分组的目的大多不是访问或识别个人,而是识别一个群体的偏好或特征,从而进行有效地干预。在此过程中包括算法设计者在内的每个人都可能不知道个体数据是否正在被误用或滥用,而现有的数据保护也并没有涉及到集体隐私保护问题。”[10]而另一方面,当缺乏可解释性的算法一旦运行起来,那么这种智能程序将获得相当程度的自主性,意味着在一定时间和范围内可以根据既定算法自主决策。如依靠人脸识别系统自主识别犯罪在逃人员,当一个和在逃人员长相相似的人出现的时候,算法既不透明,又自主运行,很可能将这个人认定为逃犯,从而给这个人带来困扰和麻烦。算法的不透明性和自主性是人工智能技术存在和发展难以逾越的技术阻碍。

(三)人工智能技术的设计目的与结果脱离产生风险

“设计者作为专业知识的掌握者和技术的应用者,他们处于技术活动的‘第一线’,是技术人工物创造的首席执行者。”[11]人工智能技术设计的初衷与实际的运用结果可能大相径庭,正如同贝尔发明电话的初衷是解决听力障碍者的听力困境而并非是作为通讯设备一样,人工智能技术也面临这种情况。人工智能技术的设计师按照自己的意愿和理念设计出来的人工智能技术人工物与技术人工物的实际使用情况并不能够完全符合设计者预期,甚至能够产生完全相反的效果,“科学家们应该认识到机器人或是其他高技术人造物,能够对社会的发展造成影响,这个影响可能与技术设计的初衷相违背”[12]。人工智能技术的发展初衷是提高人类的生活水平和生活质量,但是现实情况却是更多的人成为人工智能技术的奴隶,无时无刻为技术所支配,从而客观上降低了实际的生活水平和生活质量,更有甚者不堪压力选择辞职甚至自杀,这些现实结果毫无疑问与人工智能技术的设计初衷完全背道而驰。人工智能的设计离不开设计者的努力,所设计出来的人工智能凝聚着设计团队的心血和智慧,但是并不是所有的设计者都是“完人”,由于设计者或者设计团队的偏见、错误的认知、思考的局限性等人为因素的影响以及编制算法存在缺陷等技术漏洞,所设计出来的人工智能也会存在一定程度的缺陷。

人工智能技术之所以存在风险,与设计者的主观局限性、程序算法的不透明性及自主性、人工智能技术的目的与结果不一致性密切相关。人工智能技术所面对的诸多风险和挑战以及背后的不同原因,并不意味者我们面对这样的风险和挑战束手无策,作为人工智能技术开发者的人类,完全有能力,有责任,更有义务去解决这样的困难,从而使人工智能更好地服务于人类,因此,我们需要深入思考人工智能技术风险的规避措施,思考怎样可以最大限度的规避风险、降低危害,从而保障人类的主体地位。

三、人工智能技术风险的规避措施

人工智能技术是近几十年最重要的科技成果之一,各国都重视人工智能的发展,许多国家已经认识到了人工智能技术所带来的风险和挑战,并试图从包括立法在内的多种角度来规避风险,保障人工智能技术的安全[13],主要从以下三个方面入手:以保障数据安全为根本立足点;以保障人的主体地位为前提;以维护社会安全和稳定为目标。

(一)以保障数据安全为根本立足点

人工智能发展为了提高人类的生活水平,不应该以放弃隐私为代价。保障数据安全是人工智能发展的根本前提条件。

为了避免数据泄露:一是要给予数据采集者“知情同意”的权利,使用户可以知道自己的个人信息如何处理。二是人工智能设计者对用户的数据安全负有责任。在数据获取和储存阶段准确区分数据类型,包含核心数据安全,如个人隐私数据、商业研发数据等通过数据加密技术等措施对核心数据进行重点保护。三是在数据应用层面进行安全保护,通过在线网络(online social network)保护数据,如通过匿名化数据发布、隐私保护数据挖掘(privacy-preserving data mining)发布方式、差异化隐私(differential privacy)保护、数据访问限制、数据水印技术、数据溯源技术、数据加密和访问控制等技术对用户的信息和数据安全进行保护,同时对于威胁信息和数据安全的技术漏洞进行防范。四是从监管方面入手建立健全保护数据安全的法律法规。有关政府部门和组织落实监管责任,加快信息安全的法制建设,对于信息安全可能产生的纠纷做好调解工作,严格实施立法保护和执法追责,对于私自窃取机密信息的个人和企业依法追究责任。五是构建算法治理的约束机制,加强算法监管,要求对于涉及公众利益的程序开源算法,保障公众信息安全。六是确保数据登陆与使用安全,在程序设定上进行优化,通过指纹区分不同的操作者。保障使用者的数据安全,建立删除程序,每一个使用者使用完毕后,任何信息都得不到保存,切实保障隐私安全;对于在私密空间包括家庭当中使用的人工智能产品,在程序中可以定期向使用者汇报搜集信息的使用情况和上传信息的流向,最后设置远程遥控识别系统,限制远程、陌生的远程遥控,等等。通过上述措施保障数据安全,确保人工智能技术的安全运行。除此之外,联合国教科文组织(The United Nations Education,Scientific and Cultural Organization)与世界科学知识与技术伦理委员会(World Commission on the Ethics of Scientific Knowledge and Technology)在2015年的报告中提出保护数据与隐私安全等措施。需要进一步完善通过设计保护隐私(privacy by design)、默认保护隐私(privacy by default)、知情同意、加密等概念的标准来保护人工智能时代的信息安全。

(二)以保障人的主体性地位为前提

人工智能的发展改变了传统的人和技术的关系,传统的人与技术的关系是人是主体,技术的发明与研制都是为了满足人类的目的,更好地为人类服务,技术的价值也以对人类的作用为评价标准,一切为了人类的福祉。人工智能系统需要和人类的尊严、自由等价值观相一致,同时人工智能技术需要服务于公共利益,超级人工智能系统的研究和运用是为了服务于为全人类所广泛认可和普遍接受的基本的伦理观念。因此,人工智能技术应该保证人的主体地位,以人为核心来发展技术,而不是以技术为核心来限制人。应明确人工智能研究的边界和红线,不能以伤害人类为目的,人工智能发展应以不损害人类整体利益为边界,保障人在人工智能技术使用中的能动性,使人类能够体验到人工智能给人类带来的便捷而不是苦恼。保障人的主体性地位,源于人工智能体现人类价值,提升人的价值。2019年4月,欧盟出台了《可信赖人工智能伦理准则》,提出在人类基本原则得到保障的基础上,实现可信赖的人工智能,其中包括算法可解释、程序透明等内容。欧盟颁布的《可信赖的人工智能设计》和2017年美国电气和电子工程师协会(IEEE)发布的《合乎伦理的设计:将人类福祉与人工智能和自主系统优先考虑的愿景》报告,都呼吁将人类规范和道德价值观嵌入人工智能系统中,保障人的主体性地位,在人工智能技术背景下,人类的决策地位优先。人工智能的发展应以确保人的主体性地位为前提。

(三)以维护社会公正与稳定为目标

美国职业工程师协会(NSPE)、美国电气和电子工程师协会(IEEE)、美国机械工程师协会(ASME)和美国伍斯特理工学院(WPI)等协会相继出台了人工智能伦理准则,关注安全、人类福利等与人类利益密切相关的内容,要求将人类的伦理准则通过形式化的模式嵌入到人工智能技术当中,成为人工智能技术发展的重要遵循原则之一。人工智能的运用应促进社会公平正义的落实。避免人工智能设计的不公平、使用的不公平、算法歧视等社会问题,避免人工智能对于人类社会稳定的冲击,要充分认识人工智能技术对社会各个领域所带来的冲击,做好应对准备。在经济领域,规范人工智能技术使用的要求,对于使用人工智能破坏正常经济秩序的行为要加大打击力度,通过税收等再分配途径缩小物质财富差距;在文化领域,通过技术限制减少人们沉迷和上瘾的行为,如限定每日登陆总时长;在社会领域,对于人工智能技术带来的失业问题要做好统计工作,及时拨发失业补助,组织再就业技能学习班等,使失业的人口得到基本的生活保障,保持社会总体稳定。此外,人工智能给传统行业带来冲击造成失业的同时,也会创造出新的工作岗位,要积极引导未就业人群和失业人群在新的工作岗位就业;在安全领域,不断革新技术,明确责任划分,减少伤亡情况,对于已经发生的伤亡,及时做好赔付和善后工作。日本人工智能学会的伦理委员会研究汇总了一份研究人员应该遵守的指标草案,提出要有益和平和防止恶意使用人工智能技术等要求。人工智能从设计之初关注公平与正义问题,“人工智能设计应该关注机会平等,人工智能设计也要追求结果的公平和正义”[14]。人工智能的发展应该关注社会公平,维护社会稳定。

综上所述,人工智能发展迅速,是社会发展的重要推动力量,也会带来人类安全、隐私、数据所有权等风险。因此,在不断推进人工智能技术进步的同时,必须关注人工智能的伦理风险,及时规治人工智能的伦理风险,才能避免人工智能的负面效应,规范与约束人工智能的发展,应该建立人工智能监管机构,制定人工智能的相关法律、法规,重构人工智能责任体系以及建立人工智能伦理规则等才能规避人工智能风险,人工智能发展需要“道德嵌入”,把人类“善”的道德嵌入到设计的人工智能算法、程序中,用“科技向善”规范人工智能发展,在设计之初为人工智能注入一颗“良芯”。

猜你喜欢

人工智能人类算法
人类能否一觉到未来?
人类第一杀手
Travellng thg World Full—time for Rree
1100亿个人类的清明
2019:人工智能
进位加法的两种算法
人工智能与就业
数读人工智能
下一幕,人工智能!
一种改进的整周模糊度去相关算法