APP下载

技术的逻辑:强弱人工智能与伦理

2019-03-02

阴山学刊 2019年2期
关键词:机器伦理媒介

王 雪 莹

(南京大学 新闻传播学院,江苏 南京 210023)

传播学之父威尔伯·施拉姆有这样一个著名的“最后7分钟”比喻:“这一天的前23个小时,人类传播史上几乎全部空白,一切重大的发展都集中在这一天的最后7分钟。”正是这最后7分钟谱写了人类历史的黄金时期,而午夜前的最后3秒却翻开了人类迈进信息化社会的新篇章。[1]近几年,信息与通信技术发展迅速,各种新技术层出不穷——移动互联网、物联网、大数据、互联网+、区块链、人工智能……互联网在今天自然已不再是新鲜事——人们习惯将习以为常的、无处不在的技术,视为理所当然的存在。在日新月异的众多新技术中,人工智能备受关注。我国从国家层面对人工智能发展给予了支持。从2015年至今,国家出台了一系列政策。甚至,在最新的国务院工作报告中,人工智能再次被提及。这是人工智能第二次被写入国务院工作报告中。《2018年国务院政府工作报告》中指出:“发展壮大新动能。做大做强新兴产业集群,实施大数据发展行动,加强新一代人工智能研发应用,在医疗、养老、教育、文化、体育等多领域推进‘互联网+’。加快发展现代服务业。发展智能产业,拓展智能生活,建设智慧社会。运用新技术、新业态、新模式,大力改造提升传统产业。”[2]

探讨人工智能,如果仅仅以一种“当下性”的视角看待这一技术,就可能对当下的“新技术”评价过高:“一般情况下,人类经历的每个时代都倾向于夸大当时这个时代的独特性。技术正以前所未有的速度进步……我相信之前的人类历史上肯定存在过其他加速技术进步的时代,所以没有必要争论我们所处的时代是否真的特殊。我们对过去了解越少,就越有可能被当前时代的发展所蒙蔽。”[3]前言1-2也许在不久的未来,人工智能可能会被“更”新的技术取代,沦为“旧”技术。

人工智能发展势不可挡,这种发展也让各行各业思考:在无处不在的人工智能面前,各自该如何发展?无疑,作为工具的技术一定会给人类社会带来正面的影响,最直接的体现是生产力的变革。但是,本文更关心的是:作为一种技术的人工智能,现在到了担心其伦理问题的地步了吗?如果是,那么需要关注的是什么伦理问题?

一、人工智能概念界定:我们需要担心的是什么样的人工智能

虽然早在1956年人工智能(Artificial Intelligence)概念就被提出,但却是最近十几年迅速发展起来。得益于计算机技术、大数据、云计算等技术的发展,人工智能的发展也实现重大突破。“人工智能”非常热门,但是人工智能的内涵和外延却并非十分清晰。大家明明都在说人工智能,但是实际指向的内容并非同一个。唯有确定“什么是人工智能”,才能确定人工智能相关研究的研究对象。事实上,每当技术有所突破,人工智能都会被重新定义。计算机科学家拉里·泰斯勒(Larry Tesler)指出,这其实意味着,人工智能总是被定义为“尚未实现的黑科技”,这被称为泰斯勒定理,或者叫人工智能效应。[4]29

1.人工智能的基础定义

人工智能的一个比较流行的定义,也是该领域最早的定义,是当时麻省理工学院的麦卡锡在1956年的达特茅斯会议上提出的:“人工智能就是要让机器的行为看起来就像是人所表现出的智能一样”[5]。这一定义的主体指向“机器”,机器不是普通的机器,是达到“智能”状态的机器。后续的定义几乎也是沿袭这样一种说法,有学者比较全面地总结,认为人工智能的定义主要有三种:第一,人工智能是一种“机器”,是能够在各类环境中自主地或交互地执行各种拟人任务的“机器”;第二,人工智能是一门学科,是计算机科学中涉及研究、设计和应用智能机器的一个分支;第三,人工智能是一种能力,是智能机器所执行的通常与人类智能有关的智能行为,如判断、推理、证明、识别、感知、理解、通信、设计、思考、规划、学习和问题求解等思维活动。[5]

从这三个定义可以看出,我们明明都在讲人工智能,有时候是在讲人工智能技术,有时是说研究人工智能的学科,有时是指人工智能的智能能力。虽然学界对人工智能有着明晰的界定,但是实际上在日常生活中对于“人工智能”一词的使用十分混乱。

2.生活中的人工智能定义

对于大多数人来说,最触手可及的人工智能是智能手机。[4]1松尾丰把生活中被称为“人工智能”的事物简单整理了一下,它们大致可以被分为以下四个级别。

(1)把单纯的控制程序称为“人工智能”。这一类是为了市场营销而将商品冠名“人工智能”或“AI”这一类,人们只是在家电产品上安装了极为单纯的控制程序,就宣称产品“搭载着人工智能”。

(2)传统人工智能。这一类动作及行为模式极为丰富多彩。传统的智力问题求解程序、医疗诊断程序即属于此类。

(3)引入机器学习的人工智能。这一类是内置于搜索引擎里面,或者基于大数据可以进行自行判断的人工智能。其推理机制及知识库是以数据为基础通过学习获得的。最近出现的人工智能,很多指的就是这一类。

(4)引入深度学习的人工智能。这一类指能够对机器学习时的数据表示所用变量(一般被称为“特征量”)本身进行学习的人工智能。

松尾丰认为,来自媒体的新闻报道中,既有一些“的确非常神奇的人工智能技术”,但同时也有一些“实际上并没那么神奇的技术”。而且,它们当中既有“已经实现了的技术”,也有一些“即将可能实现的技术”,还有一些“可能永远无法实现的技术”。[6]14-15所有的这些都被媒体混为一谈,由于大众对人工智能的理解主要来自媒体,媒体的使用混乱自然会造成人们对于人工智能的理解偏差。不只是媒体,正如北京大学教授、中国人工智能学会副理事长刘宏所说的那样:“尽管人工智能研究走过了半个多世纪的历史,但似乎只是在最近几年里,人工智能与机器人才突然成为几乎全社会广泛、深入热议的话题。人工智能领域的每一点创新和进步,都可能成为媒体报道的头条:智能制造、智能服务、智能交易等新概念层出不穷,似乎每个行业都可以通过‘智能化’给自己贴上变革与新技术的标签,与传统划清界限。”[3]序一:1这种“人工智能+”的噱头无疑会给商家带来关注度和吸引力,但是却加深了普通人对人工智能的误解。

3.强人工智能和弱人工智能

今天,宣称是“使用人工智能的产品”或者“运用人工智能技术的系统”的东西越来越多,但是真正意义上的人工智能,即“能够像我们人类一样进行思考的计算机”,的确尚未实现。[6]20在人工智能的研究领域,很早就出现了关于“强人工智能”与“弱人工智能”的争论。这个概念最早是由哲学家约翰·瑟尔(John Searle)提出,他认为:“具备正确的输入与输出、被施予合理程序化的计算机,与拥有心智的人是没有任何区别的,即它也是有心智的。”他的这种主张被称为“强人工智能”。这种理念认为,人的心智或者大脑活动就是一种信息处理,思维就是一种计算。与之相对,“弱人工智能”则认为:计算机没有必要拥有心智,只要能够通过其有限的智能解决一些智能问题即可。[6]35-36简单来说,“强人工智能”是拥有自我意识的,而“弱人工智能”无自我意识,只是一种工具。弱人工智能无须担心其伦理问题,它只是一种被人类使用的工具,如果存在伦理问题,伦理主体也在于使用弱人工智能的人本身。但是强人工智能不一样,强人工智能拥有自我意识。如果说人工智能具有需要警惕的危险,其实警惕的是具有“自我意识”的强人工智能。正如奇点理论所暗示的那样:人类创造技术的节奏正在加速,技术的力量也正以指数级的速度在增长。指数级的增长是具有迷惑性的,它始于极微小的增长,随后又以不可思议的速度爆炸式增长——如果一个人没有仔细留意它的发展趋势,这种增长将是完全出乎意料的。[7]雷·库兹韦尔曾说过:“该技术性特异点将会在2045年这个不远的将来出现。”[6]13奇点理论分为两个阵营:乐观派认为机器最终会将人类带入永生,悲观派则认为机器可能会将人类带向毁灭。[3]4

机器将人类带入永生还是毁灭尚不清楚,但是一旦人工智能具有了自我意识,它会竭尽全力完成程序设定的目标,并避免失败。我们的超级人工智能想要获得对它最有用的能源,不管它表现为什么形式:真正的动力能源、金钱,或者其他可以换取资源的东西。它想要完善自己,因为这能提高它达成目标的概率。最重要的是,它不希望被关掉电源,不希望被摧毁,因为这样一来就无法达成目标了。[8]出于生存的本能,拥有自我意识的强人工智能自然会竭尽全力让自己存在下去,在这种情况下强人工智能是否还能为人类所掌控就不得而知了。

尽管强人工智能的威胁与风险确实值得人们警惕,但是却忽略了一个根本性的问题——强人工智能会实现吗?我们是否能制造出来一个大脑,使得人工智能成为完全意义上“像人类”一样?这些从技术上来说还是未知的。既然在技术上暂时无法实现,自然不必特别担心。在既有的技术上,需要关注的是作为工具的弱人工智能的伦理问题。

二、作为技术的人工智能:弱人工智能面临的伦理问题

对于技术的讨论,任何二元对立的预设价值立场都有可能得出极端倾向的结论:人们要么恨技术要么爱技术。为了防止价值观倾向上的偏见,本文从一开始就警惕这一问题。本文承认人工智能跟其他技术一样,都可以带来社会进步:比如生产力的提高、将人类从重复劳动中解放出来。但是其自然也暗含着风险。作为工具的弱人工智能本身无性质上的好坏之分,关键在于人们如何使用它。与人工智能有关的伦理问题也在人类应用过程中逐渐凸显出来。

(一)大数据人工智能的数据真实性问题

人工智能发展的基础是计算机技术,正是因为有了计算机技术和网络的普及,才使得普通人接入互联网,现实交互行为转移到网上产生大量数据。而大数据是人工智能的原料,通过算法设置,借助于计算机的巨大计算能力,分析海量数据,进而使得计算机更加智能、更加拟人。但是大数据人工智能存在一个问题:由于人工智能的发展依存的是海量数据,那么在这种情况下,当数据源出了问题,则会对人工智能的发展产生巨大负面影响。这在聊天机器人Tay发表种族主义的例子里体现得非常明显,但聊天机器人最多发表的是不当结论,如果这种污染被扩大到暗杀无人机、工程机械、医疗类、自动驾驶等与人类性命攸关的系统中时,事情就变严重了。[9]

人工智能面临的第一个伦理便是数据的真实性问题。由于网络的匿名性,大量无用的、虚假有害的信息被传播,造成了数据污染。如果被不法分子利用,故意给人工智能“投喂”虚假数据和恶意数据,其后果不堪设想。

(二)个人的隐私,电商的商机

现如今,很多如电商、资讯、搜索等服务都使用了“机器学习”的人工智能技术。算法通过对于历史数据的训练和学习,可以有效地找到或推荐用户想要的信息。个性化推荐的原理是收集用户的信息对用户进行精准画像,分析用户的偏好进行精准信息推荐。这种智能化一方面给人带来信息获取的便利和高效率,另一方面,个人信息被搜集、分析、整合,也成为各方争夺的商业资源甚至是犯罪的资源。大数据技术的应用,不仅使个人隐私受到侵害,个人信息安全也面临严重威胁。[10]虽然用户从个性化推荐中获得了效率,但无疑是将自己的隐私假手于人。万维网的初衷并不是要创造一个那样的世界:智能软件控制你上网的一举一动并使用它来为你量身打造上网体验;而可怕的是,它正在朝着这个方向发展。计算机科学正在将你的生活转化为他人的商机。[3]171

有时并不是人们愿意接受电子商务网站的条款和条件,主动让渡自己的隐私,而是因为互联网公司实行霸权主义,如果用户不同意其相关条款,用户就无法使用相关服务。这相当于互联网平台间接逼迫用户接受其条款。在这些条款中往往包含着用户允许公司访问自己的个人数据。

要效率还是要隐私,这是在大数据人工智能时代不得不思考的问题。但是,社会已经进入信息化社会,人的工作、学习、生活等都离不开互联网。在不得不使用互联网的情况下,用户不可避免地在互联网上产生“行踪”。如果这些“足迹”被不法分子所利用,对个人信息安全造成极大威胁。在这种背景下,用户的“被遗忘权”显得很重要——人们拥有如何使用自己信息的权利。

(三)防止算法作恶

人工智能面临的第三个伦理问题是算法作恶。大数据人工智能是受到算法驱动的,算法并非价值中立,而跟设计目的紧密相关。算法偏见的原因多种多样,算法设计者的偏见、输入数据的偏见和算法局限导致的偏见都会引起输出结果的偏见。[11]只要受到人影响的地方就有价值取向的存在,人工智能存在的价值偏向也是人赋予的。算法如何设计跟使用目的相关,毋庸置疑,企业的主要目的是盈利,因此,其算法自然是跟“更高的点击量”“更多的购买量”紧密相关。但是现在使用人工智能的公司将所用算法视为机密,外部人很难判定其算法中是否做了手脚。就拿搜索引擎来讲,搜索引擎的算法被视为商业机密,在某种程度上如果搜索引擎公司自己利用非道德的技巧去设计算法,通过竞价排名而非公平原则提供搜索结果,无疑这侵犯了用户的知情权。

除了用户的知情权问题,还需要警惕的是算法偏见带来的“信息茧房”问题。现在很多个性化推荐的资讯类App、懂得用户需要什么的电商App使用的算法往往是企业内部的商业机密,不为外人所知。这种个性化推荐带来的“信息茧房”问题,也使得用户从包容走向偏见,引发更多的“群体极化”问题。不管是对于互联网安全还是社会稳定都会产生负面影响。

三、结语

诚然,从媒介发展史的角度看,任何一种新媒介技术的出现都会给人类社会带来巨大的变革,这种变革有好有坏。一种媒介技术给某些人会带来好处就一定会给另一些人带来坏处。“每当一种新媒介出现,都会有截然不同的态度和观点:有人被其新颖的形式和明显超过传统媒介的传播效率所征服,为新媒介大唱赞歌,并且总有人作出大胆预言,新媒介的出现意味着传统媒介的消亡;也有人对新媒介明显不同于传统媒介的‘怪异’之处表示反感,对新媒介出现造成的传媒市场的分化重组表示担忧,并预言新媒介会败在传统媒介的脚下。”[12]探讨新媒介技术的影响不能狭隘地看表面现象,而是要看到其背后的技术逻辑是什么。归根结底,人工智能的伦理要求跟我们已经提出的虚拟现实、扩展现实领域应当引起重视的“大宪章”问题一样,指向的都是如何避免少数人掌控技术以更便捷、更隐蔽的手段损害人的自由与尊严的问题。[13]作为工具使用的弱人工智能的伦理问题关键在于使用主体,工具是否作恶全在于人如何使用它,应该从制度上建立起弱人工智能的使用标准与规范。走在人工智能技术前沿的谷歌集团在收购DeepMind Technologies时,就非常慎重地在公司内部设立了“人工智能研究伦理委员会”。[6]14强人工智能作为一种是否能实现还未知的技术,只能从源头上加以防范。科学并非没有禁区,是否应该支持强人工智能的开发还是个需要探讨的问题。

猜你喜欢

机器伦理媒介
《心之死》的趣味与伦理焦虑
机器狗
机器狗
护生眼中的伦理修养
媒介论争,孰是孰非
书,最优雅的媒介
未来机器城
欢迎订阅创新的媒介
反思媒介呈现中的弱势群体排斥现象
医改莫忘构建伦理新机制