APP下载

论具身人工智能的可能性和必要性

2021-02-24魏屹东

人文杂志 2021年2期
关键词:人工智能

魏屹东

关键词人工智能 莫拉维克悖论 具身人工智能 类人智能

人工智能的发展使我们无法回避这样一个问题,即人类是否能够创造出像自身一样有身体意识的机器人或具身人工智能系统。这里的“身体”是生物意义上的,不是形态意义上的如人形机器人,也不是人机交互意义上的,而是人机集成或整合意义上的。也就是说,具身机器人既不是我们人类,也不是人工智能体,而是二者的合体,就像科幻中的类人机器人,我们从外表上和行为表现上区分不出是人类还是类人。进一步说,这种类人机器人拥有像人一样的感受、意识、智能和情感,甚至拥有道德感和人格。这是强人工智能倡导者雄心勃勃的目标,“奇点论”①支持者认为这是不远的将来可实现的理想,即产生超人的智能。作为一种科学技术目标去追求,这本身并无不妥,就像人类要去探月、探火星。然而,要实现这个“野心”,人们必然会问:制造类人机器人在理论和技术上是否可能,莫拉维克悖论可以在技术上得以消除吗?如果可能,类人机器人实现的机制是什么?假如实现了,这种机器人有何优势,会带来何种后果?创造这种类人智能真的有必要吗?在探讨并回答这些问题前,我们先回顾1979年美国数学家和哲学家侯世达对人工智能发展可能产生的问题及其预测。

一、侯世达对人工智能的预测

侯世达在其名著《哥德尔、艾舍尔、巴赫———集异壁之大成》中曾经对人工智能的发展提出十个具有预见性的重要问题,并对其做出部分回答和推测。②在这十个问题中,有些现在看来不成问题,有些问题的推测并不准确,有些问题依然存在而且很重要。接下来我们逐一进行分析。

问题1:是否计算机程序①终将谱写出优美的乐曲?关于这个问题,侯世达的推测是“会的”,但近期不会,因为音乐是情感语言,让计算机程序会哭或笑,尚为时过早。显然,他并没有否认程序作曲的可能性,比如中央电视台的《机智过人》就播出过机器人写诗、谱曲、给歌手打分等节目。不过,他认为计算机作曲程序不会产生新的美感,也就是说,计算机程序不能体验美感、幽默感、韵律感和惊讶感。这些都是与情感相关的感受性。可以说,侯世达预测了未来人工智能的情感化问题,也就是具身人工智能问题。

问题2:情感是否能明显地在一台机器中被程序化?这是问题1的自然推论。他的推测是“不能”,而且认为是“荒唐的”。理由是,计算机的模拟不可能达到人类情感的复杂性。因为人类情感直接源于心智组织,而程序只能以它们组织起来的方式间接模拟自己的情感,而不是直接程序化的结果,如计算机程序员编写不出“坠入爱河”的程序。在笔者看来,问题2与问题1相关,但侯世达对这两个问题的回答似乎前后矛盾。既然计算机不能使情感程序化,它就不能编写出带有情感的程序,也就不会谱写出动听的乐曲,尽管可编写出有序的音符,且听起来还悦耳。

问题3:智能计算机能否更快地做加法?他的推测是“可能不会”。理由是,计算机不能让程序干预其正在进行着的计算活动的电路,如同我们不能将数字装入我们的神经元中。意思是,我们不能往程序里注入“智能”。这个问题现在来看已不是问题,深度学习、深度强化学习等新算法的出现,让计算加减乘除甚至更复杂的解方程、函数运算等易如反掌,且速度极快。当然,这些算法中并没有所谓的“智能”,更没有“心灵”,它仅仅是按照程序执行而已。所以,侯世达没有给出确定的结论。

问题4:是否会出现能击败任何人的下棋程序?他的推测是“不会”。这里的下棋程序是指一种“通用智能”程序,即一个能纵览全局、大致达到人类水平的智能机器人。现在看来,侯世达的推测似乎错了,因为谷歌开发的阿尔法狗和大师下棋程序(围棋)已经所向披靡了。不过,侯世达强调的是“通用智能”,一种能同时下各种棋的通用机器人,这种机器人迄今还没有出现,而阿尔法狗和大师是特定智能机(专门下围棋),而且没有“跳出系统外”的能力,即在下棋之外它们无法与人类匹敌。在这个意义上,侯世达的预测是对的。

问题5:你是否能在较低的层次摆弄程序一下就可以对它进行调整?更具体地说,在存储器中是否有一个特定位置被用来存控程序行为的参数,这样,如果找到并修改了它们,你能使得程序再灵一点或再笨一点或更有创造力或更喜欢足球?他的推测是“不能”。理由是,存储器中不存在“有魔力”的位置用以存储像程序的“智商”之类的东西,这如同我们的身体每天会死掉几千个神经元而我们没有感觉一样。这意味着,程序可以被修改,但不會通过修改产生智能。这隐含了一个原理:作为程序的软件可以改变,但硬件不变。比如我们的思想可以改变,但身体结构不能改变,一台计算机的软件可以更新,但硬件基本不变,虽然可更换某些部件。这个问题意味着硬件对智能很重要。

问题6:你是否可能把一个人工智能程序的行为调整得像我或像你———或恰好介于我们两个之间?该问题是问题5的深化,他的推测是“不能”。理由是,人工智能程序依赖于其工作记忆的稳定性,它们与人一样不是变色龙,不能在不同人格之间变来变去。这一推测是正确的,计算机程序应该是相对稳定的,尽管可以通过升级补漏,但不能因此改变其结构而失去稳定性。一个程序的稳定性是保持其能够稳定运行的前提。

问题7:一个人工智能程序是否有个“心脏”?还是说它只不过包含了一堆“无意义的循环和平凡操作的序列”?这也是计算机专家明斯基的问题,侯世达认为没有这样的“心脏”(引擎),即使有也看不见(隐藏的)。这里的“心脏”是一个隐喻表达,意思是,程序是否有一个像我们心脏的东西。人工智能领域关于这个问题有两种观点:一是主张“心灵无法程序化”;另一种认为可通过“启发式装置”如多重优化器、模式识别、递归处理等获得智能。侯世达处于两种观点之间,即认为人工智能程序就像很深的“水潭”,无法一眼看到底,但若造出了能够通过图灵测试的程序,我们知道其中有一个“心脏”(隐藏的),尽管它并不实际上存在。事实上,这是一种模棱两可的说法。

问题8:人工智能程序能否具有“超智能”?他的推测是“不知道”。在他看来,“超智能”这个概念本身就令人费解,它是什么意思呢?是指超人类智能还是某种非人类智能如外星人智能?尽管人工智能可能达到人类智能,下一个目标可能就是超智能,他仍然认为超智能不是人工智能的研究目标。在笔者看来,超智能其实没有必要,人类智能已经给世界带来了够多的麻烦!

问题9:人工智能程序实际上和人完全一样吗?这其实是问人工智能能否具身化的问题,即人工智能能否有一个像我们一样的躯体(生物意义上)。在侯世达看来,两者之间的差异大得几乎无法想象。假如机器人有了和我们人类一样的身体,它们能够和我们一样思维,说同样的语言吗?就如同狮子会说话,我们无法理解一样吗?即使我们造出了与我们完全一样的复制品(类人机器人),它们也和我们的心智有很大不同,只是同它们打交道时不知道是真正的人类还是类人机器人。这意味着,人类心智与机器人心智无论在硬件还是软件上都会不同。

问题10:一旦我们造出了一个智能程序,我们是否就能理解什么是智能、意识、自由意志和“我”了?这个问题将人工智能与意识、自由意志和自我意识联系起来。侯世达认为在某种程度上是这样的,这完全取决于这里所说的“理解”是什么意思。比如听音乐,不同的人对其理解不尽相同,“一千个读者会有一千个哈姆雷特”。即使我们把每个音符都拆分了,也不一定理解一首乐曲。这不仅涉及人类智能与人工智能的关系问题,也涉及接下来讨论的类人智能是否具有创造力的问题。

二、类人智能是否具有创造力

根据生物自然主义,意识是生物现象,心智是基于意识的,由此推知创造力也是基于意识的。也就是说,没有意识的实体,就不会有创造力。人类拥有意识也有创造力这是不争的事实,人工智能由于没有意识,当然不会有创造力。正如著名计算机科学家多明戈斯指出的“不像人类,计算机本身并没有自己的意志。它们是工程师生产的产品,而不是进化体。即使无限强大的计算机,也仅仅是我们意志的延伸,没有什么可怕的。”①这意味着,即使人工智能有创造力,那也是其背后人类设计者的创造力。这里的问题在于:人工智能体不借助人类智能自己能够进行创造活动吗?这的确是一个不好回答甚至没有答案的问题。

更具体地说,计算机程序或算法本身是否有创造性,何时有?这个问题排除了设计者参与的人工智能的创造性。对人类设计者而言,恐怕他们也未想到一个程序或算法在何时在何处具有了创造性。比如像数学定理的证明、乐曲的创作、对弈中的新走法,计算机自己就能够“想”出来?大多数人会认为程序或算法本身不会产生创造力,正如塞尔的“中文屋论证”所揭示的,符号操作本身不是思维,更不会产生理解,当然不会有创造力。创造力应该是与意识、心智相关的能力,非意识和非心智的东西怎么会拥有创造力呢?

然而,问题没有那么简单,我们没有观测到或进入计算机程序怎么就能断定它没有创造性呢?你可能会说,我们也没有观测或进入人脑,但我们知道人类有创造力。这个类比在这里不一定合适。一个著名的例子是为初等几何证明寻找證明的程序。根据侯世达的描述,由计算机专家明斯基构想,IBM公司的设计者吉伦特设计了一个被称为“驴桥”的程序,它能得出普通人绝对想不出的证明方法。任务目标是证明等腰三角形的两个底角相等。学过初等几何的人都知道,标准的证明是通过作辅助线把这个三角形分为对称的两半。而设计的程序发现了不作辅助线的高明方法,即把等腰三角形与其镜像看作两个不同的三角形,只要证明它们全等就可以了。据说这个“新想法”是从程序得出的,不是设计者给出的。这个绝妙的证明方法让设计者和许多人大为惊讶,这是否可看作是程序具有创造性的证据呢?证明的功劳应归于谁呢?是设计者还是程序本身?持计算机无意识的人会认为,程序本身没有创造力,这种表面的创造性可能是通过两种方式产生的:一种是程序通过不同符号或符号串的组合意外得出了惊人的结果;另一种是隐藏在设计者心中的想法只不过被计算机程序呈现出来而已。侯世达认为,后一种看法才是问题的关键,即认为计算机程序只是将设计者的创造性浮现出来。这是生物自然主义者的看法,也是大多数人的看法。在我看来,如果设计者确实没有预先给这种证明程序赋予“创造性”,我们不能排除是计算机程序通过符号或符号串的组合或它们的相互作用涌现了创造力的可能性,如通过控制—反馈循环机制产生的。如果我们不能说明这个例子中的新证明法是人类设计者的还是程序涌现的,那么我们最好还是将设计者的大脑与程序的“心智”区分开来。程序的设计归于人类,但程序产生的“新想法”却不能完全归于设计者。按照侯世达的说法,在这种情况下,设计者可被看作是“元作者”,而程序被看作“作者”。这里引入了元认知的思想,即关于认知的认知,如作者的作者。

我们设想,如果这个几何证明程序不是特例,比如它一而再、再而三地给出些不同于标准证明的新证明方法,那么我们就不得不承认计算机程序是一个有思想的“智能体”。然而,这种情形目前并没有出现。但是,我们并不敢断言这种情形一定不会出现。比如侯世达所说的“元作者”的情形在音乐创作方面特别突出。有人将两首不同的进行曲输入计算机,结果产生了组合的新曲调,尽管听起来有点奇异之感甚至有点别扭,但的确不同于已有的曲子。这个过程没有涉及复杂的和难以理解的计算,没有使用学习算法,也没有出现随机过程,计算机只是机械地运行,但出现了令作曲家惊讶的曲调。这是计算机程序在作曲吗?显然不是,计算机只是机械地组合音符。正如侯世达正确指出的,“这个程序中没有任何结构类似于人脑中的‘符号,在任何意义下也不能说它在‘思考它所做的事。把这样一段音乐的创作归于计算机,就像把本书的操作归功于产生它的计算机编辑照排系统一样。”①这意味着,计算机不管有多么智能,它只不过是人用来进行创造和实现想法的工具,尽管其中不排除有一些意外的新东西出现,如编辑修改了某个句子。因为说到底,计算机程序缺乏自我意识,没有灵性,不知道自己在做什么。即使有一天人类真的创造了能够作曲的智能机,我们也不能说完全是智能机创作了乐曲,其中一大部分功劳应归于程序设计者,其余部分归功于程序本身。在侯世达看来,这种能创作的智能机只有其程序的内部结构是基于某种类似于我们头脑中的“符号”及其触发模式,并以此来处理复杂的概念意义时,这种情形才会发生。

可以看出,侯世达是将计算机程序与人脑类比,只有计算机程序与人脑的运作模式类似时,它才能产生某种创造力。在我看来,侯世达还没有跳出依赖人类或模拟人脑的思维模式。诚然,人工智能包括机器人的发展基本上还是模拟人脑的功能,但深度学习、强化学习及其结合,再加上大数据和5G技术,跳出人脑模式的超人工智能是可能的,正如飞机模式超越了鸟的飞翔模式。所以,通过不断挖掘新的物理规律,基于新的物理规律建构新型的人工智能模式也不是不可能的。接下来我们探讨这种类人智能的可能生成机制。

三、类人智能实现的意向—自反机制

我们假设具身人工智能是可实现的,但其难度很大,因为其中的障碍几乎难以逾越,比如如何让生物体和硅基材料有机地结合,能否将心智注入机器,或将意图、目标注入方程式或算法,也就是让机器有了灵魂,使笛卡尔的“机器之幽灵”得以实现,形成一种所谓的人机共存共生现象。当然,我们不排除科学家可借助生物克隆技术(如果允许的话)实现人机融合的可能性。如果这种可能性成立,这种新型的具身机器人或人机一体的类人机器人就是可能的。笔者根据控制论的控制—反馈循环原理,结合哲学的意向性和自反性概念给出人工智能生成的意向—自反循环涌现机制。

从控制论的观点看,意识和智能这些认知行为是通过一个控制—反馈循环涌现的结果(见图1)。主体(系统)达到目标或完成任务的控制行为是意向行为,其特性就是意向性;从目标(任务)到主体(系统)的反馈是自我指涉的或自反的,其特征就是自反性(即指向或返回自身,如知道我是谁)。对于一个主体(人类或智能体)来说,如果他或它只有意向性,即指向他物的属性,那只能算作刺激—反应,如低级生物;只有当他或它同时也拥有了自我指涉性或自反性,他或它才会涌现出意识。自反性是“当一个系统制造另一个系统时(不论是复制还是制造另一个产物),它都会变成它所制造的产物的一部分”。① 这个概念实质上是控制论的反馈概念的拓展———因果循环和永不结束的自我指涉,它可能是生命的主要起因,如化学中的自我催化(反应的产物同时又是催化剂)就体现了自反性。生物系統中的新陈代谢就是一种大规模的自我催化反应,构成了生命形态得以维系的极为重要一环。在这个意义上,作为自反性的自我催化可能参与了生命的起源过程。

在我看来,意识的起源也很可能与自反性相关。我们常常会反思自己,这种反思就是自我指涉,我称之为“反身性”,因为它是可被我们体验的,比如“我是……”“我感觉……”“我认为我……”等。按照扎卡达基斯的说法,当人们反思时,“我”既是主体又是客体,心理学上将这种意识的递归称为“元认知”。在表征的意义上,这意味着被观察的事物和观察过程不是同时编码的,即在不同自然系统和认知系统中编码。只有当这种自我指涉性出现时,自我才能产生,有了自我,意识方能涌现。这可能是人工智能和机器人学制造有意识机器的关键,因为自我指涉或自反性导致了有序的形成。所以,我一直主张,意向性和自反性同时出现才能称得上是有意识,如我们人类,不仅具有意图(目的),也知道我们是谁,而其他脊椎动物如大猩猩可能不知道它们是大猩猩,如在镜子面前它们会将自己的影像看作是其他动物。人类3岁儿童都知道镜像是自己。

从适应性表征的视角看,人类、动物以及人工智能体,在达到目标的意义上,都有一个控制—反馈循环或一个意向—自反循环,因此都是适应性表征系统。说它们是适应性表征系统,不等于说它们之间没有区别,区别在于这些不同主体(系统)在自我指涉方面的表现。对于物理系统,如汽车引擎,它只是通过控制—反馈循环进行物质和能量交换;对于低等生物系统,如蚂蚁,可通过控制—反馈循环进行物质、能量和信息(信息素)交换,较之物理系统有较强的适应环境的能力;对于高等生物系统,如我们人类,不仅通过控制—反馈循环进行物质、能量和信息交换,也同时进行着携带语言表达的意向—自反循环,这正是人类比其他生物更高级和更智慧的地方。正是有了意向—自反循环我们才有了意识,有了心智和智能。当然,“一个系统必须同时具有自组织的能力,才能有适应性行为涌现”。②而自组织并非复杂性的结果,而是系统的各组成部分以特定方式连接产生多层次的正反馈。这些反馈循环创造了更高层次的自组织复杂性,从而产生了新的行为,如自主行为。这种复杂的高级智能行为如自我意识是在自然系统的不断演化中涌现出来的。人工系统如计算机互联网中能否产生自我意识(假如计算机数量达到人类大脑神经元的量级1011)我们还不得而知,至少目前的互联网没有涌现出意识(可能数量不够不足以产生质变)。根据生物自然主义,即使计算机数量达到1011的量级,互联网产生意识的可能性也不大。原因在于,人工认知系统与自然认知系统不仅在硬件和软件上不同,它们的组织结构和连接方式也大为不同。

这里产生了一个非常深刻的问题,即自然系统先孕育出生命如生物体,再由生命系统涌现出意识和认知行为如创造力,那么人工系统也遵循这样的逻辑吗?人工智能的发展业已表明,人工智能的产生不是以人工生命的存在为先决条件的。这有力地说明,人工智能的产生和自然智能的涌现有着不同的演化逻辑。比如,人工认知系统不会自发产生语言,当然也不会形成对行动或事件意义的理解。或者说,抽象符号的推理不会自己产生意义,只有将观察到的事物与观察者相结合才能从无意义的表征中涌现出意义。这意味着要产生意义和理解,语境的介入是必须的。这就是为什么人工智能和机器人学近年来都致力于语境觉知研究的原因。

然而,在我看来,两种认知系统都是适应性表征系统。人类是完全的具身认知系统,计算机包括人工智能是完全的离身(无身)的认知系统,这两种认知系统在一定程度上的结合或融合,很可能会产生新型的具身认知———人机一体的认知系统,这种新型具身认知系统也一定是适应性表征系统。到那时,人类和机器人的共存共生不仅是可能的,也是现实的,伦理问题、法律问题等会相应出现,我们必须未雨绸缪,迎接新型具身机器人可能带来的一系列挑战。这样看来,三种认知系统都是适应性表征系统,适应性表征就是所有认知系统的共性。或者说,一切认知活动,其载体不论是生物的(血肉的),还是非生物的(机械的),拟合是生物—机械混合的,均是适应其所处环境的,包括自然的、社会的、历史的和文化的因素。因此,在适应性表征的意义上,具身的人工智能不仅是可能的,而且实现的可能性极大,只是这种实现是混合的类人智能,而不是纯粹的人类智能。

如果我们能够将这两种系统进行耦合,通过适应性表征这个桥梁有可能创造出一个人机融合的类人系统或具身人工智能系统,如人工神经网络的模式识别、机器学习。在不考虑价值判断或道德评估的情况下,这种类人系统有可能出现,除非人类担忧这种类人系统会给人类带来危害而禁止研究和开发。前者依赖于计算机科学、人工智能、机器人学、生物学、化学和认知神经科学等学科的联合与协作,后者还依赖哲学、伦理学、社会学、法律学等人文社会科学的介入。

如果这种类人机器人是可能的,这意味着,具有自我意识的心智系统必须是有身体的。神经科学已经揭示,脱离身体的心智是不存在的,或者说,心智依附于身体,二元论不成立。我们要创造人工意识或人工认知,机器人必须有生物的身体,所以身体的存在是人工认知系统发展的必要条件。如果是这样,那我们离制造出这样的类人机器人还遥遥无期,因为现在的技术还无法突破符号计算和意识认知之间的鸿沟。如果从适应性表征入手,不考虑两种认知系统之间的硬件差异,这种类人机器人是有可能实现的。这与我们制造会飞的飞机和会游泳的潜水艇是一个道理。只是这些人造物没有自我意识,没有情感。

在这里,我们应该换一种思考方式,也就是说应该重新定义什么是意识,什么是智能。在我看来,智能和意识不是一回事。根据适应性表征,智能具有适应性表征功能,意识也有,不同在于意识表现在体验和感受方面,智能表现在解决问题和完成任务方面。计算机是在“适应性表征”(根据逻辑算法处理数据或推理),不是在“思考”,思考是隐喻性表达。我们过度使用隐喻来表达计算机的计算能力,如著名的“计算机隐喻”。然而,为了理解和解释,我们又离不开隐喻表达。这可能是我们人类的认知局限性所致。因此,语言使用和意义理解始终困扰着人工智能研究者,正如塞尔的“中文屋论证”所表明的那样,意义无法通过操作形式符号来获得,计算机不能理解它处理的编程语言的意义。而且这种人工编程语言必须由人类程序员预先定义和设置,而我们人类则无需事先定义和设置。从语境论的视角看,我们人类是语境化的,计算机和人工智能则不是。这就是人类智能和人工智能的根本差异所在。要想让人工智能更“智能”,语境化是必须的。这就是笔者一直主张的人工智能的语境化问题,即让人工智能拥有语境化能力。同时,为了保证机器人不危害人类,我们必须让机器人“人性化”,即创造“友好的人工智能”。

四、莫拉维克悖论是否可以克服

然而,机器人的具身化和人性化势必会遇到所谓的莫拉维克悖论。这个悖论是说,“让计算机在某些任务上表现出成人的智力水平是件很容易的事情,如智力测试或玩跳棋,但是让其获得哪怕是一岁儿童的某些能力,如感知和运动,却是极其困难甚至是不可能的事情”,①如机器人不会做鬼脸,不会开玩笑。

莫拉维克悖论揭示了这样一个基本事实:符号逻辑表征不是万能的,一定存在某种类型的智慧如直觉、创造力是符号逻辑不能表达的。也就是说,人类智能更多依赖无意识的本能,而不是有意识的符号操作,所以无法通过形式化规则来获得。这就是德雷福斯在《计算机不能做什么》中所表达的一种观点。② 神经科学的发现也表明,意识不是一个脑细胞执行的逻辑算法,而是大量无意识的、混乱的心理过程在新皮层上整合的结果。但这种过程一定是适应性的,这就是为什么笔者力求主张适应性表征。

进一步说,所谓莫拉维克悖论是说,对于人工认知系统,最难的问题最容易解决,而最简单的问题反而难以解决。在我看来,这种看似矛盾的现象其实是一种错觉,即表面上似乎是矛盾的,实质上是不同层次的问题。比如机器人在下棋、进行复杂计算这些按规则执行的事上机器人比人类强很多,当让其做连儿童做起来都易如反掌的事情如爬楼梯時,机器人却很难做到。这是因为人工智能所做的计算和人类所做的爬楼梯是两个完全不同层次的问题。机器人是完全基于理性的,完全按照规则做事,如计算、对弈,而人类不完全是按理性规则做事的,很多时候是非理性地行事,而且非理性所占比例还不小,如爬楼梯的行为是无意识或本能行为;人的计算完全是有意识的认知行为,计算机的计算是无意识操作规则。因此,这个悖论其实是没有在有意识行为与无意识行为之间做区别造成的。这意味着意识造就了人的能动性和灵活性,无意识机器人缺乏能动性和灵活性,而缺乏能动性和灵活性是造成机器人爬楼梯困难的真正原因。

然而,简单动物如蟑螂爬楼梯也很容易,但我们不能说它有意识,这说明意识并不是引起蟑螂爬楼梯容易的唯一原因,无意识的本能也是一个原因。另一个更深层的原因可能要通过自然进化来解释了。这就是构成问题,即人类和机器人的组成成分完全不同,前者是生物的(碳基的),后者是物理的(硅基的),遵循的规律也不同。这就是认知科学中的“硬件要紧不要紧问题”。也就是说,组成智能实体的“硬件”规则是决定因素,如我们的大脑是天生的硬件,心智、情感、意图等均源于这种物理硬件。这就是侯世达所说的“硬件规则不变”原理,即“各个层次上的软件都可以改变,而硬件规则不变———事实上,软件的灵活性来自硬件的稳固性!”③比如芯片的稳定性决定智能机的水平。因此,对于像爬楼梯这样的行为,硬件不仅是要紧的,而且是决定性的。这种人类可轻易完成而计算机难以执行的任务状态,即所谓的莫拉维克悖论,在我看来,就是生物体和非生物体之间的鸿沟问题。说到底,这是两种完全不同结构和功能的实体:人类智能和类人智能。对于类人智能,如果它是可能的,人们自然会问:它具有何种优势,会产生什么后果?这是接下来要探讨的问题。

五、未来机器人的优势和可能带来的问题

从哲学上看,不论未来的机器人如何有智能,在多少个方面超过人类,其综合能力如判断力与人类是无法匹敌的,因为机器人没有意识和情感,当然更没有心灵或自由意志。这是类人(机器)智能与人类智慧无法相比的根本原因。说到底,人不是机器,人若按照机器的方式去思维和行动,人就不如机器了,如计算机的存储和搜索能力远胜过人,人类的存在就是多余的了。我们利用机器人的目的是克服人类躯体和智力上的局限性。所以,机器人不过是人类的有力助手。

在我看来,作为人类助手的未来机器人有六大优势:

第一,集成性,即在短时间内能够将人类所有知识储存到自己的知识库中,如大型词典、百科全书等,这是人脑无法做到的(人的生命有限)。

第二,搜索性,人工智能有强大的搜索能力,可以搜索到我们想知道的任何东西,这其中包括了数以亿计的网友的智力贡献。这意味着互联网不仅是信息网,也是人际网。

第三,无私利性,即机器人是无私欲的。人类骨子里是自私的(生存意义上),比如儿童天生不懂得分享(动物性),分享是后天教育的结果。机器人是无私无畏的,不知道恐惧为何物。

第四,再生性,即机器人可以再造,如给软件备份、硬件更换,而人类是不可以再生的。这一点机器人就胜过人类。

第五,合作性,即机器人之间的协同工作。与人类相比,由于它们之间不存在私欲和利益之争,也就不存在竞争,更不会“勾心斗角”,合作会十分融洽。

第六,整合性,即机器人能够迅速地将物质、能量和信息高效地整合起来,从而迅速地完成任务,这一点比人类要强很多,因为人类要通过长期的学习才能获得这种能力。

辩证地看,这些技术上的优势同时也会给人类带来麻烦。我们知道,技术发明彰显人类发明者聪明才智的同时,也使大多数人变得越来越“笨”,用户习惯于依赖机器,如智能手机,原来没有这种技术工具时形成的技能慢慢消失了,如我们的书写能力随着计算机的普及明显下降了,驾驶技能随着自动驾驶技术的出现也会逐渐降低(不用学开车了)。这意味着人的技能被机器人技术代替了。机器越是智能,用户就越是省心,其心智能力也就会慢慢降低。这就是我们都知道的“用进废退”的道理,如心算能力是训练出来的,而不是天生的。这意味着,人工智能技术的大行其道,会使人们越来越依赖人工智能,大多数人类智能(除了少数人工智能的设计者)会出现倒退。所以,人工智能越智能,人类智能就会越弱智。

当然,造成这种局面的责任不在技术本身,因为技术是中立的,而在制定技术程式的技术专家和政策制定者。比如现今普遍流行的微信、支付宝等电子支付方式,已经流程化、规范化、普遍化,不采取这种支付方式,到饭店吃饭都成了问题(不收现金),再比如为预防新冠肺炎,不使用智能手机注册健康码,出行都寸步难行。这意味着技术代替人的技能是大势所趋,所以人人都必须“与时俱进”,如老年人也不得不学会使用智能手机支付。在这个意义上,人类已经沦为技术的“奴隶”,就像海德格尔所说的,人类已被技术“驾驭”。人工智能正让人类变得“没有脑子”,“不长脑的机器和不思考的人没有什么两样,不是因为机器已经变得和人类一样善于思考,而是人类已经变得像机器一样没有头脑”。①

我们必须正视这个问题。我们不能让少数技术专家的头脑取代大多数人的头脑。事实上,图灵测试业已告诉我们,如果我们认为通过这种测试的机器和人一样聪明的话,那么同时也意味着人和机器一样“笨”。或者说,我们在使机器有智能的同时,也在无意中使大多数人变笨。我们应该有意识地避免这个问题,有意识地训练自己,如练字、做心算、玩智力游戏等。从适应性表征的视角看,我们人类在进行适应性表征的同时,也要避免沦为只会适应环境的动物(低级动物也本能地适应性表征)。对人工认知系统而言,它们具有适应性表征能力就足够了,不必有意识、情感和心智;人机融合只是强化适应性表征能力,弥补人类生物体先天的缺陷,如记忆容量小、计算速度慢等。

还有一个问题不容小觑,那就是如果机器人成为劳动的主力军,大多数工作都由机器人完成,那机器人的数量会非常庞大,消耗的能量和材料也会十分惊人。到那时,地球的资源就会加速被耗尽。一旦机器人代替了人力工作,人类除了高端人才(管理、设计制造机器人等)外,其余人将无所事事,这是更可怕的事情。大量無事可做的人会无事生非,制造麻烦,从而引起社会动荡。而且不良政客会利用机器人打仗,如现在的无人机可能改变战争模式。笔者不是担心机器人会超过人类智能,而是担心有人利用机器人干坏事,毕竟机器人是人造的工具(况且人很多情况下也被当作工具)。本质上作为工具的机器人是不大可能把其主人作为工具役使的,除非人类自己太过信任和依赖机器人。

然而,不可否认的事实是,从外部看机器人的确拥有智能,问题是我们不能轻信机器智能。比如,人们以为无人机会准确定位并能够“定点清除”恐怖分子,而事实是,它会误杀平民甚至儿童,因为恐怖分子会假扮成平民,机器智能无法识别。所以,我不担心人工智能技术会发展出高级机器智能,而是担心人们过于相信和依赖机器智能。一旦机器出了差错,如手术时机器失准,责任算谁的,医生还是机器?这会引发一系列道德和法律问题。所以,机器人世界对人性的冲击不可小视。假若有一天与我们打交道的全是机器人,餐厅服务员、银行职员、学校的老师、医院的医护人员、公交系统、家政服务,等等,我们与人打交道的机会几乎没有了,我们的“人性”会变为“机性”。这样一来,人之为人的性情和乐趣消失了,剩下的恐怕只是冷冰冰的机器。这就自然引出下一个问题———类人智能是否必要。

六、类人或超人机器人是否必要

科技史告诉我们,任何一种技术发明的出现都是社会需要的推动,如蒸汽机、发电机、计算机,人工智能和机器人也不例外。这个问题可从如下两方面来考虑。

从人类社会发展的角度看,智能机器人是我们需要的。首先,仅从发展智能这个角度,认知科学和文化人类学的研究揭示,在进化的基础上是语言和文化塑造我们的心智。这意味着心智是借助某种中介形成的。现代社会的互联网这种中介,也会塑造我们的大脑,这是文化塑造心智的必然推论。因为互联网就是一种文化,是人工认知系统的一部分。当然,这种文化中介现象也要从正反两方面来看。一方面,互联网这种中介使我们的认知更便捷,如搜索需要的信息和答案;另一方面,互联网也使得人们懒于去思考,从而造成思维惰性,久而久之我们的心智就会变得迟钝。这就是互联网带来的积极与消极两方面的后果。事实上,任何一项技术发明都有正反两种功能,关键是人类如何看待和使用了。在我看来,任何技术发明包括智能机,如何利用关键在我们人类自己———是善用还是恶用,比如是造核武器(杀人)还是建造核电站(造福人类)。

其次,互联网让多智能体的协作成为可能,这极大地提高了机器人的工作效率,如固定机器人的自动化生产线,无人机的高空搜索和勘测。这种智能机器人的广泛应用,对社会的方方面面产生了积极影响,实现了以前靠人力做不到的事情。更为重要的是,在农业、工业和国防等关乎民生和安全领域,智能机器人具有不可替代的作用。因此,发展类人机器人是人类社会发展的必然要求。

从消耗资源的角度看,我们的地球资源是有限的,存在着不可预知的各种风险———气候风险、天文风险(外星撞击)、病毒风险(如新冠病毒、艾滋病)、资源枯竭、核威胁等。人工智能的发展与这些风险相比会小得多,所以我们不必过于担忧人工智能会威胁人类的生存。相比而言,倒是制造出数以亿计的机器人而消耗的无法估量的能源,可能会加速地球资源的枯竭这一点更令人担忧。正如斯加鲁菲指出的“人类不断创造智能机器,可能会加剧灾难临近的风险。灾害可能比超级智能机器找到避免灾难的方法来的更快。”①也就是说,还没有等人类造出超级智能时,灾难已经发生。这绝不是危言耸听,我们人类应该警觉清醒,应该懂得有所收敛。

在我看来,在工具的意义上我们没有必要制造这样的类人物种,因为我们人类已经够多了,何必自找麻烦制造类人的东西呢?人工智能无论多么智能,毕竟还是供人使用的工具,其目的不外是减轻人类认知上的负荷而已。只要这个目的达到了,作为工具的机器人有无意识、有无感情、有无道德感、有无做人的资格等都不重要了。谁会在乎一件工具(无论多么精致和有智能)是什么呢?所以我认为未来的机器人是否达到人类水平无关紧要。要紧的是我们不能让这种机器人危害人类社会和人类自身的安全就可以了。我相信,既然我们人类能够造出这样的机器人,就一定能够控制其行为是有利于人类的。工具本身并无好坏之分,关键是使用工具的人是好人还是坏人。这就要控制不能让坏人掌握机器人技术,这与让核武器掌握在谁手中是一个道理。在这个意义上,我们不必担心人工智能会超越人类智能,也不必担心它会控制人类从而取代人类。这是因为,如果智能机器人只是代替我们做一些如扫地、排队、作代理之类的事情,那么“它不需要有意识、自知或者总体上具有人类这样的智能:它只需要能够自立,顶多有能力适应变化的环境就行了,就像今天简单的病毒一样。”①也就是说,人工智能仅仅有适应性表征的能力就足够了。

如果通过适应性表征能够让人工智能像人那样思维与行动,这是否意味着人工智能就会超越人类甚至控制人类呢?在我看来,人们用不着担心,即使人工智能可以像人一样思维和行动,但它们仍然是机器,缺乏人类所拥有的意识、情感和灵性。这一点是硅基的机器人恐怕永远不会获得的,除非人们发展出人机融合的智能体。这种人机融合的智能,既不是纯粹的人类智能(生物的+文化的)也不是纯粹机器智能(机械的+算法),而是生物—文化—机械的整合智能。这将是一种全新的智能形式———具身的人工智能,因此“人工智能是一种与众不同的技术。不仅因为它能够彻底地改变我们的社会、经济和我们居住的星球,也因为它关乎我们自身———我们是谁?我们如何思考、沟通?是什么让我们成为人类?”②在这个意义上,有限地创造新型人工智能还是有必要的、有意义的,至少能有助于我们认识我们自己。

七、结语

人的“记忆”与计算机的“储存”不是一回事。人类的“知道”与机器人的“感知”也不同。由此我们推知,人类智能与机器智能不同,就像鸟会飞与飞机能飞,鱼会游泳和潜水艇能游泳不同一样。这是两种完全不同的实体,依据完全不同的理论。目前,人类的机械化(弱人工智能)事实上已经实现,机器的人化(强人工智能)能否实现还未知,至少还有遥远的路要走。在我看来,机器人无论多么聪明,只能是人类的助手而不是主人,也不会在综合能力上特别是精神层次上超越人类成为人类的替代物。机器人仅仅是工具,不是有主体意识和人格的人类,因此没有人的资格和权利。是人创造了机器人而不是相反。因此,自主制造机器人的机器(不受人类控制的机器)不会产生。目前,人们对人工智能的发展进行反思、批判是必要的,担忧也是可理解的,毕竟无人机造成的危害有目共睹,但不能因此就认为应该禁止其发展!人机共存的时代几乎不可避免,我們应该考虑如何与机器人和谐相处,如何制造为人类服务的机器人,如何防止机器人被坏人利用,而不是一味地反对。

猜你喜欢

人工智能
人工智能AI
人工智能
人工智能之父
2019:人工智能
人工智能
人工智能与就业
China’s Artificial Intelligence Revolution
数读人工智能
人工智能时代,就业何去何从
下一幕,人工智能!