APP下载

人工智能可能性的“双重参照”

2022-02-11王世鹏

江汉论坛 2022年2期
关键词:可能性人工智能

摘要:人工智能可能性问题是关于人工智能的所有哲学研究的核心和枢纽。追问人工智能可能性的一个前提是追问“人工智能”这个概念的可能性。“人工智能”概念含有其自身无法摆脱的范畴错误(category mistake),并不断有各种在用法上相互矛盾的新的意义被赋予到这个概念当中。人工智能概念范畴错误的根源在于对人工智能可能性的追问中隐含着一个“双重参照”:一方面,人永远以自身为参照来追问人工智能的可能性;另一方面,人以永远处于可能状态中的人工智能为参照来追问人自身。作为哲学问题的人工智能可能性,有其独特的提问方式,它与心灵观问题、心身关系问题和人的同一性问题交织在一起,显示出人与人工智能的一致性和差异性。人工智能可以看作是人自身的一个镜像,把人的样子投射于其中,而且将处在人工智能可能性限度之外的意义、体验和错误这三种独属于人的能力呈现出来。

关键词:人工智能;可能性;“双重参照”

基金项目:国家社会科学基金一般项目“人格同一性理论最新发展研究”(18BZX113);湖北省社会科学基金前期资助项目“马克思主义视域中心灵哲学比较研究”(19ZD088);华中师范大学中央高校基本科研业务费专项资金项目(CCNU20TD005)

中图分类号:B84    文献标识码:A    文章编号:1003-854X(2022)02-0024-08

有三类密切相关的问题支撑起当前人工智能哲学研究的整个问题领域。一是人工智能的可能性问题,其常见的提问方式为“机器能思考吗”?二是人工智能的能动性问题,其提问方式通常为“机器能做X吗”?三是人工智能的控制性问题,其提问方式为“人能控制自己制造的机器吗”?在此三类问题中,人工智能的可能性问题是当之无愧的核心和枢纽,因为它既为后两类问题的探讨奠定了理论基础,在根本上为后两类问题的追问赋予意义,又不断以其自身提问方式的变化促使后两类问题的提问和解答方式发生变化。在此意义上,人工智能的可能性问题可以被看作是关于人工智能的全部哲学追问的具体呈现。但是,这是否意味着人工智能可能性问题的重要性就因此而得以呈现呢?事实并非如此。如果不仅仅把人工智能可能性问题的研究视野局限于人工智能哲学、心灵哲学和意识哲学等几个专门的哲学门类,而是将之置于整个哲学的研究领域中进行审视的话,就会发现这个问题的重要性仍然被严重低估了。低估的根本原因在于,关于人工智能可能性的追问中隐含着一个至今尚未获得清晰阐述和应有重视的“双重参照”:一方面,人永远以自身为参照来追问人工智能的可能性,此为第一重参照;另一方面,人又以永远处于可能状态中的人工智能为参照来完成对人自身的追问,此为第二重参照。在此“双重参照”中,与其说人工智能在人的世界中的图景获得描述和呈现,毋宁说人找到了一种前所未有的、新的方式来理解和关照自身。

一、“人工智能”的概念可能性与参照缺失

过去几十年,人工智能在理论研究和技术应用上都取得巨大的进展,但是这些进展非但没有治愈人工智能研究的一些先天“顽疾”,反而将其“症状”越发明显地呈现出来。这些“症状”主要表现为围绕“人工智能”这个概念本身的理解而大量存在的范畴错误和观念误解,而其“病根”则在于“双重参照”的缺失。离开了这个“双重参照”,我们就难以理解人们用“人工智能”这个词究竟想要表达什么,这个词的创造和使用究竟隐含了人的什么意图,以及为什么这个词的使用充满了混淆、误解和矛盾。因此,在探讨人工智能的可能性问题之前,我们首先要讨论“人工智能”这个概念的可能性:这个概念是否能够胜任它在理论研究中所扮演的角色?质言之,“人工智能”可能吗?

當前研究中经常用来称呼或者替代人工智能的概念有数十种之多,常见的有计算智能(computational intelligence)、电子智能(electronic intelligence)、有意识的机器(conscious machine)、心灵机器(mind machine)、无心的媒介(mindless medium)、符号理性(symbol reasoning)、情感机器(emotion machine)、机器理性(machine reasoning)等。这些称呼各有其用法上的侧重。其中,有些称呼是为了强调对人工智能的实现具有关键作用的因素,比如“计算智能”的称呼侧重于强调计算在智能行为中的核心地位。而“符号理性”的称呼,是为了在强调理性的同时,进一步将人工智能的理性与人类理性相区别。正如西蒙所强调的,人工智能是符号理性,因此有必要区别人类自主体的理性和人工智能的理性。① 再比如,把人工智能称作电子智能,是为了将之区别于包括人类智能在内的生物智能(biological intelligence),侧重于强调人工智能是由人工的方式如计算机编程来实现的。把人工智能的这些各有侧重的称呼放在一起进行对照,不难发现,“人工智能”不是意思一致的一个单一概念,而更像是对一类或者一组具有某种相关性的概念的统称。

更为严重的问题是,如果用“人工智能”这个概念来统摄它以不同称呼所表达的种种用法,就会发现其中存在着明显的范畴错误。其范畴错误的表现有二。一是把不可能并存的两种对立的属性同时归属于“人工智能”。比如,一方面通过称呼上的侧重来强调人工智能是“有意识的”“心灵的”“情感的”,即具有心理属性的;另一方面又通过其他的称呼来宣称人工智能不具有这样的心理属性,是“无心的”“电子的”“计算的”“机器的”。但是,对于世界上的任何存在物而言,或者是有心的或者是无心的,两种属性不可能同时具有,否则就是范畴错误。二是“人工智能”概念存在着因主体缺位而导致的用法混乱。“人工智能”经常被用来和“人的智能”相对应,而且两者看起来也具有形式上的一致性,但是“人的智能”这个概念标明了人作为智能的主体,而“人工智能”概念却没有指向任何主体。所以,人工智能如果真的能够作为一种智能存在的话,那么这个智能的主体是谁?在关于人工智能的各种称呼中,能够作为智能的主体而存在的,究竟是机器还是这些机器中的理性呢?比如,当前关于人工智能之可能性的争论,焦点之一在于计算机编程是否有可能产生真正的思维这一问题。如果肯定人工智能的可能性,并假定在适当的环境中以适当的方式对计算机进行编程能够产生真正的思维的话,那么,计算机思维无疑要有一个主体。正如奥尔森(Eric Olson)在批评人工智能的同一性问题时所指出的,有思维存在,则必有思维的存在者存在,计算机编程所要产生的这个有思维的存在者究竟具有怎样的身份地位呢?人工智能需要有一个人工思维者这样的主体存在。② 但是,人工智能概念的各种称呼都无法提供这样一个主体。没有主体,便无以承载属性,因为属性总要有其所依附的主体。人工智能与人的智能这两个概念在形式上的一致性,掩盖了人工智能的主体缺失,其结果是导致人工智能概念存在着一个主体空洞。正是由于这个主体空洞的存在,各种相互冲突的属性都能够被给予人工智能概念,这表现为由各种不同称呼所表述的东西都被填充到人工智能的概念当中,造成了用法的混乱。

从源头来看,“人工智能”是一个先天不足的概念,这种不足源自于“智能”概念本身的不足。从时间上看,“人工智能”这个词是由美国哲学家德雷弗斯(Hubert Dreyfus)于1965年发表《炼金术与人工智能》(这篇文章随后变成了著名的《计算机不能干什么》一书)一文之后才开始获得研究者的广泛认可的,这比人工智能研究的发端晚了大约10年。这种时间上的滞后,至少能部分地表明人工智能概念所面临的困难。人工智能研究最初的奠基者们并不能阐明“智能”这个词的意思,但是却往往把智能的某些特征归属于人工智能。比如,被称作“人工智能之父”的阿兰·图灵对“智能”一词的考察主要就是从行为角度指出智能的两个特征:(1)智能是达成目标的能力,比如通过某种行为来完成特定任务;(2)智能是能被量度的一种技能,比如根据行为表现来进行测量。图灵强调,无论天生之物还是人造之物,是否拥有智能至少部分地是由我们对其行为做出的反应决定的。以这种方式,图灵把智能在行为上的特征归属于人工智能。质言之,人工智能概念依附智能概念,人工智能概念總是通过继承智能概念的某些概念特征而获得其规定性。按照心灵哲学的理解,“智能”是一个充满歧义的民间心理学词汇,它所表述的是包括信念、欲望、情绪等与思维和意识相关的一大类心理现象。智能和人工智能这种概念上的继承性,导致人工智能概念往往传递出这样的意思:通过计算机编程产生一部分或者全部的心理现象。这也是弱人工智能的主张,即认为人工智能主要就是通过计算机编程来模拟心理现象。

除了从人的心理现象中获得规定性之外,人工智能概念还从人的行为现象中获得规定性。这是因为,智能可以不被看作是一种心理现象,而被单纯看作是一种行为现象。说人有智能,就是说人能够在特定条件下表现出如此这般的一系列行为。对智能的这种理解,可以通过“如果……,那么……”这样的概念表达式来呈现。比如,如果情人节到了,那么你要送花给她;如果她身体不舒服,那么你要提醒她多喝开水。凡是能够在这种特定情境下表现出这种行为的人,我们就说他有智能。与这种智能理解相适应,“人工智能”指的就是计算机的智能行为,它强调的是计算机能够完成人类需要通过能力训练才能胜任的工作,比如开车、下棋、识别垃圾邮件。但是,智能的这种带有行为主义特征的概念规定性,同样存在问题,比如我们并不清楚究竟要表现出何种行为才算是有智能。提醒她多喝开水的行为,在她看来可能并不是一种智能行为。塞尔通过著名的中文屋论证(Chinese Room Argument)对图灵测试的批评也说明了这一点:图灵测试是对智能的纯行为测试,但是能够通过图灵测试并不意味着就有智能。③ 所以,人工智能概念无论以人的心理现象还是行为现象作为参照,都难以摆脱范畴错误的困扰,因为这种错误与人工智能概念本身的规定性联系在一起,是其从人自身的概念中继承而来的先天错误。换言之,我们对人自身的概念图式的理解并不完备,所以,以人的概念如人的心灵和行为概念为参照的人工智能概念就必然在用法上表现出种种问题。

除此之外,在人工智能概念的规定性中还具有更深层次的意味:那就是通过对人工智能概念的限制和规定,反过来将人工智能概念的规定性作为参照,使之能够反哺于人认识自己的心灵和行为的需要。这种需要的产生,根源于人类自身的复杂性和人类认识自身的手段的局限性。比如,要认识人的心灵,离不开对大脑的研究,因为心灵是由大脑所实现的。通过研究大脑来理解心灵的这条思路,在工程学上被称为逆向工程(reverse engineering)。比如,当市场上出现一种新的技术产品,产品的竞争者会通过拆解这种产品来弄清这种产品的技术原理,这就是逆向工程。但是,对大脑而言,逆向工程遇到了严峻挑战。因为大脑是世界上最复杂的结构,神经科学、脑科学等对大脑的研究完全不足以让我们理解心灵。甚至如查莫斯所言,即使我们弄清了大脑的全部结构和过程,仍然不足以理解心灵,因为心灵可能是与其所依赖的脑加工过程相分离的某个额外的东西。④ 逆向工程不适用于大脑研究的需要,因而我们转而诉诸人工智能工程,即通过参照机器来研究大脑,进而理解心灵。

在对人工智能的这种参照中,人以理解自身为导向来设置人工智能的规定性。这主要表现在两个方面。其一,人工智能被规定为一个绝对概念,而智能本身则是一个相对概念。智能的产生和发展与自然进化有关,其发展程度是由智能主体的需要决定的,不同层次的需要使智能呈现出程度的差异性。比如,与自然界的动物相比,人需要更高程度的智能才能生存下去。因而,自然智能是一个相对性概念。但是对人工智能而言,它不但没有进化的自然环境,而且其发展在根本上是由人自身的需要决定的。人是人工智能唯一的参照。根据人的需要而获得规定性的人工智能概念是一个绝对概念。达成人设定的目标就是人工智能,否则就不是人工智能。人工智能概念的这种规定性使其成为一个绝对概念。在这一点上,人工智能概念与怀孕的概念相似,或者有或者没有,不存在什么程度的差异性。其二,人工智能被规定为对人的模拟必须超越一定的界限。智能本身并不需要超越一定的界限,但人工智能则不同。因为人对人工智能的概念规定中隐含着自我认知的需要,而这种需要的满足要求人工智能的智能水平必须达到一定程度,否则就不足以满足人的需要。德雷斯基在讨论智能和人工智能概念的关系时,曾分析了智能的界限问题。他认为,实际上存在着对智能的两种不同理解,这两种理解的混淆是人工智能可能性问题争论不休的原因。这两种理解的区别在于,智能是否必须达到一定的数量界限。对智能的这两种理解,一种相当于把智能比喻为钱,另一种相当于把智能比作财富。如果有智能就像是有钱一样,那么无论钱多钱少都可以称作是有智能。但如果有智能就像是有财富,那么钱少就不算智能,因为只有钱的数量达到一定的程度才能说是有财富。⑤ 人工智能在概念规定上仅仅与对智能的后一种理解相应,即把智能看作是财富而不是钱。所以,人工智能概念的兴趣不在于在最低限度上建立智能机器,比如,智能不论多低,只要大于零就算有智能。这样具有最低限度智能的智能机器并不能作为人类自我认知的参照。因为人的这种将人工智能作为参照的需要始终存在,所以,人工智能的概念规定性中总会被设定一个界限,而且这个界限会不断被超越,永远高于人工智能研究的实际进展。其结果是,人工智能因其概念规定性而永远处于可能状态之中。

人工智能概念在用法上存在范畴错误,但是我们应该因此而否定这个概念本身的可能性吗?或者说,我们还能够在严肃的科学和哲学研究中使用人工智能这个概念吗?之所以会有这样的问题被提出来,根本的原因就在于对人工智能概念的考察中存在着“双重参照”的缺失。在“双重参照”下考察人工智能的概念可能性,正确的提问方式表现为:为什么人们甘冒范畴错误的风险将两种对立的属性同时归属于人工智能概念?一方面,人以人自身的智能和行为为参照使人工智能概念获得其规定性。另一方面,人又以人工智能的概念规定性为参照来认识自身的智能和行为。在这种“双重参照”下,人工智能概念获得一种独特的规定性,它既无法摆脱范畴错误,在用法上充满矛盾,但又因人将之作为参照的关系而不断获取新的内涵。

二、人工智能可能性问题及其提问方式

人工智能概念独特的规定性赋予人工智能可能性问题一种独特的提问方式。一般而言,追问人工智能的可能性,似乎就是要问出类似于“人工智能是否可能”这样的问题。但是,实际上只有外行才会以这样的方式去发问。因为,这种单一而笼统的“……是否可能”式的提問方式,或者就像是在追问与人本身没有关系的自然对象一样,比如问“明天下雨是否可能”,或者就像是在追问观念中构造的非存在对象一样,比如问“永动机是否可能”。人工智能不同于自然对象,也不同于非存在对象,甚至不同于已有的任何存在和非存在的对象,因为它的独特之处就在于,它是人试图创造出的唯一一类以人自身为蓝本的对象。换言之,人工智能比这个世界上任何其他对象都离人“更近”。离开了人无以谈论人工智能,人工智能完全离不开对人的参照,这要求对人工智能可能性的任何追问都应当有人自身的“痕迹”体现于其中。

在这一点上,哲学家摆脱外行身份的关键就在于以正确方式提出关于人工智能的可能性问题,比如根据对人自身属性、构成、行为、能力等的认识来追问人工智能在不同研究路径中的可能性。质言之,人以何种方式理解自身,就进而会以何种方式追问人工智能。人工智能的可能性及其提问方式,与其说是由技术决定的问题,倒不如说是与人的自我认识关联在一起的哲学问题。作为哲学问题的人工智能的可能性,可以从心灵观问题、心身关系问题和人的同一性问题这三个具有内在相关性的问题出发进行考察。

首先,心灵观问题与人工智能可能性问题产生交集的原因在于这样的研究思路:要考察人工智能的可能性,就必须考察心理现象的本质属性。因为如果假定人工智能可以实现的话,那么我们的任务就是要考察生物有机体的心理现象,以弄清楚这些心理现象究竟有什么本质属性能够让其在计算机中同样产生出来。但是这项工作离不开对心灵观的研究。因为人有众多不同的心理现象,如意识、思维、情绪、理性等。这些现象中的哪一个或哪几个应该成为人工智能试图模拟的对象?这些现象有何特点?它们是何种关系,相互对立还是相互促进?比如,在过去几十年,情绪与理性一波三折的关系变化,是人工智能研究与心灵观研究产生交集的一个集中体现。情绪和理性被认为是人类认知中紧密交织在一起的两个重要的维度。人工智能应该侧重模拟人的情绪还是理性?这个问题的解答无疑取决于人们如何看待理性和情绪关系。

在人的所有心理现象中,理性最受人工智能研究者的偏爱,其表现就是产生了所谓的机器理性问题。机器理性问题,即理性思维如何在机器中成为可能的问题,至今仍是人工智能可能性问题的主要表现形式之一。在历史上,这一问题在阿兰·图灵的研究中初现端倪,经由福多(J. Fodor)的论述而成为一个真正受到关注的哲学问题。福多认为,正是由于图灵的贡献,我们才开始对理性在机器中何以可能有所了解。⑥ 在经典的符号主义人工智能的研究纲领中,机器理性被认为是依据合乎规则的计算过程对符号(即具有非语义属性的形式)的操作。安迪·克拉克曾在其《人工智能与理性的多面性》一文中对机器理性问题的各种解答方案做了较为细致的梳理。在他看来,所有解答方案有一个共同的核心观念,那就是形式有时可以当成意义使用。把形式当成意义使用,实质上就是要完成从非语义属性到语义属性的转换,凡是能完成这种转换的系统就会在适当的环境中表现出所谓的“语义良好行为”(semantic good behavior)。“语义良好行为”这个术语涵盖了演绎推理、做出猜测、根据刺激做出反应等多种行为能力。由理性支配的行为是语义良好行为的一个特殊的子集。⑦ 质言之,对人工智能负责的只是理性。而理性与情绪的关系,就像句法与语义的关系一样,对于前者而言,只用管理性,不用理会情绪,对后者而言,只用管句法,语义自己管自己。⑧

但是,当前新的心灵观研究成果却认为,情绪并不是理性的敌人,反倒是应该被看作理性自身机制的一部分,而且情绪几乎每时每刻都能够对理性产生帮助。因此,情绪不能被弃之不顾。公正地对待情绪与理性的关系已经成为下一代人工智能模型所要面对的主要任务之一。明斯基在著名的《情感机器》一书中曾指出情绪与理性的一致性。他说:“因此,尽管本书名为‘情感机器’,但我们仍然认为情感状态与人们所认为的‘思考’过程并无大异,相反,情感是人们用以增强智能的思维方式。”⑨ 达马西奥则尝试分析著名的菲尼亚斯·盖奇(Phineas Gage)的案例来阐述情绪与理性的复杂关系。他说:“似乎可以直接得出这个结论,即人类理性最好不被看成是一个无情绪的逻辑引擎——它有时与情绪爆发的战斗交织在一起——的操作。相反,真正的合理行为(人类身上)是一系列复杂而叠加的相互作用的结果,在这些相互作用中,审慎的理性和(经常是非常无意识的)带有情感的巧妙反应共同引导着行动和选择。”⑩ 由理性与情绪关系的认知变化所导致的人工智能重心转变,是心灵观研究对人工智能可能性产生影响的一个缩影。通过心灵观研究,弄清人类心灵的地理学、地形学、动力学和结构论,是解答人工智能的可能性问题的必要条件。

其次,心灵观问题在哲学研究中可以被看作是心身关系问题的子问题,两者密不可分,在人工智能研究中同样如此。人工智能研究中具有重要影响的“结构和功能”之争,在本质上是一场围绕心身关系问题的争论。关于“结构和功能”的路线之争,始于1956年召开的达特茅斯会议,这次会议被认为是人工智能研究的起源,影响了此后几十年间人工智能研究的基本走向。主持此次会议的皮茨被认为是神经网络的鼻祖,他在总结这次会议时曾这样表述“结构和功能”的争论:“(一派人)企图模拟神经系统,而纽厄尔则企图模仿心灵(mind)……但殊途同归。”{11} 模拟神经系统就意味着把人的身体(大脑的神经结构)作为人工智能模拟的对象,而模拟心灵则意味着让人工智能拥有和心灵一样的功能作用。人工智能可能性问题在这里就具体表现为:身体(神经系统)和心灵究竟哪一个才是人工智能应该模拟的对象?对不同模拟对象的选择,不仅代表着对智能实现方式的不同理解,更意味着对心身关系的不同理解,比如心和身究竟谁在两者的关系中占据主导地位。

每个人都由身体和心灵构成,这是自笛卡尔以来所形成的关于人自身构成的所谓“官方学说”的基本主张。但是,这个“官方学说”却面临巨大的理论难题,它既无法解释身体和心灵的相互作用,又无法说清对人自身的智能负责的究竟是身体还是心灵。结果是“官方学说”所面临的理论难题导致了人工智能的路线之争,并以人工智能可能性问题的形式呈现出来。所以,这里真正的问题是:对人的智能负责并进而对人工智能的模拟负责的,究竟是心灵还是身体?围绕心身关系所形成主要理论,如二元论、行为主义、同一论、功能主义和取消论都出现在关于人工智能可能性的探讨之中。其中,除了二元论把心灵看作是非物理过程并因而否定人工智能的可能性之外,其他理论大都肯定人工智能的可能性。当然这些理论也都面临各自的理论困难。在当前,心身关系问题解答遭遇的最大困难是查莫斯所谓的“意识困难问题”,即像大脑这样一个纯粹的物理对象何以能够拥有体验(experience)的问题。一些研究者把意识困难问题看成是人类智能和人工智能共同面对的问题,并试图利用在人工智能研究中占主导地位的一些理论范式,如计算理论,为意识困难问题找到解答方案。{12} 在与人工智能的参照中探索心身关系问题的解答路径,正在成为一种新的研究范式。

最后,心灵观问题和心身关系问题并不能穷尽人工智能可能性的所有问题,原因在于:人和人工智能都面临一个同一性问题。对人来说,身体和心灵都是人的构成性要素,但两者合在一起却并不等于人的全部,因为人总会以一种独特的方式将自己呈现在自己面前。比如,我们都能够理解卡夫卡的小说《变形记》里面的主人公格力高·萨姆撒所遭遇的状况。他的物理状态彻底改变了,但他仍然执着地认为自己还是之前那个有着不同身体的人,尽管在第三人称的观察者看来这难以接受。换句话说,格力高·萨姆撒的身上,除了心灵和身体之外可能还有一种能让他保持自身同一性的东西,这种东西的存在使他能够在身体状态和心理状态发生变化的情况下,仍将自己认作是之前的那个人。所以,心身與人的关系就以这样一种问题的形式呈现出来:心身之外是否还有人?

人的同一性研究源远流长,但人工智能的同一性研究却是一个新近产生的问题。人工智能同一性问题的产生与人的同一性问题的产生遵循着相似的逻辑:就像人的思维要有一个主体,比如可称之为“人”一样,人工思维也一定有一个主体,比如可称为“人工思维者”。因为,如果计算机中能够有思维发生而无主体的话,同样的道理,人身上也会出现无主体的思维。但是,如果有思维而无思维的主体(即思维者),那么结果就会是,一方面有现象存在,但另一方面却没有任何存在者使现象得以向其显现。探讨人工智能的可能性,除了要关注人工思维的问题之外,还要关注人工思维者的问题,即是否有什么东西能够成为人工思维者。奥尔森曾对当前人工智能同一性问题的研究现状做过较为系统的评价。他认为,要评估人工智能的可能性,不但要了解思维和意识的本质,而且要了解思维和意识存在者(being)的本质。但是当前几乎所有关于人工智能可能性的讨论都是围绕人工思维问题进行的,而对人工思维者问题的研究则几乎是一片空白。其表现有二。其一表现在哲学家关于人工智能可能性的提问方式上。哲学家常常追问“计算机会做什么才能被算作是思维”,而从来不问“计算机是怎样的存在者,或者是否人工思维者完全就是计算机或者计算机程序”。{13} 质言之,人工思维者一直没有被作为一个重要的问题提出来。其二表现在关于人工智能的讨论中经常使用如“系统”这样意思模糊的术语。而“系统”这样的词就像“媒介”“基质”一样几乎可以用来指示任何东西。问一个系统是否会在某种条件下具有智能,不过是在问某种无法理解的对象是否具有智能,而且完全回避了这个对象到底是什么这样的问题。

那么,人工思维者究竟是什么?这个问题有两种解答方案。一种方案把人工思维者看作一个虚拟的主体。比如有人模仿计算机科学中的虚拟机(virtual machines)概念,提出了虚拟人(virtual person)的概念。{14} 但这种方案难以合理地说明虚拟人的存在地位,并且影响力有限。当前占主导地位的方案,是所谓的“计算机硬件观”(the computer-hardware view),它主张既然人工思维是由计算机的状态和活动构成的,那么计算机本身就是人工智能的主体。具体来说,通过计算机编程而变成智能的东西就是计算机的硬件这样一个物理对象。这表现为,它把人工智能的可能性问题,等同于计算机是否能够思维的问题。从整体上看,计算机硬件观仍然是对自然智能主体观的类比,是后者在计算机中的投影。根据这种观点,人的智能是自然智能的代表,而作为这个智能的主体的“我们”,以动物的方式存在,即我们是动物。与此类似,人工智能的主体以计算机的方式存在,即人工智能就是计算机。

人工智能的可能性问题,从问题提出到解答的整个过程都与人对自身问题的思考紧密相关。心灵观问题、心身关系问题和人的同一性问题既是人在对自身的探索和认知中形成的问题,又是在对人工智能可能性的解答中不容回避的问题。这些问题的提问和解答方式交织在一起,相互影响,相互制约,逐渐形成一种良性互动的参照关系。通过这种参照,人与人工智能之间的一致性和差异性显现出来。

三、人工智能可能性的限度与人的参照

我们对心灵观、心身关系和人的同一性问题的全部思考,在根本上无非就是要一步步描述出人的样子。而人工智能可能性问题同样有这种作用。人工智能可以看作是人自身的一个镜像,人可以把自己的样子投射到这种镜像之中。因此,我们有必要追问这样的问题:人工智能可能性的限度究竟有多大?人工智能可能性的限度是理解人自身的一个全新参照。人工智能可以在多大程度上实现自身的可能性,就意味着人自身的属性在多大程度上获得表达。在此意义上,考察人工智能的可能性,就是要把人工智能的限度作为一把标尺,用来对人进行衡量和比照,以弄清人的哪些属性可以通过机器实现,哪些属性是人相对于机器所独有的。这种操作遵循着一个简单的逻辑,凡是能被人和人工智能共有的东西,必不能独属于人,而独属于人的东西当中必然含有人身上本质的东西。

人工智能是以设计为基础的智能,它的地位始终受到设计的目的、过程和结果的制约,但这并不意味着人工智能不能在个别的方面超越人的智能。比如人工智能在个别的计算能力上速度更快,水平更高,就单纯的数字计算和数据储存而言,人类智能望尘莫及。甚至如果仅仅把智能理解为一种达成目标的能力和可量度的技能的话,人工智能反倒是比人类智能更符合智能的特征。所以,人工智能不只是对人类智能的简单模仿,它可以在某些方面完成比人类智能更多的任务。人工智能在这些方面对于人类智能的优势,一方面说明,人工智能可以是拥有其独特智能属性和存在地位的一类智能;另一方面说明,人工智能可以作为对人类智能的某些方面的放大和理想化。换句话说,人工智能在这些方面的可能性,表征着人能够将自身属性在机器中实现的最高限度。

从范围来看,人工智能可能性的限度表现为一个区间。这个区间的下限要保证人能够实现自我认知的需要,而不是像自然智能的下限那样大于零即可。它的上限则是由人工智能自身的智能属性和人类智能属性的契合程度决定的,两者的契合程度越高,人工智能的可能限度就越高。人工智能的优势在于它在符号操作上的优势,比如它擅长在句法上进行计算。计算是与解码(decoding)有关的一个过程,解码能够把物理状态变为计算状态。在这一点上,人工智能和人的智能具有一致性,它们都能被看作是计算状态。但是,尽管在所有的计算状态当中都有符号操作的存在,却只有其中一部分符号操作有意义。人工智能所进行的符号操作没有意义,因为人工智能是纯粹的句法机器。正如塞尔在论述人类心灵和计算机程序的区别时所强调的,任何仅仅操作符号的物理系统最多只是意识的空心模型,它不可能产生真正的语义。这也是以计算机为模型来说明心灵最大的难题:人如果不为符号赋义,符号是否能够意指某种东西?{15}

人的心理过程虽然同样有符号操作的部分,但却不只会进行句法的计算,还会进行语义的计算。人的智能既是句法机,又是语义机。麦金在分析人的心理過程和计算机的符号操作算法的区别时指出,心灵能加工意义而句法不能。人既能够操作语义也能够操作句法,但是计算机在完成任务时并不需要理解它所操作的符号的语义。“运行程序只是模拟理解意义;它不构成意义的理解。”{16} 是否能够在符号操作中产生意义,正是计算机和人的主要差异之一。人能够通过符号操作自发地获得意义,而计算机的符号操作只能由人来为其赋义。通常看来,计算机不过是人们用来做计算的物理系统,这个系统的输入和输出都有赖于人的解释,离开了人的解释,计算机和汽车、恒温器之类的机械系统并无差异。计算机本身并不对其处理的符号的意思做出解释,所有的解释都来自于人类这样的外部系统。用心灵哲学的术语来说,计算机只有派生的意向性,人类才具有本源的意向性。人的这种本源的意向性使人的心灵成为意义的发源地。

除了意义之外,人的心灵中还有两种人工智能的符号操作无法例示的东西,一是体验,二是错误。体验是人的所有心理现象中最难解释的现象之一,也是人本身的专有能力之一。体验能力不同于辨别刺激、报告信息或者控制行为的能力,因为后者有可能通过技术进步来解决,而体验能力是人工智能的符号操作不可能模拟的东西。从体验与符号在自然智能中的起源来看,体验在动物进化史上出现的时间要早于符号化,因此体验的产生不需要以符号操作作为其条件。人工智能不但不具有自然智能的进化环境,而且它的一切能力都依靠符号操作来实现。从体验自身的规定性来看,它是和主体的第一人称感受紧密绑定在一起的一种现象学特性。{17}每个人都只能以自己的第一人称视角来感受这种体验是怎样的,比如巧克力的味道是怎样的,你只能通过自身的感受获得,而不能通过第三人称的方法比如依靠别人的描述获得。而人工智能的主体,无论是虚拟主体还是计算机,都不可能通过第一人称视角去获得体验。所以,符号操作既不具有也不实现感觉体验。相比之下,人不但能够体验,而且每一个个体的人都有能力获得关于世界的独一无二的体验。

错误的产生与人们对自己观点的表达和陈述密切关联在一起。任何人只要心中有了自己的观点,就有犯错的可能。但是,人工智能的符号操作对错误是免疫的。无论是简单的图灵机,还是符号主义和联结主义的人工智能,甚至是“反表征主义”的机器人学中都隐含着一种对一切东西都进行逻辑学分析的企图,这种企图所依赖的一个核心观念是:把形式当成意义来使用。但是,在逻辑学中,对真值有保障的是形式而非意义,所以只要依据符号的形式规则,机器就不可能从正确的前提中推出错误的结论,至于前提和结论的“意思”是什么并不重要。从生态学的角度来看,人犯错误具有生态上的合理性,因为人的生存环境是开放的,面对大量复杂多变的环境信息,人类大脑选择使用尽可能简单的“捷径策略”来获取尽可能好的结果。{18} 比如,当你不能判断面前出现的是牛还是虎的时候,大脑不需要你冒险走上前去更近距离地观察然后再做出准确判断,而是会“走捷径”,即给出一个可能不准确的判断,以此来减少你走上去被老虎吃掉的风险。人类智能对环境变化是开放的,这些变化会对人的概念形成、决策制定和价值判断都产生影响。而人工智能则不呈现这种意义上的变化。人类智能的开放性使它不限制于固定框架和特定目标,如人类智能并不局限在与数据、信息和知识有关的认知领域,还与行动和价值有关,比如哪些事情没有必要去做,那些事情冒险也要去做。人工智能则是一种操作性智能,以认知上所给定的目标为导向进行操作,没有行动和价值上的关涉。比如人类能够对环境中不可能存在的东西如“方的圆”、“独角兽”提出问题。而计算机只能提出其内存中已经存在的问题。计算机系统是闭合的,它只能按照自己的目标导向被动地从环境中接收信息,而没有能力进行与目标无关的表征。所以,计算机没有犯错的能力,它的逻辑方法和数学语言不允许它输出错误。人有犯错误的能力,对这种能力进行解释是心灵哲学的研究重点之一。比如,意向内容理论的目标就在于能够容许意向内容对世界进行错误表征:即使现实世界并非如此这般,意向内容也可以把这世界表征为如此这般。所以,与不会犯错的机器相比,人是会犯错的动物。

意义、体验和错误无法被人工智能模拟,处在人工智能的可能性限度之外。换句话说,它们是在人工智能参照下,人身上呈现出的独属于人的能力。人不但有能力自己创造意义,使自己区别于无意义的机器,而且能够赋予意义,成为无意义的赋义者。体验作为与第一人称相关的能力,使世界成为每个人“感觉起来所是的样子”,因而为世界赋予了多样性。错误是人不能滥用的能力,但它的存在也提醒我们要容许人犯错。与人工智能相比,人还呈现出其他的能力,比如意志力,价值评判能力,对美的感受力等,但是意义、体验和错误却是人的所有能力中最基础的能力,在根本上标志着人与人工智能的差异。

四、结语

人对自身的探索和认识是一场永无止境的思想征程,但这场思想征程若离了参照便无以为继。在历史上,超自然对象、动物、机器、社会和符号等都曾作为重要参照推动和深化了人对自身的认识。在此意义上,人认识自身的过程,就是参照的不断发现和变革过程。当前,人工智能成为人认识自身的新参照,这个新参照不但有助于我们预见未来社会人和人工智能的关系和地位,而且使我们能够在一个新的视角下重新反思以往我们对人的本质的认识和规定。

注释:

① H. A. Simon, Reason in Human Affairs, Stanford: Stanford University Press, 1983, p.33.

②{13} Eric Olson, The Metaphysics of Artificial Intelligence, in Mihretu Guta(ed.), Consciousness and the Ontology of Properties, New York: Routledge, 2019, p.80, p.72.

③ Paul Churchland and Patricia Churchland, Could a Machine Think? Scientific American, 1990, 262(1), p.32.

④ David Chalmers, The Puzzle of Conscious Experience, Scientific American, 1995, 273(6), p.86.

⑤ Fred Dresket, Can Intelligence Be Artificial? Philosophical Studies, 1993, 71, p.202.

⑥ Jerry Fodor, In Critical Condition: Polemical Essays on Cognitive Science and the Philosophy of Mind, Cambridge, MA: MIT Press, 1998, p.204.

⑦⑩ 安迪·克拉克:《人工智能与理性的多面性》,斯蒂芬·斯蒂克、特德·沃菲尔德主编:《心灵哲学》,高新民、刘占峰等译,中国人民大学出版社2014年版,第348、356页。

⑧ J. Haugeland, Semantic Engines: An Introduction to Mind Design, in Haugeland (ed.), Mind Design: Philosophy, Psychology, Artificial Intelligence, Cambridge, MA:MIT Press, 1981, p.23.

⑨ 马文·明斯基:《情感机器》,王文革、程玉婷等译,浙江人民出版社2016年版,第5页。

{11} 尼克:《人工智能简史》,人民邮电出版社2017年版,第3页。

{12} Drew McDermott, Mind and Mechanism, Cambridge, MA: MIT Press, 2001, p.168.

{14} David Cole, Artificial Intelligence and Personal Identity, Synthese, 1991, 88(3), p.400

{15} 高新民:《“BDI模型”与人工智能建模的心灵哲学》,《上海师范大学学报》(哲学社会科学版)2019年第9期。

{16} C·麦金:《神秘的火焰:物理世界中有意识的心灵》,刘明海译,商务印书馆2015年版,第184页。

{17} 王世鹏:《自我研究的“现象学转向”与自我悖论新解》,《学术月刊》2020年第2期。

{18} A. Urquhart, Complexity, in L. Floridi (ed.), The Blackwell Guide to the Philosophy of Computing and Information, 2004, Oxford: Blackwell, p.20.

作者简介:王世鹏,华中师范大学马克思主义学院哲学系教授、博士生導师,湖北武汉,430079。

    (责任编辑  胡  静)

猜你喜欢

可能性人工智能
人工智能之父
2019:人工智能
人工智能与就业
数读人工智能
供应链风险发生大小、发生与持续时间的估计:一个动态贝叶斯的推理网络研究范式
海南省热带花卉文化研究
观念可能性与现实可能性
小学数学《可能性》智慧教育案例设计
下一幕,人工智能!
下一幕,人工智能!