APP下载

范式转变:AlphaGo显露的AI创新奥秘

2017-11-06钟义信

计算机教育 2017年10期

提 要:人工智能(AI)围棋程序AlphaGo的惊人表现给世人带来了众多思考。其中,人工智能研究显露的重要线索是:应当改变“分而治之,各个击破”的机械还原论研究范式,实行“协调发展,优化全局”的信息生态方法论研究范式,才能实现AI的源头创新。

关键词:源头创新;范式转变;机械还原;信息生态;通用人工智能;AlphaGo

1 背 景

人工智能围棋程序AlphaGo从2016年3月登台亮相到2017年5月宣布引退,先后与60多位世界最高水平的人类围棋高手对弈,竟然无人能敌,以惊人的成绩通过了围棋博弈的“图灵测试”,显示了人工智能研究的瞩目进展与成就,也引起了人们对于人工智能创新研究的热烈思考[1]。例如,由于AlphaGo采用了基于深度神经网络的深度学习,于是,业内许多人士便纷纷提出要以“深度学习”作为未来研究的创新方向;由于深度神经网络模拟了人类大脑神经网络的部分结构与算法,于是,又有许多专家提出要把“类脑计算”作为人工智能研究的主要创新方向;同时,由于AlphaGo的深度学习利用了大数据作为学习的样本,于是,很多人认为应当把“大数据”作为人工智能研究的创新方向;由于国内外在无人驾驶方面都取得了令人鼓舞的阶段性成果,于是,研究者们认为“无人驾驶”应当是人工智能研究的创新方向;此外,有更多的研究者相信,人工智能的创新关键在于研究出相应的创新“算法”来解决“群体智能系统”和“人机合作智能系统”等。总之,围棋人机大战引起学术界的创新思维空前活跃,氛围空前积极,令人分外欣喜。

笔者认为,人类大脑是高度复杂的研究对象,素有“小宇宙”之称,因此,以人类大脑能力为目标的人工智能科技创新点必定多种多样。换言之,上述关于人工智能研究创新方向的各种观点和分析都有一定的依据,都值得尝试和探索,而且,这些探索所取得的成果都会具有各自的意义和价值。

不过,如果从当前世界人工智能发展的整体情况来分析,人工智能科学研究最为迫切的创新需求是转变现有的研究范式,实行“以先进的科学研究方法论和能够驾驭全局的研究方法为引领的源头创新研究范式”[2-3]。何以如此?

当今人工智能研究存在的根本问题是:传统科学研究方法论造成了人工智能研究的高度“碎片化”,虽然在一些局部领域呈现了耀眼的亮点,在整体上却依旧迷茫!因此,人工智能的科学方法论急需提升,科学研究的基本方法需要深化,只有这样,才能在人工智能研究的源头上实现意义重大的突破与创新。这就是实行“以先进的科学研究方法论和能够驾驭全局的研究方法为引领的源头创新研究范式”的意义。

2 人工智能研究状况简析

行为总是以思想为先导。分析人工智能的状况,应当从分析它的科学思想开始。

18世纪以来,学界逐渐形成了应对复杂问题的一套方法:分而治之,各个击破。这就是著名的“机械还原”方法论。一般,系统可以分解为“结构、功能、行为”3个基本的维度。本着这种理念,人工智能系统的研究也分解为3个基本方向:1943年问世的基于结构模拟的人工神经网络方向;1956年启动的基于功能模拟的专家系统方向,以及1990年登上舞台的基于行为模拟的感知动作系统方向。

2.1 结构模拟的人工智能研究[4-9]

虽然“人工智能”这一术语是1956年Dartmouth研讨会上提出的,但是,人工智能科学研究的第一座里程碑标志却是1943年McCulloch和Pitts联合发表的“人工神经元数理逻辑模型”。正是它,开创了“结构主义人工智能”—— 人工神经网络的研究方向和进路,即通过模拟人类大脑皮层神经网络的结构及其学习算法来实现人工智能。它的示意性原理如图1所示。

图1中的人工神经网络的“硬件系统”就是由大量人工神经元及其互相之间错综复杂连接构成的网络系统,它的“软件系统”是调度这些人工神经元工作的学习算法,通过对训练样本的学习获得解决问题的经验性知识。

人工神经网络的研究取得了不少进展和成果,时下最受关注的“深度学习”是其中最杰出的代表。同样值得提到的是,欧盟一直在大力支持和推动的“蓝脑计划”——要在实验室研制一种与人类大脑皮层具有同样复杂度的人工大脑,希望能够表现出可以比拟人类大脑的智能水平。

理论上,通过对人类大脑皮层神经网络系统的模拟来实现人工智能虽然十分复杂,但却是一条充满成功前景的进路,因为,人类自身的高级认知功能就是定位于大脑皮层的神经网络。

不过,结构主义人工智能的最大悬疑是:人们对于人类大脑皮层神经网络的学习算法(这是控制大脑神经网络工作的一只“看不见的手”)的了解还相当有限。因此,即使把大脑皮层神经网络这个硬件系统全部模拟出来了,如果不能充分理解和把握那只“看不见的手”,也还是不可能到达模拟的“彼岸”。

2.2 功能模拟的人工智能研究[10-19]

到1956年,人工神经网络研究取得了缓慢的进展,而问世10年以来的电子计算机却显示了强大的计算和模拟能力。于是,当年聚集于Dartmouth研讨会的学者们很自然想到“利用计算机作为硬件平台,通过编制聪明软件来模拟人类智力功能(当时主要关注的是人类的逻辑思维功能)”。這便成为“功能主义人工智能”的基本信念。

功能主义人工智能研究最初雄心勃勃,宣称它可以解决“通用问题”。后来发现求解通用问题的难度超乎想象,于是退而转向求解专门问题的“专家系统”。图2示出了专家系统的功能示意模型。

模型显示,专家系统把专家知识经过适当表示存入知识库,通过推理系统为用户生成解决问题的策略。所以,专家系统的核心是专门领域专家的知识(通常表现为规范性知识),同时需要通过推理来活用专家提供的规范型知识。

功能主义人工智能已经发展了一些能够通过图灵测试的专家系统。战胜国际象棋世界冠军的Deeper Blue、战胜问题抢答全美冠军的Watson和战胜60多位围棋世界高手的AlphaGo是其中的佼佼者。endprint

功能主义人工智能的最大问题是,认为计算机与人脑功能等效的“物理符号假设”存在巨大漏洞:计算机不具备情感功能和意识功能!计算机与人脑两者在功能上不等效,导致功能主义人工智能研究存在情感与意识盲区。

2.3 行为模拟的人工智能研究[20-22]

20世纪的80年代,人工神经网络的研究面临着“结构复杂性”和“网络学习算法神秘性”的麻烦,专家系统的研究则遭遇“知识瓶颈”和“情感与意识漏洞”。为了回避这些困难,人们提出了行为主义人工智能研究的思路。行为主义人工智能只需要关注模拟智能系统的外部行为,即:当系统受到某种外来刺激的时候能够产生恰当的动作。这就是“感知-动作系统”。它的示意性原理模型如图3所示。

如图3的模型所示,当系统的输入端受到某种模式作用的时候,只要模式识别系统能够识别出输入模式的具体类型(模式分类),系统就根据事先确定的规则自动启动相应的动作响应。联系“模式”与“动作”的是事先存入的常识性知识。

行为主义人工智能的研究也取得了不少成果,现今的许多机器人就属于这种感知动作系统。它的优点是相对而言比较容易实现,相应的缺点是只能实现相对简单的浅层智能;而为了实现深层的智能,还是难以摆脱结构主义人工智能或功能主义人工智能的道路。

2.4 三大方向的問题症结

以上所述的结构主义、功能主义、行为主义三种研究路径,代表了当今人工智能研究的基本情形。除了在前文分别指出的那些成就与问题之外,三大研究路径共同面临的问题是:虽然三种研究方法都是以“人工智能”为自己的研究目标,但是它们按照“分而治之,各个击破”的机械还原方法论分解出来之后便各自发展,各持所强,互相排斥,互不合作,未形成合力[20-26]。

所以,当今人工智能研究的总体状况是:个别很精彩,整体很迷茫。问题的实质是:机械还原方法论的研究范式掩盖了系统在结构、功能、行为之间内在的深层本质联系,迷失了人工智能研究的整体精髓。

这正是当今人工智能研究需要突破的最大瓶颈,也是当今人工智能源头创新需要解决的关键问题。换言之,从整体上看,当今人工智能研究的重点,不在于如何选择具体的技术项目,而是首先要在科学方法论和研究方法的范式上实现重大的突破!

3 信息生态方法论

人工智能研究面临“方法论的突破”,这并非人工智能研究所特有的问题,而是整个信息科学面临的基本问题。人工智能的研究是信息科学的核心、前沿和制高点,因此方法论和研究范式的转变问题在这里表现得特别突出[3]。

当今的时代是信息时代,这是由工业时代发展而来的一个崭新时代。工业时代的标志性学科是基于物质和能量概念的经典物质科学,信息时代的标志性学科是基于信息和智能概念的现代信息科学。

经典物质科学和现代信息科学的科学观念和方法论之间,既存在天然的联系,又存在原则的区别。这是基本的事实。如果忽略了这些联系与区别,信息科学和人工智能的研究工作就必然会遇障碍,走弯路,甚至走错路。

麻烦在于,包括笔者在内的国内外广大人工智能研究人员,几乎都是在经典的科学观和方法论的沐浴下成长起来的,因此,自然而然地习惯于运用自己所熟悉的经典物质科学观念和方法论去研究和处理现代信息科学特别是人工智能研究的问题。实际情况表明,当今人工智能研究面临的基本问题,正是忽略了经典物质科学与现代信息科学之间的这些联系与区别。表1显示了这些联系与区别。

表1 经典物质科学与现代信息科学的比较比较项 经典物质科学 现代信息科学

基本的科学观 机械唯物论 辩证唯物论

观念1 相对孤立的客体 互相联系的客体

观念2 相对静止的客体 不断发展的客体

观念3 客体与主体隔离 客体与主体互动

相应的方法论 机械还原方法论 信息生态方法论

由表1可见,现代信息科学(包括人工智能)的研究需要运用辩证唯物的科学观和与此相应的信息生态方法论,这是一种全新的研究范式。

信息生态方法论的精髓是:与“分而治之”的机械还原方法论相反,信息生态方法论高度关注系统各要素之间的相互关联(而不是相互孤立)以及系统与其环境之间的相互关联(而不是相互孤立),以此来保障系统的良性生态发展。

具体来说,信息生态方法论强调,在主体与客体相互作用的框架下,信息不是一种固定不变的对象,而是在主体不断加工处理之下表现为一个生态链的过程(简称为生态过程):客体信息→感知信息→知识→智能策略→智能行为,如图4所示[2]。

图4的信息生态过程模型中,符号K、G、Y、N分别表示知识、目的、有效、无效。模型清晰地揭示了:在主客相互作用的过程中,信息是如何生成智能(体现为智能策略和智能行为)的,同时也表明了高等的智能乃是意识、情感和理智的三位一体。

信息、知识与智能的关系,意识、情感与理智的关系,这些都与传统人工智能的认识大相径庭!

科学观和方法论的转变,引出了关于信息和智能的全新认识,也引出了一种全新的研究范式:以信息科学观和信息生态方法论为引领的全新范式。

4 机制主义研究方法与AlphaGo

信息科学观和信息生态方法论对信息、知识和智能做出了全新的认知,这是引导信息科学和人工智能研究走上正确道路的重要基础。进一步的问题是要有与此相适应的具体研究方法(approach)来实施。这就是本节要研究的问题。

不难理解,无论对于任何系统,它的结构、功能和行为虽然都很重要,但都不是决定性的要素。只有“工作机制”才是驾驭和主宰系统全局的统帅,系统的结构和功能都是为实现系统的机制服务的;行为则只是机制实现的外部表现[3]。

那么,什么是人工智能的“工作机制”呢?endprint

如上所言,人工智能系统的工作机制,不是图4中的那些物质模块的简单堆积,也不是那些物理功能的直接累加,而是那只抽象的、无处不在而又驾驭着系统全局且控制着整个生态过程的“看不见的手”:

“客体信息→感知信息→知识→智能策略→智能行为”转换 (1)

或者更简洁地表示为

“信息→知识→智能”转换 (2)

这些转换能够通过数学方法和逻辑算法进行描述,通过技术工具加以实现。因此,人工智能系统是一个可认识、可描述、可理解、可把握、可实现的技术系统。

就像“结构模拟的人工智能研究方法”“功能模拟的人工智能研究方法”和“行为模拟的人工智能研究方法”那样,可以把按照式(1)或式(2)的工作机制实现的人工智能系统方法称为“机制模拟的人工智能研究方法”,或者稍微普遍化一些称为“机制主义人工智能研究方法”[2-3, 27-29]。

颇为发人深省的是,上述4种人工智能研究方法之间存在如表2所示的关系。

根据“知识的生态学原理”,经验型知识可以生长成为规范型知识,它们两者又可以生长成为常识型知识,因此,机制主义方法的A型、B型、C型之间是“相生(而不是相克)”的关系。这个情形还可以通过图5更加直观地表现出来[27]。

图5显示了人工神经网絡、专家系统、感知-动作系统之间的相生关系,而它们相生的结果便融入了机制主义人工智能系统的框架。这就表明,数十年来,机械还原方法论给人工神经网络(结构主义方法)、专家系统(功能主义方法)和感知动作系统(行为主义方法)蒙上的相克关系是被扭曲和强加的;只有信息生态方法论才恢复了它们本来应有的相生的关系。

总之,表2和图5的结果都表明,人工神经网络(结构主义)、专家系统(功能主义)和感知动作系统(行为主义)本来就应当和谐相生,并且融为机制主义的人工智能,从而达到最优的水平。

与历来的机器博弈专家系统不同,AlphaGo不再仅仅恪守“功能主义人工智能”的固定条框,而是一方面按照功能主义人工智能的“搜索策略”来生成各种可供选择的博弈策略,另一方面却采用结构主义人工智能(深度神经网络)来学习各种博弈策略所具有的经验优度,并根据得到的结果来决定实际执行的策略,从而实现了功能主义人工智能与结构主义人工智能两者的相生互动,因而表现了更加高超的智能水平。

AlphaGo所实现的,虽然不是完整的“机制主义人工智能”,只是其中人工神经网络与专家系统两者的融合而不是三者,但这已经证明:能够实现结构主义、功能主义、行为主义三者和谐相生的机制主义方法,才是目前所知晓的最为优秀的人工智能研究方法。

这就是说,AlphaGo在围棋人机大战中所取得的胜利,显露(也证实)了人工智能研究源头创新的奥秘:改变原有机械还原方法论的研究范式,实行信息生态方法论和机制主义方法的新范式,才能实现人工智能研究的源头突破与创新。

不仅如此,可以证明,机制主义人工智能研究方法不但可以实现结构主义人工智能研究方法、功能主义人工智能研究方法、行为主义人工智能研究方法的和谐融合,而且可以实现基础意识、情感、理智的和谐融合。这就是人们追求的通用人工智能理论和方法。它的学术本质就是机制主义的人工智能。对此有专门兴趣的读者,可以参阅文献[2,29-30],它的逻辑、系统和数学基础可参阅文献[31-33]。

5 结 语

激动人心的围棋人机大战在学术界和舆论界激起了轩然大波,与此相关的论文和报导不计其数。

对于人工智能科技工作者来说,AlphaGo透露了人工智能实现源头创新的重要线索:以“机械还原方法论”和“局部(结构、功能、行为)模拟方法”为标志的传统研究范式转变为以“信息生态方法论”和“全局(机制)模拟方法”为标志的现代研究范式。

这方面的论文尚未见到。本文对这种转变作出了详细(篇幅所限,远非详尽)的分析和阐述,希望引起关注和讨论。

参考文献:

[1] 钟义信. 人工智能:热闹背后的门道[J]. 科技导报, 2016, 34(7): 14-19.

[2] 钟义信. 高等人工智能原理: 观念·方法·模型·理论[M]. 北京: 科学出版社, 2014.

[3] 钟义信. 信息科学技术导论[M]. 3版. 北京: 北京邮电大学出版社, 2015.

[4] McCulloch W C, Pitts W. A logic calculus of the ideas immanent in nervous activity [J]. Bulletin of Mathematical Biophysics, 1943(5): 115-133.

[5] Rosenblatt F. The perceptron: A probabilistic model for information storage and organization in the brain [J]. Psych. Rev., 1958, 65. 386-408.

[6] Hopfield J J. Neural networks and physical systems with emergent collective computational abilities [J]. Proc. Natl. Acad. Sci. 1982, 79: 2554-2558.

[7] Kohonen T. The self-organizing map [J]. Proc. IEEE, 1990, 78(9): 1464-1480.

[8] Kosko B. Adaptive bidirectional associative memories, applied optics [J]. 1987, 26(23): 4947-4960.endprint

[9] Rumelhart D E. Parallel Distributed Processing[M]. Cambridge: MIT Press, 1986.

[10] McCarthy J. Proposal for the Dartmouth summer research project on artificial intelligence[R]. Dartmouth College, 1955.

[11] Simon H A. The Sciences of Artificial [M]. Cambridge: The MIT Press, 1969.

[12] Newell A. Physical symbol systems[J]. Cognitive Science, 1980( 4): 135-183.

[13] Turing A M. Can machine think? [C]//Feigenbaum E A, Feldman J. Computers and Thought. New York: McGraw-Hill, 1963.

[14] Newell A, Simon H A. GPS, a program that simulates human thought [C]//Feigenbaum E A, Feldman J. Computers and Thought. New York:McGraw-Hill, 1963: 279-293.

[15] Feigenbaum E A. The art of artificial intelligence: Themes and case studies in knowledge engineering[C]. IJCAI 5, 1977: 1014-1029.

[16] Feigenbaum E A, Feldman J. Computers and Thought [M]. New York :McGraw-Hill, 1963.

[17] Newell A, Simon H A. Human Problem Solving [M]. Englewood Cliffs: Prentice-Hall, 1972.

[18] Nilsson N. Principles of Artificial Intelligence[M]. Berlin: Springer-Verlag, 1982.

[19] Minsky M L. The society of mind[M]. New York: Simon and Schuster, 1986.

[20] Brooks R A. Intelligence without Representation[J]. Artificial Intelligence, 1991(47): 139-159.

[21] Brooks R A.Elephant cannot play chess[J]. Autonomous Robert, 1990(6): 3015.

[22] Brooks R A. Engineering approach to building complete, intelligent beings [C]. Proceedings of the SPIE, 1989(1002): 618-625.

[23] Minsky M, Papert S. Perceptron[M]. Cambridge: MIT Press, 1969.

[24] Papert S. One AI or many?[J]. CJJ. Daedalus, 1988, 117(1): 1-14.

[25] Russell S J, Norvig P. Artificial Intelligence: A Modern Approach [M]. New York: Pearson Education, Inc., 1995.

[26] Nilsson N J. Artificial Intelligence: A New Synthesis [M]. New York:Morgan Kaufmann Publishers, 1998.

[27] 鐘义信. 机器知行学原理: 信息、知识、智能的转换与统一理论[M]. 北京: 科学出版社, 2007.

[28] 钟义信. 信息转换原理: 信息、知识、智能的一体化理论[J]. 科学通报, 2013, 58(14): 1300-1306.

[29] Zhong Y X. Information conversion with intelligence creation: The law that governs the information discipline[J]. International Journal of Cognitive Informatics and Natural Intelligence, 2015, 9(3): 25-41.

[30] 钟义信. 人工智能: 概念, 方法, 机遇[J]. 科学通报, 2017,62(22): 3473-2479.

[31] 何华灿. 泛逻辑学原理[M]. 北京: 科学出版社, 2001.

[32] 涂序彦. 协调学[M]. 北京: 科学出版社, 2012.

[33] 汪培庄. 因素空间方法与知识表示[J]. 模糊集合系统, 1990(36): 113-124.

(编辑:彭远红)endprint