APP下载

人工智能视野下的知识体系修正理论

2022-03-18任晓明林艺霏

关键词:修正信念逻辑

任晓明, 林艺霏

(南开大学 哲学院,天津 300350)

信念有两种含义,一种与信仰体系有关,另一种与知识体系有关。信仰体系中的信念是人们通过理性思维在情感上接受一种观念,并以这种观念指导实践,这种信念有正确和错误之分,实践可以检验信念正确与否。知识体系中的信念没有明确的正、误之分,因为人的认知具有片面性,不可能以全知的视角获得无误的、完全的知识,所以我们得到的知识存在缺陷,因此知识体系也不会完美无缺,随着人们对客观世界的了解,知识体系也处于不断修正的过程中,知识体系中的信念也是不确定的,处在不断变化中。从人工智能的视角看,知识体系修正具体表现为信念修正。在人工智能中,知识体系常常处于一种动态调整的状态中,这种认知状态的调整主要是信念修正。作为认知状态的信念常常处于一种平衡、一致的状态中,但当输入与环境等因素破坏了这种平衡、一致的状态时,就需要对信念进行修正,从而恢复新的平衡、一致的状态。因此,信念修正理论就是对主体知识体系信念的动态变化加以形式化的理论。信念修正概念源于人工智能,信念修正理论的发展与人工智能的发展密不可分。正是人工智能的发展需要,才促使人们更加关注知识体系信念修正理论(1)近年来,逻辑学界对信念修正的研究主要集中在以下几方面:1.AGM理论研究,如《现代哲学》2005年第1期刊发的《信念修正的AGM理论》等。2.信念修正模型的构建与比较,如《哲学动态》2017年第4期刊发的《信念修正的逻辑》和2015年第3期刊发的《社会网络中信念修正的几个问题》,《逻辑学研究》2014年第1期刊发的《信念修正中的一种新型评价算子研究》等。3.信念修正理论与模型的应用,如《哲学分析》2019年第5期刊发的《逻辑心理主义:一种信念修正的视角》,《逻辑学研究》2019年第2期刊发的《信念修正视域下的悖论研究初探》,《哲学动态》2005年第3期刊发的《信念修正的理论与方法》等。。本文从人工智能的视角探讨信念修正,是逻辑与认知科学研究的应有之义。

一、知识体系修正理论与人工智能的结合

人工智能自诞生之日起就被寄予了厚望,但经过20年的努力,其成果远未达到最初的预期,这引起人工智能学科内部的质疑和辩论。在20世纪70年代末和80年代初,研究者对人工智能系统基础稳定性的质疑引起了他们对数据库的关注。

1983年,费京(Fagin)等人指出数据库更新是所有数据库管理系统的基础。由于很多用户并不直接更新数据库,而只更新数据库中的一个视图,然后再由视图的更新转化为数据库的更新,可是这种转化本身就存在着模糊性,所以数据库更新问题仍然需要进一步解决。为此,他们构建了一个模型,即把数据库看作是一阶逻辑中陈述的一致集。当有人试图改变数据库的陈述时,便有多个新数据库可以同时实现这种更新,所以必须在这些新数据库中进行选择,尤其是选择对原数据库改变最小的新数据库。[1]353对此,他们就完成数据库更新提出了两条建议:一是采用“数据库优先”概念,在所有可能的数据库中挑选出最小改变的子集;二是用被挑选的数据库的交集更新数据库。[1]357这些观点与AGM理论不谋而合。

AGM理论是信念修正的经典理论,它是以3位创始人卡洛斯·阿尔罗若(Carlos Alchourrón)、皮特·加登福斯(Peter Gärdenfors)和大卫·梅金森(David Makinson)的姓名命名的理论。(2)参见:C.E.Alchourrón, P.Gädenfors and D.Makinson.On Logic of Theory of Change: Partial Meet Functions for Contraction and Revision.Journal of Symbolic Logic, 1985, 50(2), pp.510-530.加登福斯等人对主体信念的动态变化加以形式化,用句子表示信念,用逻辑上封闭的句子集合(或信念集合)表示信念状态。他们认为信念改变有扩张、收缩和修正3种基本类型,而这些都可以看作是从信念集合与句子的对子到信念集合的函数。人工主体(agent)使用这种函数可以实现数据库的改变。但这种函数并不是任意的,它需要满足一些合理化条件。加登福斯等人设置了扩张函数的6个公设、收缩函数的8个公设以及修正函数的8个公设,满足这些公设的函数就可以合理地实现信念的改变。他们认为,信念集合中的任何信息都不是凭空得到的,所以当信念改变时应当尽可能地减少信息损失,这就是信息经济性原则或最小改变原则,尤其是当信念收缩时,在信念集合中不仅要删除不一致的信念,还要删除蕴含该信念的其他信念,最终使信念集合不再推导出不一致的信念,这就需要本着最小改变原则进行适当的收缩。为了实现这种收缩,加登福斯等人通过认知牢固性的假设,挑选出一些认知牢固性更强的不包含已出现不一致信念的信念集合,取它们的交集作为收缩之后的信念集合。AGM理论这种最小改变原则和取交集的方法与人工智能解决数据库更新问题的思想是异曲同工的。

费京等人在解决数据库问题的过程中,也认识到这既是数据库的更新问题,也是知识库的管理问题。从人工智能的角度看,这正是信念修正的逻辑问题。[1]352-365此后,很多学者对出现不一致的数据库更新问题进行了研究,但没有提出合适的解决途径。

多伊尔(Doyle)是在人工智能中融入信念修正概念的先驱。他在很早的时候就已经意识到数据库更新的问题。结合信念修正理论,他在1979年构建了一个真维持系统(Truth Maintenance System,TMS)。该系统的目标是,当一个数据的新证立出现时,系统在添加这个数据之后,依然可以维持这个系统的一致性。一方面,多伊尔把选择添加数据的行动过程表示为推理形式,将推理机的期望和意图表示为相关的信念,将推理规则表示为推理机信念集合的自我修改规则,而选择行动的控制过程就是把自己看作是一个信念集合,然后选择自己想成为什么样的一个新信念集合的过程。[2]233-234另一方面,他对信念系统和非单调逻辑进行了形式研究。在传统观念中,推理过程是从旧知识推导出新知识的过程,这个过程具有单调性,但人们在实际推理过程中常常会遇到不一致的情况,也就是说旧结论不会因为新证据的增加而被巩固,反而有可能会被抛弃,这种改变是非单调的。为了修正当前信念集合,多伊尔提出一种机制,这种机制也是为非单调假定提供的一种方法。[2]232-233人工智能研究者早就意识到人工智能必须做出这种非单调的假定,但相关研究较少,有关信念修正的大多数工作似乎被限制在与状态和行动有关的更为简单的系统上操作的回溯算法的研究。[2]231-2721980年,多伊尔和伦敦(London)将与信念修正相关的236个文献进行了主题分类,这些文献涉及人工智能、哲学、逻辑学和心理学等领域。[3]7-22这些研究拓宽了信念修正理论所覆盖的研究领域。

与此同时,作为人工智能创始人之一的纽厄尔(Newell),在1980年的美国人工智能协会会议的报告中提出,在计算机系统的符号层次上还有一个知识层次。这一知识层次的主体以合理性原则处理知识,在一定范围内决定执行哪些行动,最后实现系统目标。他认为逻辑是知识层次的分析工具,可以用来分析主体所知。[4]125在他看来,人工智能领域的研究者应该优先考察知识表示和推理的议题。[4]87-127受该议题的影响,第一届关于知识推理理论(Theoretical Aspects of Reasoning about Knowledge,TARK)会议于1986年3月召开。在这次会议上,哈尔彭(Halpern)提出,知识推理研究的大部分模型都或明或暗地假定了主体接收的信息会有一致性,但在设计知识库时,用户遇到不一致信息的可能性还是存在的。但由于问题太复杂,他没有尝试涉足该领域。[5]12-13

正是由于数据库问题研究的推动、多伊尔工作的示范作用以及知识表示和在推理中对逻辑工具的强调,使得人工智能领域开始关注信念修正问题。

1986年,莱韦斯克(Levesque)在《知识表示与推理》[6]255-287一文的参考书目中提到了AGM理论,这是人工智能研究领域第一次提到AGM理论,但并没有带来多大的影响[7]18。直到1988年第二次关于知识推理理论的会议,加登福斯(Gärdenfors)等人在《使用认知牢固性的知识系统的修正》的报告[8]83-95中,才将AGM理论正式介绍给人工智能学术共同体。此后,信念修正理论开始被人工智能领域的研究者所关注。同年,达拉尔(Dalal)在美国人工智能协会会议的报告中,较为详细地探讨了AGM理论。他首先提出用等价描述符号层次(equivalent symbol level description)的语法方法来修正知识库,从而使知识库在面对矛盾时能维持一致性;其次他为这种修正制定了一系列非形式化原则;最后他将自己的工作方法与其他方法,特别是AGM理论的方法进行了比较,认为自己的修正满足AGM理论的所有公设。[9]475-479

AGM理论的研究者提出的构造信念改变的有效方法、信念改变的三种基本形式以及信念修正的合理性条件能够克服人工智能领域中信念修正理论的符号层面的特设性问题、单纯的描述性问题以及纯粹的公理化问题,从而既可以在知识层面处理不一致的新信息,也可以应用于知识的表示和推理,同时它还能够满足最小改变原则,在一定程度上能够解决数据库的更新问题。所以AGM理论成为人工智能用形式的方式处理不一致信息问题的操作范式。

二、知识体系修正研究推动人工智能的发展

自从信念修正理论登上人工智能的舞台以来就发挥着重要作用。人工智能研究者借助信念修正理论来解决人工智能领域中的问题,这突出表现在数据更新和自动修正两个领域。

其一,数据更新。机器学习涉及数据更新。机器学习模仿的是人类学习的方法。一方面,人类在学习新事物的过程中会记住最关键的部分,而逐渐忘记次要部分;另一方面,人类知识会被不断地修改,以把握事物的规律性。[10]166-168在机器学习中,主干系统会留下直接数据,而过去的数据记录则会被定期淘汰;而在机器学习之前,为了创建训练数据,研究者会考虑这个数据对数据分布或预测结果的影响,然后进行数据净化或数据变换的工作以提高数据质量,从而被整合成适合学习的数据。信念修正理论可以被用于新的训练数据的创建过程,在对训练数据进行变换时,研究者要找出异常值或误记录进行修正,而信念修正理论有助于他们处理这种不一致信息的问题,而在淘汰旧数据记录的过程中,研究者可以借助信念修正理论,根据淘汰数据可能带来的结果,考虑数据库的收缩问题。

其二,自动修正。机器的自动修正与检测系统正确性的自动验证(automated verification)技术密切相关。自动验证中最具有代表性的方法是模型检测(model checking)技术。这个技术被应用于通信协议、电路设计和数字控制器等复杂的工业设计中,研究者可以通过这一技术检测出设计中的细微错误,并且定位错误。[11]37-38目前,模型检测技术已经比较成熟,其中的符号模型检测(symbolic model checking)技术已经被英特尔、摩托罗拉和富士康等公司使用。[12]57-104但是模型检测技术只能发现系统描述的错误,而改正系统工作则要由设计者完成,所以为了突破这种局限性,研究者把模型检测工具与更正系统能力结合起来,形成自动系统修正技术。这种自动修正技术主要包括描述、验证、模型修正和系统修正4个步骤。前两步可以由模型检测完成,其中最重要的步骤就是模型修正,即如果M|≠φ,那么在满足φ的模型中找出一个与M最接近的模型M′,其中M是由系统S建模成的一个语义结构,公式φ描述了需要检测的属性P。从这一定义中,我们可以看到,模型修正要尽可能地保持系统的原有属性,对原系统做出最小的改动,从而找出最接近原模型的新模型。所以,研究者需要定义系统更正中可接受的操作类型集,然后定义模型之间的近似性,从而找出与原系统最接近的模型。[11]37-38而这正是运用了AGM理论的最小改变原则,尽可能少地减少原有模型的损失。

除了经典的AGM理论,信念修正理论还引入了新的操作类型。1992年,胜野(Katsuno)等人区分了修改知识库的两种概念,即更新和修正。所谓更新是指,当被表征的世界发生变化时,知识库也要根据这种变化进行更新。而修正则是指,当知识库获得了关于静态世界的新信息时,主体就需要对知识库进行修改。他们对这两种概念的区别进行了形式化处理,借鉴AGM理论的方法对更新进行了公理化处理,并提出了信念更新的8条公设。他们假定这些公设定义了一种偏序关系,然后把握信念更新的最小改变原则。[13]183-203正是基于胜野等人对更新和修正的区别,研究者在研究自动修正系统时也关注了这两个问题。

一是更新问题。张岩等人将知识更新与计算树逻辑(Computational Tree Logic,CTL)、模型检测相结合,尝试找到表示自动修正系统的通用方法。首先,他们提出计算树逻辑模型更新的形式框架,并在这个框架中定义了5种原始的更新操作,即增加一个关系元素,删除一个关系元素,改变标记函数上的一个状态的取值,增加一个状态和删除一个状态,并基于这些更新操作,规定了计算树逻辑模型更新的最小改变原则。他们证明这种计算树逻辑模型更新遵守了胜野等人定义的8条更新公设,并探讨了计算树逻辑模型更新与传统信念更新的关系。其次,他们提出计算树逻辑模型更新的一种形式算法,这种算法可以对给定的计算树逻辑模型进行一组最小的修改,以满足任意给定的计算树逻辑公式,并产生一个满足该公式的新的计算树逻辑模型,这一模型与原始模型的差异最小。最后,他们研究这种计算树逻辑模型更新方法的应用问题,并提出最大可达(reachable)状态的最小改变的更新原则,这一原则可以显著改善复杂系统修改场景下的更新结果。[14]113-155

二是修正问题。圭拉(Guerra)等人在张岩等人的模型更新方法的基础上,用信念修正理论处理静态语境中的系统不一致问题。一方面,根据信念修正理论,他们借助这种模型修正方法对计算树逻辑的改正提出建议,但由于信念修正理论的一些假设不适合计算树逻辑,所以他们研究了把信念修正理论应用于计算树逻辑的正确方式。另一方面,模型修正要求全局观,以保证其中一个修正是最好的选择,但是张岩等人的函数无法满足这一要求,所以这个函数可以用于模型更新,而不能直接用于模型修正。对此,他们提出了一种新的修改函数集合和计算树逻辑修正的算法,为每个输入模型生成一组可能的修改模型,然后对它们进行细化,再根据定义的排序标准,消除所有非最小的模型,最后根据他们的模型修正原则得出一组表示最小修改的模型。[15]2810-2811

由此可以看到,在这种自动系统修正技术中,模型检测无论是与更新概念结合,还是与修正概念结合,都借鉴了AGM理论,尤其是AGM理论的最小改变原则。模型修正技术更是直接使用信念修正理论处理静态语境问题。由此可见,信念修正理论对自动修正技术的支持和启发作用是显著的。

三、人工智能推动下知识体系修正研究的新方向

信念修正理论解决的是当新信息与信念集合中的信念不一致时,应该如何改变信念的问题。人工智能和逻辑学研究都提出了大量的替代AGM理论的框架,以各种方式概括或偏离AGM理论。但这样发展起来的信念修正理论存在两个问题:一是它们只涉及确定会被接受的新信息出现之后的情形,也就是说,当主体开始相信新信息时,就已经暗地里假定了它们是评估之后被挑选出来的信息,尤其是在AGM理论中新信息优先的公设(Success公设)使得输入的新信息总是可以被接受的。但是为什么要接受这个信息而不是那个信息?如何评估信息是否被接受以及接受的原因,则是AGM理论无法处理的问题。二是AGM理论演绎后承封闭的假设太过理想化,在这样的封闭框架中,信念是明确的,信念集合始终是一致的,由此推导出的结论也是确定的。但实际上,人们在从外部世界获得新信息过程中,本身所拥有的知识集合并不完整,而且很多知识本身也是模糊的,随着情境、知识和信息的变化,信念也会随之变化,人们常常遇到信念出现不一致的情况,但在这样一个不完整、不确定和不一致的情形中,人们仍然可以做出推理,得到可接受的结论。在人工智能领域,人工主体所具有的数据也不可能是完整的,且数据更新频繁,在海量数据中也常常出现不一致的情况。所以人工智能界尤其关注在不完整、不确定和不一致的环境中进行合理推理和决策的问题。面对以上问题,我们在信念修正中引入了论辩(argumentation)。

古希腊时期哲学界就已经有了对论辩的讨论。所谓论辩就是主体提出一个观点,然后给出论证,证立该观点并说服别人接受。这个观点对于别人来说就是新信息,论辩的重点是主体给出新信息的解释或原因。论辩和信念修正是推理过程密不可分的两个环节。

推理过程是从接收新信息到提出足够似真的信念,然后据此做出决定的过程,大致分为接收新信息、评估新信息、信念改变和推论4个基本步骤。[16]39-40例如,某人想去某地滑雪。她知道下雪会封路,所以她从多个信息源收集信息,从而决定是否前往。她的推理过程如下:第一步,接收如下信息:(1)天气预报显示,由于暴风雪,降雪可能较多;(2)当地旅游部门通知,该路开放,因为有清雪机;(3)在新闻中,一位滑雪工说,路上积雪很多,机器太少不足以清路。[16]40第二步,对(1)(2)(3)进行评估。这3个新信息分别来自天气预报、旅游部门和新闻,因为不同信息源的时效性不同,天气预报和新闻时效性更强,旅游部门的时效性滞后,所以(1)和(3)更可靠。因此,主体决定将(1)和(3)并入她的信念。第三步,根据接收的新信息改变信念。由于(1)和(3)与原有信念并不冲突,所以可直接进行信念扩张,把它们添加到信念集合中。第四步,推断自己是否前往。因为(1)和(3)与“下雪会封路”的信念会推导出“今天封路”的信念,这个信念指导了主体的行动,最终她没有去滑雪。通过这个例子,我们可以看到,在推理过程中,论辩和信念修正分别在评估新信息和信念改变中发挥作用。主体在面对一系列新信息时,会对这些信息进行评估,给出支持或反对该信息的论证,然后决定接受哪些信息,这样的论证过程就是论辩。主体通过论辩得出接受某些信息的决定之后,再通过信念修正对信念集合进行扩张、收缩或修正,从而容纳新信息。由此可见,信念修正和论辩在推理过程中是密切联系的。

过去人们对论辩的研究集中在非形式化领域,1995年,攀·明·杜恩(Phan Minh Dung)提出一种抽象论辩框架和基于外延的论辩语义,才构成了论辩系统的形式体系,[17]1杜恩在论辩系统中既不讨论论证的内部结构,也不讨论论证是怎么来的,他把论证看作原子概念,对支持或反对新信息的论证进行评估,从而测试这种新信息是否可以被接受。例如,主体基于新信息“约翰生活在陆地上”,根据推理和观察可以得到两个论证,即“因为约翰是一只哺乳动物,所以它生活在陆地上”和“因为约翰是一只虎鲸,所以它没有生活在陆地上”。前者是支持论证,后者是反对论证,又因为后者更具体,它的优先级必然高于前者,所以反对论证击败了支持论证,因此新信息被拒绝。根据这一思路,研究者在论辩系统中首先构建由推理知识和观察信息所组成的可废止理论(Defeasible Theory),然后根据该理论构造论证,比较论证之间的攻击关系和优越性,评估这些论证是可接受的、应该拒绝的还是未确定的状态,[17]7最后决定新信息是否被接受。值得注意的是,可废止理论的推理知识和观察信息都是不确定的,例如,“在一般情况下,哺乳动物生活在陆地上,例外情况除外”,也就是说,这里描述的是大多数情况下的情形,不考虑少数特殊情况下的情形,所以可废止理论中的知识不是确定不变的。借助可废止理论和对新信息的论证,论辩系统在一定程度上可以应对人工智能在不完整、不确定和不一致的动态环境中合理地进行推理和决策的问题。事实上,论辩系统也的确在人工智能领域发挥着越来越重要的作用,并且受到人工智能共同体的重视。一方面,论辩的形式系统被应用于人工智能领域,如逻辑程序的语义定义、说服医疗诊断系统和多主体对话系统等。另一方面,许多科学杂志和会议也讨论了论辩的主题,如《国际智能系统杂志》,《人工智能》以及第17次人工智能逻辑欧洲会议(3)2021年5月17日至20日在线上举行的第17次人工智能逻辑欧洲会议(The 17th European Conference on Logics in Artificial Intelligence)。等。

正是由于论辩与信念修正的密切关系以及论辩系统对不确定知识的处理和提供论证的能力,这两者的结合才有助于解决信念修正理论所面对的问题。早在真维持系统中,信念修正理论就借助论辩展开推理维护工作。真维持系统是一个问题求解程序的子系统,它可以表示信念和信念之间的证立,具有恢复一致性的能力。[2]真维持系统用节点(node)表示信念和证立,这个证立就是支持信念的原因,在这个意义上,我们可以把证立看作是论辩。法拉帕(Falappa)等人将解释的概念引入信念修正理论,同时将信念收缩放在论辩系统中进行处理。他们认为解释的主要作用是使事实合理化,当面对一个陈述时,主体并不信任它,但是如果给主体提供了关于该陈述的解释A,那么她就会获得关于这个陈述的信念。然而解释使事实合理化的特征却不能在AGM理论中建模,因为AGM理论只包含扩张和修正这两种接受新信息的机制,这两种机制都满足新信息优先的公设(Success公设),根据这个公设,输入的信息总是会被接受的。因此,法拉帕等人构建了非优先化信念修正算子,可以更好地在信念修正中说明解释。此外,信念收缩所删除的信念并不是凭空而来的,为了减少收缩时信息的损失,他们提出可以将被删除的信念作为可废止的规则保留在信念集合中,而能处理这种可废止规则的形式体系正是论辩系统。借助论辩系统,他们为信念收缩定义了新的认识模型。[18]1-28法拉帕等人对解释概念的引入在一定程度上为信念改变提供了依据,他们使用论辩系统保留不一致的信念,突破了AGM理论对一致性的理想假设,为在不完整、不确定、不一致的环境中进行信念修正提供了可能。克鲁姆佩尔曼(Krümpelmann)等人为避免新信息优先的弱点,也提出了一种非优先化的选择性修正理论(Selective Revision),该理论允许新信息中包含论证,主体可以根据这个信息及其论证来评估该信息是否被接受,或者接受该信息的哪一部分。[19]147-162研究者通过论证去评估信息的思想正是论辩思想的精华所在。

由此可见,由于人工智能的需要而发展起来的论辩为信念修正理论提供了新的发展方向。信念修正与论辩的结合为新信息提供了论证,为信息转化为信念提供了理由;同时,论辩系统以可废止理论为基础,打破了AGM理论假设的封闭一致的理想环境,从而有助于人工智能实现在不完整、不确定和不一致的环境中进行信念修正的操作。同时,这种结合也有助于对推理过程进行更稳健的建模,实现跨领域的更为多样和复杂的应用。

四、结 语

我们首先通过回顾人工智能和信念修正理论结合的历史,探讨了信念修正理论在人工智能研究中的演进和发展。其次探讨了信念修正对人工智能发展的推动作用,即在机器学习中,数据更新领域对信念修正理论的应用,以及在模型检测系统中,自动系统修正技术对信念修正理论的应用;最后讨论了信念修正与论辩的密切关系,以及在人工智能的推动下,论辩对信念修正问题的解决。

从人工智能的视角看信念修正理论,我们看到,第一,信念修正理论的发展史就是一部与人工智能分支融合共同进步的历史。第二,信念修正理论可以为人工智能提供思想方法,同时,人工智能方法也能为信念修正提供动力支持。这种跨域研究对人工智能和信念修正理论研究是相得益彰的。第三,人工智能不断试错的方法是推动信念修正理论发展的“推进器”。人工智能方法在一定程度上是“实效主义”的,因为它没有预设固定的理论模式,只要能解决问题,无论何种方法、路线都可以尝试,这种不断“试错”的动态可修正方法促进了信念修正理论的发展,使该理论不断突破局限,为解决科学和哲学问题开辟了新的思路。

猜你喜欢

修正信念逻辑
刑事印证证明准确达成的逻辑反思
Some new thoughts of definitions of terms of sedimentary facies: Based on Miall's paper(1985)
修正这一天
逻辑
创新的逻辑
为了信念
发光的信念
信念
女人买买买的神逻辑
软件修正