第3章推理技术2综述课件.ppt(79页)

上传人(卖家):ziliao2023 文档编号:7977664 上传时间:2024-09-21 格式:PPT 页数:79 大小:517.50KB
下载 相关 举报
第3章推理技术2综述课件.ppt(79页)_第1页
第1页 / 共79页
第3章推理技术2综述课件.ppt(79页)_第2页
第2页 / 共79页
第3章推理技术2综述课件.ppt(79页)_第3页
第3页 / 共79页
第3章推理技术2综述课件.ppt(79页)_第4页
第4页 / 共79页
第3章推理技术2综述课件.ppt(79页)_第5页
第5页 / 共79页
点击查看更多>>
资源描述

1、2023-9-20人工智能23.1 3.1 消解原理消解原理3.2 3.2 规则演绎系统规则演绎系统3.3 3.3 产生式系统产生式系统3.4 3.4 基于概率的推理基于概率的推理3.5 3.5 可信度方法可信度方法3.6 3.6 证据理论证据理论3.7 3.7 模糊推理模糊推理3.8 3.8 非单调推理非单调推理本章主要内容:2023-9-20人工智能3经典推理与非经典推理经典推理与非经典推理传统人工智能(即逻辑学派)是建立在逻辑符号推理基础上的。一般所提到的逻辑有形式逻辑和数理逻辑。然而这两种逻辑存在一定的局限性,无法解决一些面临的实际应用问题,从而出现了一些新的逻辑学派。人们把这些新的逻

2、辑学派称为非经典逻辑,其相应的推理方法则叫做非经典推理。与此相应,把传统的逻辑学派及其推理方法称为经典逻辑和经典推理。经典推理与非经典推理的区别:(1)推理方法:经典推理采用演绎逻辑推理。(2)逻辑值:经典逻辑都是二值的。(3)运算法则:经典逻辑的许多运算法则在非经典逻辑中不能成立。(4)逻辑运算符:非经典逻辑具有更多的运算符。(5)推理的单调性:经典逻辑推理是单调的。2023-9-20人工智能4不确定性推理不确定性推理不确定性推理是建立在非经典逻辑基础上的一种推理,它是对不确定性知识的运用与处理。严格地说,所谓不确定性推理就是从不确定性的初始证据出发,通过运用不确定性的知识,最终推出具有一定

3、程度的不确定性但却是合理或者近乎合理的结论的思维过程。不确定性推理中的基本问题:(1)不确定性的表示与度量(2)不确定性匹配算法及阈值的选择(3)组合证据不确定性的算法(4)不确定性的传递算法(5)结论不确定性的合成2023-9-20人工智能5 概率论被广泛地应用于处理随机性以及人类知识不可靠性问题。如随机事件A的概率P(A)可表示A发生的可能性,因而可用概率表示和处理事件A的确定性程度。基于概率推理的本质就是用概率表示和处理推理的不确定性。最简单概率推理如:设有如下产生式规则:IF E THEN H 其中,E为前提条件,H为结论。条件概率P(H|E)可以作为在证据E出现时结论H的确定性程度。

4、基于概率论的不确定性推理有很多种,这里我们只介绍几种较实用的几种方法。2023-9-20人工智能63.4.1 3.4.1 主观主观BayesBayes方法方法 主观主观BayesBayes方法是方法是R.O.DudaR.O.Duda、P.E.HartP.E.Hart等人等人19761976年在年在BayesBayes公公式的基础上经适当改进提出了主观式的基础上经适当改进提出了主观BayesBayes方法,它是最早用于处理方法,它是最早用于处理不确定性推理的方法之一,已在地矿勘探专家系统不确定性推理的方法之一,已在地矿勘探专家系统PROSPECTORPROSPECTOR中得中得到了成功的应用。下

5、面我们先来介绍到了成功的应用。下面我们先来介绍BayesBayes公式。公式。Bayes公式公式 若A1,A2,An是彼此独立的事件,且P(Ai)0(i=1,2,n),P(B)0,那么Bayes公式可表示为 其中,P(Ai)是事件Ai的先验概率;P(B|Ai)是在事件Ai发生条件下事件B的条件概率。1()(|)(|),1,2,.,()(|)iiinjjjP AP BAP ABinP AP BA2023-9-20人工智能7 如果用产生式规则IFETHENHi 中的前提条件E代替Bayes公式中的B,用Hi代替公式中的Ai,就可得到:1()(|)(|),1,2,.,()(|)iiinjjjP HP

6、 EHP HEinP HP EH对于多个证据:1212121(|)()(|)(|)(|)()(|)(|)(|),1,2,.,imiiiminjjjmjjP HE EEP HP EHP EHP EHP HP EHP EHP EHin2023-9-20人工智能8相关概念 为阐明主观Bayes方法,先引入几个概念:(1)几率函数)几率函数 几率函数定义为(x)=P(x)/(1-P(x),它表示x的出现概率与不出现概率之比,显然随P(x)的加大(x)也加大。(2)充分性度量)充分性度量 充分性度量定义为:LS=P(E|H)/P(E|H)它表示E对H的支持程度,取值于0,由专家给出。(3)必要性度量)必

7、要性度量 必要性度量定义为 LN=P(E|H)/P(E|H)=(1-P(E|H)/(1-P(E|H)它表示 E对的支持程度,即E对H为真的必要性程度,取值范围为0,+,也是由专家凭经验给出。2023-9-20人工智能9 主观Bayes方法中,知识是用产生式规则表示为:IF E THEN (LS,LN)H (P(H)其中,P(H)是结论H的先验概率,由专家根据经验给出。LS称为充分性度量,指出E对H的支持程度。LN称为必要性度量,指出E对H的支持程度 LS和LN的值由领域专家给出,相当于知识的静态强度。1 1、知识不确定性的表示、知识不确定性的表示2023-9-20人工智能102 2、证据不确定

8、性的表示证据不确定性的表示 在主观Bayes方法中,证据的不确定性也用概率表示。对于证据E,由用户根据观察S给出P(E|S),即动态强度。由于主观给定P(E|S)有所困难,所以实际中可以用可信度C(E|S)代替P(E|S)。例如在PROSPECTOR中C(E|S)和P(E|S)遵从如下关系:5)|(05)|(5()()|(0)|(55)5)|()()|(SECSECEPSECSECSECEPSEP若若2023-9-20人工智能113 3、组合证据不确定性的算法、组合证据不确定性的算法 可以采用最大最小法。当组合证据是多个单一证据的合取时,即E=E1 AND E2 AND AND En 则:P(

9、E|S)=minP(E1|S),P(E2|S),P(En|S)当组合证据是多个单一证据的析取时,即E=E1 OR E2 OR OR En 则:P(E|S)=maxP(E1|S),P(E2|S),P(En|S)对于“”运算则:P(E|S)=1-P(E|S)2023-9-20人工智能124 4、不确定性的传递算法、不确定性的传递算法()()(|)(|),P EP HP H EP HELS LN 或者 主观Bayes方法推理的任务就是根据证据E的概率P(E)及LS、LN的值,把H的先验概率P(H)更新为后验概率P(H|E)或P(H|E)。即 确定后验概率的方法随着证据肯定存在,肯定不存在,或者不确定

10、而有所不同。2023-9-20人工智能13(1)证据肯定存在 在证据肯定存在时 P(E)=P(E|S)=1。由Bayes公式得:P(H|E)=P(E|H)P(H)/P(E)(1)P(H|E)=P(E|H)P(H)/P(E)(2)(1)式除以(2)式得:P(H|E)/P(H|E)=P(E|H)/P(E|H)P(H)/P(H)由LS和几率函数的定义得:(H|E)=LS(H)即P(H|E)=LSP(H)/(LS-1)P(H)+12023-9-20人工智能14充分性度量LS的意义n 当LS1时,(H|E)=LS(H)(H),表明由于证据E的存在,增强了H为真的程度。n 当LS1时,(H|E)=LS(H

11、)(H),表明E与H无关。n 当LS1时,(H|E)=LS(H)1时,(H|E)=LN(H)(H),表明由于证据E不存在,增强了H为真的程度。n当LN1时,(H|E)=LN(H)(H),表明E与H无关。n当LN1时,(H|E)=LN(H)1,LN1qLS1,LN12023-9-20人工智能17(3 3)证据不确定时)证据不确定时n当0P(E|S)0P(H1|S1)=P(H1)+P(H1|E1)-P(H1)1/5C(E1|S1)=0.122(H1|S1)=P(H1|S1)/(1-P(H1|S1)=0.142023-9-20人工智能21主观Bayes方法推理示例(2)2.计算(H1|S2)P(H1

12、|E2)=(H1|E2)/(1+(H1|E2)=LS2(H1)/(1+LS2(H1)=0.91C(E2|S2)=10P(H1|S2)=P(H1)+P(H1|E2)-P(H1)1/5C(E2|S2)=0.254(H1|S2)=P(H1|S2)/(1-P(H1|S2)=0.343.计算(H1|S1S2)(H1|S1S2)=(H1|S1)/(H1)(H1|S2)/(H1)(H1)=0.4764.计算(H2|S1S2)(H1|S1S2)=0.476(H1)=0.1P(H2|S1S2)=P(H2)+P(H1|S1S2)-P(H1)/1-P(H1)P(H2|H1)-P(H2)=0.175(H2|S1S2)

13、=P(H2|S1S2)/(1-P(H2|S1S2)=0.2122023-9-20人工智能22主观Bayes方法的特点优点:n主观Bayes方法中的计算公式大多是在概率论的基础上推导出来,具有较坚实的理论基础。n知识的静态强度LS及LN是由领域专家给出,避免了大量的数据统计工作。LS和LN比较全面的反映了证据与结论间的因果关系,使推出的结论有较准确的确定性。n主观Bayes方法不仅给出了证据肯定存在、肯定不存在时更新后验概率的方法,还给出了证据不确定时的方法,实现了不确定性的逐级传递。缺点:n它要求领域专家在给出知识时,同时给出H的先验概率P(H),这比较困难。nBayes定理要求事件间独立,使

14、其应用受限制。2023-9-20人工智能233.4.2 3.4.2 贝叶斯网络贝叶斯网络 贝叶斯网络亦称信念网络贝叶斯网络亦称信念网络(Belief Network)(Belief Network),于,于19851985年由年由Judea PearlJudea Pearl首先提出。它是一种模拟人类推过程中因首先提出。它是一种模拟人类推过程中因果关系的不确定性处理模型,其网络拓朴结构是一个有向果关系的不确定性处理模型,其网络拓朴结构是一个有向无环图无环图(DAG)(DAG)。它的节点用随机变量或命题来标识,认为有。它的节点用随机变量或命题来标识,认为有直接关系的命题或变量则用弧来连接。例如,假

15、设结点直接关系的命题或变量则用弧来连接。例如,假设结点E E直直接影响到结点接影响到结点H H,即,即EHEH,则建立结点,则建立结点E E到结点到结点H H的有向弧的有向弧(E,H)(E,H),权值,权值(即连接强度即连接强度)用条件概率用条件概率P(H/E)P(H/E)来表示,如图来表示,如图所示:所示:有两个结点的贝叶斯网络示意图2023-9-20人工智能24 一般来说,有n个命题x1,x2,xn之间相互关系的一般知识可用联合概率分布来描述。但是,这样处理使得问题过于复杂。Pearl认为人类在推理过程中,知识并不是以联合概率分布形表现的,而是以变量之间的相关性和条件相关性表现的,即可以用

16、条件概率表示。如 例如,对如图所示的贝叶斯网络有:)()|(),|(),|(),|(),(1322111121nnnnnniininxPxxPxxxPxxxPxxxPxxxPx1x2x3x4x5x6)()|()|(),|(),|()|(),(1121321432556654321xPxxPxxPxxxPxxxPxxPxxxxxxP2023-9-20人工智能25 一旦命题之间的相关性由有向弧表示,条件概率由弧的权值来表示,则命题之间静态结构关系的有关知识就表示出来了。当获取某个新的证据事实时,要对每个命题的可能取值加以综合考查,进而对每个结点定义一个信任度,记作Bel(x)。可规定 Bel(x)

17、=P(x=xi/D)来表示当前所具有的所有事实和证据D条件下,命题x取值为xi的可信任程度,然后再基于Bel计算的证据和事实下各命题的可信任程度。2023-9-20人工智能26 可信度方法是E.H.Shortliffe等人在确定性理论(Theory of Confirmation)的基础上,结合概率论等提出的一种不确定性推理方法,首先在专家系统MYCIN中得到了成功应用。可信度的概念可信度的概念n根据经验对一个事物和现象为真的相信程度称为可信度。n可信度带有较大的主观性和经验性,其准确性难以把握。但人工智能面向的多是结构不良的复杂问题,难以给出精确的数学模型,先验概率及条件概率的确定又比较困难

18、。所以可信度方法是一种比较实用的方法。2023-9-20人工智能27 可信度方法是基于可信度表示的不确定性推理的基本方法,其它可信度方法都是在此基础上发展起来的。1.知识不确定性的表示 在该模型中,知识是用产生式规则表示的,其一般形式为:IF E THEN H (CF(H,E)其中,CF(H,E)是该条知识的可信度,称为可信度因子或规则强度,即静态强度。一般CF(H,E)-1,1。在可信度方法中,把CF(H,E)定义为:CF(H,E)=MB(H,E)-MD(H,E)其中,MB(Measure Belief)称为信任增长度。它表示由于证据E的出现,使结论为真的信任增长程度。MD(Measure

19、Disbelief)称为不信任增长度。它表示由于证据E的出现,使结论为真的不信任增长程度。2023-9-20人工智能281,()1(,)max(|),()(),1()P HMB H EP H E P HP HP H否则1,()0(,)min(|),()(),()P HMD H EP H EP HP HP H否则MB和MD的定义为 当MB(H,E)0时,P(H|E)P(H);当MD(H,E)0时,P(H|E)0时,MD(H,E)0 当MD(H,E)0时,MB(H,E)02023-9-20人工智能29CF(H,E)CF(H,E)的的计算公式计算公式从上式可看出:当CF(H,E)0时,P(H|E)P

20、(H);当CF(H,E)0时,P(H|E)1或|A|=0时,M(A)=0 这是一个特殊的概率分配函数,只有单个元素构成的子集及样本空间D的概率分配函数才可能大于0,其它子集的概率分配均为0。2023-9-20人工智能43 1 1、概率分配函数与类概率函数(、概率分配函数与类概率函数(2 2)类概率函数:命题A的类概率函数定义为:其中,|A|和|D|分别是A和D中元素个数。类概率函数具有下列性质:(1)f(si)=1 (2)Bef(A)f(A)pl(A)(3)f(A)=1-f(A)根据上述性质可得如下结论:(1)f()=0 (2)f(D)=1 (3)0f(A)1)()()()(ABelAplDA

21、ABelAf2023-9-20人工智能44 2 2、知识不确定性表示、知识不确定性表示 在证据理论中,不确定性知识用如下产生是规则表示:IF E THEN h=h1,h2,hn CF=c1,c2,cn其中:E为前提条件,可以是简单条件,也可以是析取得符合条件。H是结论,用样本空间的子集h1,h2,hn表示。CF是可信度因子,ci用来指出hi的可信度,ci满足如下条件:ci0(i=1,2,n),且ci1 3 3、证据不确定性表示、证据不确定性表示 不确定性证据E的不确定性用CER(E)表示,其取值范围为0,1。4 4、组合证据不确定性表示、组合证据不确定性表示 对于组合证据,采用最大最小法合成。

22、即:若E=E1E2En,则CER(E)=minCER(E1),CER(En)若E=E1E2En,则CER(E)=maxCER(E1),CER(En)2023-9-20人工智能455 5、不确定性传递算法、不确定性传递算法 设有知识:IF E THEN h=h1,h2,hn CF=c1,c2,cn则结论H的确定性可通过下列步骤求出:(1)求出H的概率分配函数niinnhMDMcECERcECERcECERhhhM12121(1)()(,)(,)(),(若两条知识支持同一结论,即 IF E1 THEN h=h1,h2,hn CF=c1,c2,cn IF E2 THEN h=h1,h2,hn CF=

23、c1,c2,cn则首先对每一条知识求出概率分配函数M1和M2,然后再用公式 M=M1M2对M1和M2求正交和,从而得到H的概率分配函数。2023-9-20人工智能465 5、不确定性传递算法(、不确定性传递算法(2 2)(2)求出Bel(H),Pl(H),f(H)(3)求H的不确定性CER(H)CER(H)=MD(H|E)f(H)其中,MD(H|E)为证据E与知识前提条件的匹配度,定义为:否则所要求的证据都已出现如果01)|(HEHMD)()()()()()()()()(1)()(1DMDHHBelHBelHPlDHHBelHfHBelDMHBelHPlhMHBelnii2023-9-20人工

24、智能47 模糊推理与前面几节讨论的不确定性推理有着实质性的区别。前面那几种不确定性推理的理论基础是概率论,它所研究的事件本身有明确而确定的含义,只是由于发生的条件不充分,使得在条件与事件之间不能出现确定的因果关系,从而在事件的出现与否上表现出不确定性。模糊推理的理论基础是模糊集理论以及在此基础上发展起来的模糊逻辑,模糊集理论是1956年由扎德提出的,随后他又将模糊集合理论应用于近似推理方面,形成了可能性理论。它所处理的事物自身是模糊的,概念本身没有明确的外延,一个对象是否符合这个概念难以明确地确定。模糊推理是对这种不确定性,即模糊性的表示与处理。2023-9-20人工智能483.7.1 3.7

25、.1 模糊集合及其运算模糊集合及其运算 设U为某些对象的集合,称为论域论域,可以是连续的或离散的;u表示U的元素,记作U=u。定义(模糊集合):设U是论域,A是把任意uU映射为0,1上某个值的函数,即:A:U0,1或者uA(u)则称A为定义在U上的一个隶属函数,由A(u)(uU)所构成的集合A称为U上的一个模糊集,A(u)称为对A的隶属度。例 设论域U=1,2,3,4,5,A、B分别表示“大”与“小”的模糊集。A,B分别为相应的隶属函数。其中:A(1)=0,A(2)=0,A(3)=0.1,A(4)=0.6,A(5)=1 B(1)=1,B(2)=0.5,B(3)=0.01,B(4)=0,B(5)

26、=0 则:A=0,0,0.1,0.6,1 B=1,0.5,0.01,0,0 2023-9-20人工智能49 模糊集的表示方法1、若论域离散且有限,则模糊集A可表示为:A=A(u1),A(u2),A(un)也可写为:A=A(u1)/u1+A(u2)/u2+A(un)/un11()/,()/nnAiiAiiiiAuuAuu或者 或者:A=A(u1)/u1,A(u2)/u2,A(un)/unA=(A(u1),u1),(A(u2),u2),(A(un),un)隶属度为0的元素可以不写。2、若论域是连续的,则模糊集可用实函数表示。无论论域U有限还是无限,离散还是连续,扎德用如下记号作为模糊集A的一般表示

27、形式:()/Au UAuu2023-9-20人工智能50模糊集的运算模糊集上的运算主要有:包含、交、并、补等等。1.包含运算 定义定义 设A,B为U上的模糊集,若对任意uU,都有B(u)A(u)成立,则称A包含B,记为BA。2.交、并、补运算:()max(),()()():()min(),()()():()1()ABABABu UABABABu UAAABuuuuuABuuuuuAuu例 设U=u1,u2,u3,A=0.3/u1+0.8/u2+0.6/u3,B=0.6/u1+0.4/u2+0.7/u3,则:AB=(0.30.6)/u1+(0.80.4)/u2+(0.60.7)/u3=0.3/u

28、1+0.4/u2+0.6/u3 AB=(0.30.6)/u1+(0.80.4)/u2+(0.60.7)/u3=0.6/u1+0.8/u2+0.7/u3 A=(1-0.3)/u1+(1-0.8)/u2+(1-0.6)/u3=0.7/u1+0.2/u2+0.4/u32023-9-20人工智能51模糊关系及其合成1.模糊关系 定义定义 设 Ai是Ui(i=1,2,n)上的模糊集,则称1212121212()()()/(,)nnAAAnnU UUnAAAuuuu uu 为A1,A2,An的笛卡儿乘积,它是U1U2Un上的一个模糊集。定义定义 在U1U2Un上一个n元模糊关系R是指以U1U2Un为论域的

29、一个模糊集,记为121212(,)/(,)RnnUUUnRu uuu uun一般地说,当U和V都是有限论域时,其模糊关系R可用一个模糊矩阵表示。111212122212(,)(,)(,)(,)(,)(,)(,)(,)(,)RRRnRRRnRmRmRmnu vu vu vu vu vu vRu vu vu v2023-9-20人工智能52模糊关系及其合成(2)2.模糊关系的合成定义定义 设R1与R2分别是UV与VW上的两个模糊关系,则R1与R2的合成是指从U到W的一个模糊关系,记为 R1R2 其隶属函数为1212(,)(,)(,)R RRRu wu vv w 定义定义 设A=A(u1),A(u2

30、),A(un)是论域U上的模糊集,R是UV上的模糊关系,则AR=B称为模糊变换。例 设A=0.2,0.5,0.30.20.70.1000.40.50.10.20.30.40.10.2,0.4,0.5,0.1RBAR则2023-9-20人工智能533.7.2 3.7.2 模糊推理模糊推理模糊命题n含有模糊概念、模糊数据或带有确信程度的语句称为模糊命题。它的一般表示形式为:x is A 或者 x is A (CF)其中,x是论域上的变量,用以代表所论述对象的属性;A是模糊概念或者模糊数,用相应的模糊集及隶属函数刻画;CF是该模糊命题的确信度或相应事件发生的可能性程度,它既可以是一个确定的数,也可以

31、是一个模糊数或者模糊语言值。n模糊语言值是指表示大小、长短、高矮、轻重、快慢、多少等程度的一些词汇。使用模糊语言值更符合人们表述问题的习惯。此外很多情况下人们难以给出一个数或者模糊数来具体指出程度的大小。所以用模糊语言值来表示不确定性,对不熟悉模糊理论的人来说容易理解,而其模糊集形式只是内部表示。2023-9-20人工智能54 模糊推理有很多种,在这里我们仅介绍一种简单而常用的方法。n模糊产生式规则的一般形式是:IFETHENH(CF,)其中,E是用模糊命题表示的模糊条件;H是用模糊命题表示的模糊结论;CF是该产生式规则所表示的知识的可信度因子,它既可以是一个确定的数,也可以是一个模糊数或模糊

32、语言值。是阈值,用以指出知识什么时候可被应用。CF和的值由领域专家在给出知识的时候同时给出。例如:IFx1 is A1 AND x2 is A2 THEN y is B(CF,)n推理中所用的证据也用模糊命题表示,一般形式 x is A 或者 x is A (CF)2023-9-20人工智能55模糊推理的基本模式n自然演绎有三种基本模式:假言推理、拒取式推理和假言三段论推理。模糊推理也有以上三种基本模式。1.模糊假言推理 设A,B分别为U,V上的模糊集,且它们具有如下关系:IF x is A THEN y is B 若A与A可以模糊匹配,则可推出y is B,其中B为V上的模糊集。这种推理称为

33、模糊假言推理,可用如下图式直观表示出来:知识:IF x is A THEN y is B 证据:x is A -结论:y is B 对于复合条件有:知识:IF x1 is A1 AND x2 is A2 ANDAND xn is An THEN y is B证据:x1 is A1 x2 is A2 xn is An-结论:y is B2023-9-20人工智能56 2.模糊拒取式推理知识:IF x is A THEN y is B证据:y is B-结论:x is A3.模糊三段论推理IF x is A THEN y is BIF y is B THEN z is C-IF x is A TH

34、EN z is Cn推理方法有多种,例如扎德等人的合成推理规则,P.Magrez和P.Smets提出的计算模型等。n扎德法的基本思想是:首先由知识IF x is A THEN y is B 求出A与B之间的模糊关系R,然后在通过R与相应证据的合成求出模糊结论。这种方法又称为基于模糊关系的合成模型。2023-9-20人工智能57简单模糊推理 知识中只含有简单条件且不带可信度因子的模糊推理称为简单模糊推理。按照扎德等人提出的合成推理规则,对于知识:IF x is A THEN y is B 首先构造出A与B之间的模糊关系R,然后通过R与证据的合成求出结论。如果已知证据是x is A且A与A可以模糊

35、匹配,则通过下述合成运算求取B:B=A R 如果已知证据是y is B且B与B可以模糊匹配,则通过下述合成运算求出A:A=R B2023-9-20人工智能58构造模糊关系R的方法 用,分别表示模糊集的笛卡儿乘积、并、交、补及有界和运算,则扎德把Rm和Ra分别定义为:()/,()/ABUVAuuBuu()()()()(1()/(,)()()1(1()()/(,)mABAU VaABU VRA BA Vuvuu vRA VUBuvu v 扎德提出了两种方法:一种称为条件命题的极大极小规则;另一种称为条件命题的算术规则,由它们获得的模糊关系分别记为Rm和Ra。设A为论域U上的模糊集,B为论域V上的模

36、糊集,其表示分别为2023-9-20人工智能59对于模糊假言推理,若已知证据为x is A则:Bm=A RmBa=A Ra对于模糊拒取式推理,若已知证据为y is B则:Am=Rm BAa=Ra B2023-9-20人工智能60举例例 设U=V=1,2,3,4,5,A=1/1+0.5/2,B=0.4/3+0.6/4+1/5并设模糊知识及模糊证据分别为:IF x is A THEN y is B 和 x is A其中,A的模糊集为:A=1/1+0.4/2+0.2/3则由模糊知识可分别得到Rm与Ra:Rm(i,j)=(A(ui)B(vj)(1-A(ui)Ra(i,j)=1(1-A(ui)+B(vj

37、)000.40.61000.40.610.50.50.50.50.50.50.50.911,111111111111111111111111111111maRR2023-9-20人工智能61 同理可计算出:Ba=A Ra=0.4,0.4,0.4,0.6,1n注意:一般来说Bm与Ba不一定相同。若已知证据为:y is B,且B=0.2/1+0.4/2+0.6/3+0.5/4+0.3/5,则:.4,0.6,10.4,0.4,01111111111111115.05.05.05.05.016.04.000,0,01,0.4,0.2mmRAB同理可计算出 Aa=Ra B=0.5,0.6,0.6,0.6

38、,0.6.6,0.6,0.60.5,0.5,03.05.06.04.02.01111111111111115.05.05.05.05.016.04.000 BRAmm2023-9-20人工智能62 基于谓词逻辑的推理系统是单调的,即系统中已知为真的命题数目随推理的进行而严格增加。那是由于新的命题可加入系统,新的定理可被证明,但这种加入和被证明决不会导致前面已知为真或已被证明的命题变成无效。这种系统具有以下优点:(1)当加入一新命题时,不必检查新命题与原有知识间的不相容性。(2)对每一个已被证明了的命题,不必保留一个命题表。它的证明以该命题表中的命题为根据,因为不存在那些命题会被取消的危险。可是

39、,这种单调系统不能很好地处理常常出现在现实问题领域中的3类情况,即不完全的信息、不断变化的情况、以及求解复杂问题过程中生成的假设。2023-9-20人工智能63 人类的思维过程和推理过程在本质上是非单调的。人们对客观事物的认识和信念总是不断调整和变化的,于是就出现了认识上的非单调性。在这种情况下,推导出的结论不随条件的增加而增多。这种推理过程就是非单调推理。非单调推理具有下列特征:推理系统的定理集合不一定随着推理过程的进行而单调增多,新推理出的定理很可能会修改甚至否定原有的一些定理,使得原来能够解释的一些现象变得不能解释了。实现非单调推理的方法有两种,一种是在经典逻辑中增加某些公理,用以导出非

40、单调推理的结果(如限定推理);另一种是定义特定的非经典逻辑(如缺省推理和自认逻辑)。2023-9-20人工智能643.8.1 3.8.1 缺省推理缺省推理 人们对客观事物的认识往往是不完整的。当缺乏信息时,人们总是默认或者假设某些命题成立,并在此基础上进行推理。这样的推理就叫做缺省推理,又称为默认推理。作“默认”或者“假设”的原则是:如果没有足够的证据能证明某个命题不成立,则认为该命题是成立的。如:鸟会飞。地上湿了,天下雨了。缺省推理的核心是在默认或者假定某些命题成立的前提下进行推理。如果知道一些事情中的某件事必为真,在缺乏完全知识条件下,应选最可能的那个。如:大多数人喜欢花;大多数狗有尾巴;

41、对瑞典人而言,最一般的头发颜色为淡黄色。2023-9-20人工智能651、缺省推理的定义 一个既精确又可算的缺省推理的描述,必涉及结论Y且缺少某一信息X。所以缺省推理的定义为:缺省推理的定义缺省推理的定义1:如果X不知道,那么得结论Y。但在所有的系统中,除最简单的系统外,只有存贮在数据库中的事件的极小部分可看成是已知的。不过,通过各种努力,事件的其余部分可从已知部分推导出来。所以缺省推理的定义更像是:缺省推理的定义缺省推理的定义2:如果X不能被证明,那么得结论Y。但是,如果仍然以谓词逻辑工作,那怎么能知道X不能被证明?由于这系统是不可判定的,所以对任一X来说,仍不能担保它能否被证明。于是我们不

42、得不重新考虑定义:缺省推理的定义缺省推理的定义3:如果X不能在某个给定的时间内被证明,那么得结论Y。2023-9-20人工智能66 值得注意,定义推出结论Y的推理过程依赖于逻辑领域外的某些事件,在规定时间内可作多少计算,以及在寻找待求的证明中计算是否有效。因此作出关于系统行为的形式说明就显得特别重要。加之,我们丧失了谓词逻辑所具有的对所提出的证明的正确性进行验证的能力,即使一个证明存在,也不一定能保证找到它。假如现在得到一证明,对证明过程中的某一步来说,由于没有能力证明X,所以得结论Y。但由于X是否可被证明是不可判定的,因而包含这个证明在内的更大的证明也就不可判定。于是,由于缺乏完全的知识,对

43、缺省推理的需要迫使我们使用这样的系统,它的行为不易形式地描述出来。2023-9-20人工智能672、缺省规则的表示1():(),.()()nA xMB xMBxC x 根据赖特的缺省理论,缺省规则是如下形式的表达式:其中,A(x)表示缺省规则的先决条件,Bi(x)表示默认条件,C(x)表示结论。M称为模态算子,表示“假定是相容的”,即其否定不可证明。上述缺省规则表示:如果先决条件A(x)成立,而且假定默认条件Bi(x)相容,则可推出结论C(x)成立。例如:():()()BIRD xM FLYxFLYx 它表示:“如果x是一只鸟,那么在缺乏任何反证据的情况下,就可以得出x会飞的结论”2023-9

44、-20人工智能683、缺省规则的分类 缺省规则虽然可以表示模糊量词“几乎”、“大多数”等,但它却不涉及模糊逻辑。缺省规则按其形式可分为规范缺省、半规范缺省及非规范缺省三类。n 规范缺省规则如果默认条件为B(x),且B(x)=C(x),则称为规范的缺省规则。可表示为:():()()AxM BxBx 其含义是:由先决条件A(x)一般可以推出结论B(X)成立。可表示“一般都”,“大部分都”2023-9-20人工智能693、缺省规则的分类(2)n 半规范缺省规则 如果默认条件为B(x),且有B(x)=C(x)D(x)则称其为半规范缺省规则。可表示为:其含义是:除D(x)外,由先决条件A(x)一般可以推

45、出结论B(X)成立。可表示“除以外,一般都”():()()()A xM C xD xC x n 不规范缺省规则 所有不属于前两类的缺省规则都称为不规范缺省规则。此外,如果缺省规则中不含自由变量责成该缺省为封闭的;如果先决条件为空,则称为重言式;如果默认条件为空,则退化为演绎规则。2023-9-20人工智能703.8.2 3.8.2 真值维持系统真值维持系统 维持推理的一致性是实现非单调推理系统的核心技术之一。真值维持系统(Truth Maintenance System-TMS)是一个已经实现了的非单调推理系统。它用以协助其它推理程序维持系统的正确性,所以它的作用不是生成新的推理,而是在其它程

46、序所产生的命题之间保持相容性。一旦发现某个不相容,它就调出自己的推理机制,面向从属关系的回溯,并通过修改最小的信念集来消除不相容。TMS的工作原理如下图所示:推理机真值维持系统知识库论据变化修改信息获取信息2023-9-20人工智能711、真值维持系统的工作原理 一个非单调推理系统的信念集(常识集)可以分为两个部分,即:S=A 其中,为基本信念集;A为假设集,可视为对的尝试性扩充。由于推理系统总是认为永真,因而推理中产生的不一致仅由A中的假设引起。在TMS中,每一命题或规则均称为节点,且对任一节点,以下两种状态必居其一:状态含义IN相信为真OUT不相信为真,或无理由相信为真,或当前没有可相信的

47、理由。2023-9-20人工智能72 每个节点附有一个证实表,表中可以有多个证实,每个证实表示一种确定节点有效性的方法。对一个节点来说,如果当前至少存在一个有效证实,则称它的状态为IN;如果当前无任何有效证实存在,则称它的状态为OUT。n 为什么要保留为什么要保留OUT节点呢?节点呢?在非单调推理系统中,产生一节点是以表示一个假定为真的命题。但新信息的出现可能引起原始节点变成OUT(缺少信息时用缺省推理),那时,一切基于它的节点都相应要变为OUT。不过,保留这些节点和它们的相互依赖性仍有用处。因为一旦有效信息发生了变化,而且引起原始节点再变为IN时,那些在它的基础上用来产生其它节点的推理就不必

48、重作了,这些节点也就变为IN了。n 有两种方法用来证实一个节点的有效性依赖于其它节点:有两种方法用来证实一个节点的有效性依赖于其它节点:(1)支持表:(SL (IN 节点)(OUT 节点)(2)条件证明 (CP(结论)(IN 假设)(OUT 假设)2023-9-20人工智能732、支持表 支持表表示:在IN节点表中所列的节点当前都是IN,且在OUT节点表中所列的节点当前都是OUT,那么,它们是有效的。例如,下述节点:(1)现在是冬天(SL()()(2)天气是寒冷的(SL(1)()节点(1)中的IN和OUT表为空,表明它不依赖于任何其它节点中当前的信念或缺少信念。这类节点称为前提。而节点(2)的

49、IN表中含节点(1),这说明导致节点(2)可信任结论的推理链依赖于当前在节点(1)的信念。如果在将来某个时刻,TMS除掉了节点(1),那么,由于节点(2)失去了依据,因而也要从IN表中除去。综上所述,TMS的推理与谓词逻辑系统相类似,除了它能撤消前提并对数据库的其余部分作适当的修改。2023-9-20人工智能74 如果一个节点的OUT表不是空的,TMS也能处理缺省推理。如:(1)现在是冬天(SL()()(2)天气是寒冷的(SL(1)(3)(3)天气是温暖的 若节点(1)是IN,节点(3)是OUT,节点(2)才为IN。这个证实实际上是说:“如果现在是冬天,又没有天气是温暖的证据,则结论为:天气是

50、寒冷的”。如果在将来某一时刻,出现了天气是温暖的证据(即为节点(3)提供了一个证实),那么TMS将使节点(2)变为OUT,因为它不再有一个有效的证实。像节点(2)这样的节点(它们为IN是根据一个含有非空OUT表的SL证实)被称为假设。节点(2)的证实来自冬季一般天气是寒冷的这样一个领域的知识。由此,这个证实必须由使用TMS的问题求解程序提供。TMS能作的仅是利用证实来维持一个相容的信念数据库。2023-9-20人工智能753、条件证明 (CP(结论)(IN 假设)(OUT 假设)条件证明(CP)的证实表示:只要在IN假设中的节点为IN状态,OUT假设中的节点为OUT状态,则结论节点一般为IN,

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 办公、行业 > 各类PPT课件(模板)
版权提示 | 免责声明

1,本文(第3章推理技术2综述课件.ppt(79页))为本站会员(ziliao2023)主动上传,163文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。
2,用户下载本文档,所消耗的文币(积分)将全额增加到上传者的账号。
3, 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(发送邮件至3464097650@qq.com或直接QQ联系客服),我们立即给予删除!


侵权处理QQ:3464097650--上传资料QQ:3464097650

【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。


163文库-Www.163Wenku.Com |网站地图|