1、Artificial Intelligence(AI)人工智能人工智能第七章:机器第七章:机器学习学习内容提要第七章:机器学习系统第七章:机器学习系统1.1.机器学习的基本概念机器学习的基本概念2.2.机器学习策略与基本结构机器学习策略与基本结构3.3.归纳学习归纳学习4.4.类比学习类比学习5.5.解释学习解释学习6.6.神经网络学习神经网络学习8.8.其他其他7.7.知识发现知识发现 阿法狗通过神经网络学习所有高水平围棋棋谱,大概是历史上有的20万个左右职业棋谱,从而获得了在盘面上如何落子的直觉。类似的深度学习深度学习是在近几年出现的,目前,这项科技也有了一些应用,最简单的例子就是通过深度
2、学习识别猫。通过这项识别验证,已经引申出了更多具有实际意义的应应用用,比如识别某一个图片中是否有癌细胞识别某一个图片中是否有癌细胞,某一个铁路沿线上的轨道是否存在磨损某一个铁路沿线上的轨道是否存在磨损,甚至军事作战中,对方的视线中是否有坦克对方的视线中是否有坦克,都可以通过深度学习实现。谷歌的自动驾驶,谷歌的自动驾驶,其中很重要的就是识别道路、交通信号灯、其中很重要的就是识别道路、交通信号灯、路标等,这都是通过深度学习获得路标等,这都是通过深度学习获得。阿法狗走的是通用学习的道路。它的估值函数,不是专家攻关捣哧出来的。它的作者只是搭了一个基本的框架(一个多层的神经网络),除了围棋最基本的规则外
3、,没有任何先验知识没有任何先验知识。你可以把它想象成一个新生儿的大脑,一张白纸。然后,直接用人类高手对局的3000万个局面训练训练它,自动调节自动调节它的神经网络参数神经网络参数,让它的行为和人类高手接近。这样,阿法狗就具有了基本的棋感,看到一个局面大致就能知道好还是不好。阿法狗的核心技术核心技术还包括策略网络的训练策略网络的训练和蒙蒙特卡洛树搜索特卡洛树搜索。内容提要第七章:机器学习系统第七章:机器学习系统1.1.机器学习的基本概念机器学习的基本概念2.2.机器学习策略与基本结构机器学习策略与基本结构3.3.归纳学习归纳学习4.4.类比学习类比学习5.5.解释学习解释学习6.6.神经网络学习
4、神经网络学习8.8.其他其他7.7.知识发现知识发现 机器学习是人工智能的核心,通过使机器模拟人类学习行为,智能化地从过去的经历中获得经验,从而改善其整体性能,重组内在知识结构,并对未知事件进行准确的推断。机器学习在科学和工程诸多领域都有着非常广泛的应用,例如金融分析、数据挖掘、生物信息学、医学诊断等。生活中常见的一些智能系统也广泛使用机器学习算法,例如电子商务、手写输入、邮件过滤等。人类的未来生活和工作,还将有机器人参与。机器人的自主学人类的未来生活和工作,还将有机器人参与。机器人的自主学习,更离不开人脸识别技术。习,更离不开人脸识别技术。2015年年3月月16日,马云在德国参加活动时,为嘉
5、宾演示了一项日,马云在德国参加活动时,为嘉宾演示了一项“SmiletoPay”的扫脸技术。在网购后的支付认证阶段,通过的扫脸技术。在网购后的支付认证阶段,通过扫脸取代传统的密码,实现扫脸取代传统的密码,实现“刷脸支付刷脸支付”。机器学习的基本概念v机器学习的两大学派机器学习的两大学派机器学习:人工智能的重要分支机器学习:人工智能的重要分支p构造具有学习能力的智能系统构造具有学习能力的智能系统p知识、推理、学习知识、推理、学习p手段:统计,逻辑,代数手段:统计,逻辑,代数统计机器学习统计机器学习p从大量样本出发,运用统计方法,发现统计规律从大量样本出发,运用统计方法,发现统计规律p有监督学习、无
6、监督学习、半监督学习有监督学习、无监督学习、半监督学习p问题:分类,聚类,回归问题:分类,聚类,回归机器学习的基本概念v机器学习的定义机器学习的定义西蒙(西蒙(Simon,1983):):学习就是系统中的适应性变化,学习就是系统中的适应性变化,这种变化使系统在重复同样工作或类似工作时,能够做这种变化使系统在重复同样工作或类似工作时,能够做得更好。得更好。明斯基(明斯基(Minsky,1985):):学习是在人们头脑里(心理学习是在人们头脑里(心理内部)有用的变化。内部)有用的变化。学习学习是一个有特定目的知识获取和能力增长过程,其内是一个有特定目的知识获取和能力增长过程,其内在行为是在行为是获
7、得知识获得知识、积累经验积累经验、发现规律发现规律等,其外部表等,其外部表现是现是改进性能改进性能、适应环境适应环境、实现自我完善实现自我完善等。等。机器学习机器学习是研究如何使用机器来模拟人类学习活动的一是研究如何使用机器来模拟人类学习活动的一门学科。门学科。机器学习的基本概念v机器学习的任务机器学习的任务根据有限样本集根据有限样本集 Q,推算这个世界,推算这个世界 W 的模型,的模型,使得其对这个世界为真。使得其对这个世界为真。机器学习的基本概念v机器学习的三要素机器学习的三要素一致性假设:一致性假设:假设世界假设世界W与样本集与样本集Q具有某种相同具有某种相同性质机器学习的条件。性质机器
8、学习的条件。样本空间划分:样本空间划分:将样本集放到一个将样本集放到一个n维空间,寻找维空间,寻找一个决策面一个决策面(等价关系等价关系),使得问题决定的不同对象,使得问题决定的不同对象被划分在不相交的区域。被划分在不相交的区域。泛化能力:泛化能力:从有限样本集合中获得的规律是否对学从有限样本集合中获得的规律是否对学习集以外的数据仍然有效。泛化能力习集以外的数据仍然有效。泛化能力 决定模型对决定模型对世界的有效性。世界的有效性。内容提要第七章:机器学习系统第七章:机器学习系统1.1.机器学习的基本概念机器学习的基本概念2.2.机器学习策略与基本结构机器学习策略与基本结构3.3.归纳学习归纳学习
9、4.4.类比学习类比学习5.5.解释学习解释学习6.6.神经网络学习神经网络学习8.8.其他其他7.7.知识发现知识发现机器学习策略与基本结构v机器学习的主要策略:机器学习的主要策略:按照学习中按照学习中使用使用推理推理的多的多少,机器学习所采用的策略大体上可分为少,机器学习所采用的策略大体上可分为4 4种种机械学习:机械学习:记忆学习方法,即把新的知识存储起来,供记忆学习方法,即把新的知识存储起来,供需要时检索调用,而需要时检索调用,而不需要计算和推理不需要计算和推理。示教学习:示教学习:外界输入知识与内部知识的表达不完全一致,外界输入知识与内部知识的表达不完全一致,系统在接受外部知识时系统
10、在接受外部知识时需要推理、翻译和转化需要推理、翻译和转化。类比学习:类比学习:需要发现当前任务与已知知识的相似之处,需要发现当前任务与已知知识的相似之处,通过类比给出完成当前任务的方案。通过类比给出完成当前任务的方案。示例学习:示例学习:需要从一组正例和反例中分析和总结出一般需要从一组正例和反例中分析和总结出一般性的规律,在新的任务中推广、验证、修改规律。性的规律,在新的任务中推广、验证、修改规律。机器学习策略与基本结构v学习系统的基本结构学习系统的基本结构v影响学习系统设计的要素影响学习系统设计的要素环境:环境:环境向系统提供信息的水平(一般化程度)和质环境向系统提供信息的水平(一般化程度)
11、和质量(正确性)量(正确性)知识库:知识库:表达能力,易于推理,容易修改,知识表示易表达能力,易于推理,容易修改,知识表示易于扩展。于扩展。环环 境境学学 习习知识库知识库执执 行行内容提要第七章:机器学习系统第七章:机器学习系统1.1.机器学习的基本概念机器学习的基本概念2.2.机器学习策略与基本结构机器学习策略与基本结构3.3.归纳学习归纳学习4.4.类比学习类比学习5.5.解释学习解释学习6.6.神经网络学习神经网络学习8.8.其他其他7.7.知识发现知识发现归纳学习v归纳学习(归纳学习(Induction Learning)归纳学习是应用归纳推理进行学习的一种方法。归纳学习是应用归纳推
12、理进行学习的一种方法。归纳学习的模式:归纳学习的模式:解释过程 实例空间 规则空间 规划过程 实验规划过程通过对实例空间的搜索完成实例选择,并将这些选中实验规划过程通过对实例空间的搜索完成实例选择,并将这些选中拿到的活跃实例提交给解释过程。解释过程对实例加以适当转换,把活拿到的活跃实例提交给解释过程。解释过程对实例加以适当转换,把活跃实例变换为规则空间中的特定概念,以引导规则空间的搜索。跃实例变换为规则空间中的特定概念,以引导规则空间的搜索。归纳学习v归纳学习(归纳学习(Induction Learning)归纳学习是目前研究得最多的学习方法,其学习目的是归纳学习是目前研究得最多的学习方法,其
13、学习目的是为了获得新概念、构造新规则或发现新理论。为了获得新概念、构造新规则或发现新理论。根据归纳学习有无教师指导,可把它分为根据归纳学习有无教师指导,可把它分为p示例学习:示例学习:给学习者提供某一概念的一组给学习者提供某一概念的一组正例正例和和反反例例,学习者归纳出一个总的,学习者归纳出一个总的概念描述(规则)概念描述(规则),并,并使这个描述适合于所有的正例,排除所有的反例。使这个描述适合于所有的正例,排除所有的反例。p观察发现学习:观察发现学习:p概念聚类:概念聚类:按照一定的方式和准则分组,归纳概念按照一定的方式和准则分组,归纳概念p机器发现:机器发现:从数据和事例中发现新知识从数据
14、和事例中发现新知识内容提要第七章:机器学习系统第七章:机器学习系统1.1.机器学习的基本概念机器学习的基本概念2.2.机器学习策略与基本结构机器学习策略与基本结构3.3.归纳学习归纳学习4.4.类比学习类比学习5.5.解释学习解释学习6.6.神经网络学习神经网络学习8.8.其他其他7.7.知识发现知识发现类比学习v类比推理和类比学习方式类比推理和类比学习方式类比学习(类比学习(learning by analogy)就是通过类比,即通就是通过类比,即通过对相似事物加以比较所进行的一种学习过对相似事物加以比较所进行的一种学习。类比学习是利用二个不同领域(类比学习是利用二个不同领域(源域、目标域源
15、域、目标域)中的知)中的知识相似性,可以通过类比,从源域的知识(包括相似的识相似性,可以通过类比,从源域的知识(包括相似的特征和其它性质)推导出目标域的相应知识,从而实现特征和其它性质)推导出目标域的相应知识,从而实现学习。学习。例如:例如:p1.一个从未开过一个从未开过truck的司机,只要他有开的司机,只要他有开car的知识就可完成的知识就可完成开开truck的任务。的任务。p2.若把某个人比喻为消防车,则可通过观察消防车的行为,推若把某个人比喻为消防车,则可通过观察消防车的行为,推断出这个人的性格。断出这个人的性格。类比学习v类比推理和类比学习方式类比推理和类比学习方式类比学习系统可以使
16、一个已有的计算机应用系类比学习系统可以使一个已有的计算机应用系统转变为适应于新的领域,来完成原先没有设统转变为适应于新的领域,来完成原先没有设计的相类似的功能。计的相类似的功能。类比推理过程:类比推理过程:p 回忆与联想:回忆与联想:找出当前情况的相似情况找出当前情况的相似情况p 选择:选择:选择最相似的情况及相关知识选择最相似的情况及相关知识p 建立对应关系:建立对应关系:建立相似元素之间的映射建立相似元素之间的映射p 转换:转换:求解问题或产生新的知识求解问题或产生新的知识类比学习v类比学习研究类型类比学习研究类型问题求解型的类比学习:问题求解型的类比学习:求解一个新问题时,求解一个新问题
17、时,先回忆以前是否求解过类似问题,若是,则以先回忆以前是否求解过类似问题,若是,则以此为依据求解新问题。此为依据求解新问题。预测推理型的类比学习预测推理型的类比学习p传统的类比法:传统的类比法:用来推断一个不完全确定的事用来推断一个不完全确定的事物可能还有的其他属性物可能还有的其他属性p因果关系型:因果关系型:已知因果关系已知因果关系S1:A-B,如果有,如果有A A,则可能有,则可能有B满足满足A-B内容提要第七章:机器学习系统第七章:机器学习系统1.1.机器学习的基本概念机器学习的基本概念2.2.机器学习策略与基本结构机器学习策略与基本结构3.3.归纳学习归纳学习4.4.类比学习类比学习5
18、.5.解释学习解释学习6.6.神经网络学习神经网络学习8.8.其他其他7.7.知识发现知识发现解释学习v解释学习解释学习(Explanation-based learning,EBL)解释学习兴起于解释学习兴起于20世纪世纪80年代中期,根据任务所在年代中期,根据任务所在领域知识领域知识和正在学习的和正在学习的概念知识概念知识,对当前,对当前实例实例进行进行分析和求解,得出一个表征求解过程的分析和求解,得出一个表征求解过程的因果解释树因果解释树,以获取以获取新的知识新的知识。例如:例如:学生根据教师提供的学生根据教师提供的目标概念目标概念、该概念的一、该概念的一个个例子例子、领域理论领域理论及
19、及可操作准则可操作准则,首先构造一个解,首先构造一个解释来说明为什么该例子满足目标概念,然后将解释释来说明为什么该例子满足目标概念,然后将解释推广为目标概念的一个满足可操作准则的充分条件。推广为目标概念的一个满足可操作准则的充分条件。解释学习v解释学习过程和算法解释学习过程和算法米切尔提出了一个解释学习的统一算法米切尔提出了一个解释学习的统一算法EBG,建立了,建立了基于解释的概括过程,并用知识的逻辑表示和演绎推理基于解释的概括过程,并用知识的逻辑表示和演绎推理进行问题求解。其一般性描述为:进行问题求解。其一般性描述为:给定给定:p领域知识领域知识DTp目标概念目标概念TCp训练实例训练实例T
20、Ep操作性准则操作性准则OC找出:找出:满足满足OC的关于的关于TC的充分条件的充分条件目标概念目标概念新规则新规则操作准则操作准则训练例子训练例子知识库知识库解释学习vEBG算法可概括为两步:算法可概括为两步:1.构造解释:构造解释:运用领域知识进行演绎,证明提供给系统运用领域知识进行演绎,证明提供给系统的训练实例为什么是满足目标概念的一个实例。的训练实例为什么是满足目标概念的一个实例。例如:例如:p设要学习的设要学习的目标概念目标概念是是“一个物体(一个物体(Obj1)可以安)可以安全地放置在另一个物体(全地放置在另一个物体(Obj2)上)上”,即:,即:Safe-To-Stack(Obj
21、1,obj2)p领域知识是把一个物体放置在另一个物体上面的安领域知识是把一个物体放置在另一个物体上面的安全性全性准则准则:解释学习vEBG算法可概括为两步:算法可概括为两步:p领域知识:领域知识:-Fragile(y)Safe-To-Stack(x,y):如果如果y不是易碎的,则不是易碎的,则x可以安全地放到可以安全地放到y的上面的上面-Lighter(x,y)Safe-To-Stack(x,y):如果如果x 比比y轻,则轻,则x可以可以安全地放到安全地放到y的上面的上面-Volume(p,v)Density(p,d)*(v,d,w)Weight(p,w):如果如果p的体积是的体积是v、密度是
22、、密度是d、v乘以乘以d的积是的积是w,则,则p的重量的重量是是w-Isa(p,table)Weight(p,15):若若p是桌子,则是桌子,则p的重量是的重量是15-Weight(p1,w1)Weight(p2,w2)Smaller(w1,w2)Lighter(p1,p2):如果如果p1的重量是的重量是w1、p2的重量是的重量是w2、w1比比w2小,小,则则p1比比p2轻轻解释学习vEBG算法可概括为两步:算法可概括为两步:pSafe-To-Stack(Obj1,obj2)解释结构:解释结构:Safe-To-Stack(Obj1,obj2)Lighter(Obj1,obj2)Weight(O
23、bj1,0.1)Weight(Obj2,15)Smaller(0.1,15)Isa(Obj2,table)Voume(Obj1,1)Density(Obj1,0.1)*(1,0.1,0.1)解释学习vEBG算法可概括为两步:算法可概括为两步:2.获取一般性的知识:获取一般性的知识:p任务:任务:对上一步得到的解释结构进行一般化的处理,对上一步得到的解释结构进行一般化的处理,从而得到从而得到关于目标概念的一般性知识关于目标概念的一般性知识。p方法:方法:将常量换成变量,并把某些不重要的信息去将常量换成变量,并把某些不重要的信息去掉,只保留求解问题必须的关键信息。掉,只保留求解问题必须的关键信息。
24、p例如:例如:Volume(O1,v1)Density(O1,d1)*(v1,d1,w1)Isa(O2,table)Smaller(w1,15)Safe-To-Stack(Obj1,obj2)解释学习vEBG算法可概括为两步:算法可概括为两步:p Safe-To-Stack(O1,O2)一般化解释结构一般化解释结构Safe-To-Stack(O1,O2)Lighter(O1,O2)Weight(O1,w1)Weight(O2,15)Smaller(w1,15)Isa(O2,table)Voume(O1,v1)Density(O1,d1)*(v1,d1,w1)以后求解类似问题时,就可以直接以后求
25、解类似问题时,就可以直接利用这个知识进行求解,提到了系利用这个知识进行求解,提到了系统求解问题的效率。统求解问题的效率。内容提要第七章:机器学习系统第七章:机器学习系统1.1.机器学习的基本概念机器学习的基本概念2.2.机器学习策略与基本结构机器学习策略与基本结构3.3.归纳学习归纳学习4.4.类比学习类比学习5.5.解释学习解释学习6.6.神经网络学习神经网络学习8.8.其他其他7.7.知识发现知识发现神经网络学习v神经生理学研究表明,人脑的神经元既是学习的神经生理学研究表明,人脑的神经元既是学习的基本单位,同是也是记忆的基本单位。基本单位,同是也是记忆的基本单位。v目前,关于人脑学习和记忆
26、机制的研究有两大学目前,关于人脑学习和记忆机制的研究有两大学派:派:化学学派:化学学派:认为人脑经学习所获得的信息是记录在某些认为人脑经学习所获得的信息是记录在某些生物大分子生物大分子之上的。例如,蛋白质、核糖核酸、神经递之上的。例如,蛋白质、核糖核酸、神经递质,就像遗传信息是记录在质,就像遗传信息是记录在DNA(脱氧核糖核酸)上(脱氧核糖核酸)上一样。一样。突触修正学派:突触修正学派:认为人脑学习所获得的信息是分布在神认为人脑学习所获得的信息是分布在神经元之间的经元之间的突触连接突触连接上的上的。神经网络学习v 按照按照突触修正学派突触修正学派的观点,人脑的学习和记忆过程实际上的观点,人脑的
27、学习和记忆过程实际上是一个是一个在训练中完成的突触连接权值的修正和稳定过程在训练中完成的突触连接权值的修正和稳定过程。其中,其中,学习表现为突触连接权值的修正,记忆则表现为突学习表现为突触连接权值的修正,记忆则表现为突触连接权值的稳定触连接权值的稳定。v 突触修正假说已成为人工神经网络学习和记忆机制研究的突触修正假说已成为人工神经网络学习和记忆机制研究的心理学基础,与此对应的权值修正学派也一直是人工神经心理学基础,与此对应的权值修正学派也一直是人工神经网络研究的主流学派。网络研究的主流学派。v 突触修正学派认为,突触修正学派认为,人工神经网络的学习过程就是一个不人工神经网络的学习过程就是一个不
28、断调整网络连接权值的过程。断调整网络连接权值的过程。v 按照学习规则,神经学习可分为:按照学习规则,神经学习可分为:Hebb学习、纠错学习、学习、纠错学习、竞争学习及随机学习等。竞争学习及随机学习等。神经网络学习vHebb学习学习Hebb学习的基本思想:学习的基本思想:如果神经网络中某一神经元同另如果神经网络中某一神经元同另一直接与它连接的神经元同时处于兴奋状态,那么这两个神一直接与它连接的神经元同时处于兴奋状态,那么这两个神经元之间的连接强度将得到加强,反之应该减弱。经元之间的连接强度将得到加强,反之应该减弱。Hebb学习对连接权值的调整可表示为:学习对连接权值的调整可表示为:pwij(t+
29、1)表示对时刻表示对时刻 t 的权值修正一次后所得到的新的权值;的权值修正一次后所得到的新的权值;p取正值,称为学习因子,它取决于每次权值的修正量;取正值,称为学习因子,它取决于每次权值的修正量;pxi(t)、xj(t)分别表示分别表示 t 时刻第时刻第 i 个和第个和第 j 个神经元的状态。个神经元的状态。)()()()1(txtxtwtwjiijij神经网络学习v纠错学习纠错学习纠错学习的基本思想:纠错学习的基本思想:利用神经网络的利用神经网络的期望输出期望输出与与实际实际输出输出之间的之间的偏差偏差作为连接权值调整的参考,并最终减少这作为连接权值调整的参考,并最终减少这种偏差。纠错学习是
30、一种有导师的学习过程。种偏差。纠错学习是一种有导师的学习过程。最基本的误差修正规则为:最基本的误差修正规则为:连接权值的变化与神经元希连接权值的变化与神经元希望输出和实际输出之差成正比。其联结权值的计算公式望输出和实际输出之差成正比。其联结权值的计算公式为:为:p yj(t)为神经元为神经元 j 的实际输出的实际输出;p dj(t)为神经元为神经元 j 的希望输出;的希望输出;)()()()()1(txtytdtwtwijjijij神经网络学习v竞争学习竞争学习基本思想基本思想:网络中某一组神经元相互竞争对外界刺激模网络中某一组神经元相互竞争对外界刺激模式响应的权力,在竞争中获胜的神经元,其连
31、接权会向式响应的权力,在竞争中获胜的神经元,其连接权会向着对这一刺激模式竞争更为有利的方向发展。着对这一刺激模式竞争更为有利的方向发展。v随机学习随机学习基本思想:基本思想:结合随机过程、概率和能量(函数)等概念结合随机过程、概率和能量(函数)等概念来调整网络的变量,从而使网络的目标函数达到最大来调整网络的变量,从而使网络的目标函数达到最大(或最小)。他不仅可以接受能量函数减少(性能得到(或最小)。他不仅可以接受能量函数减少(性能得到改善)的变化,而且还可以以某种概率分布接受使能量改善)的变化,而且还可以以某种概率分布接受使能量函数增大(性能变差)的变化。函数增大(性能变差)的变化。v 感知器
32、学习感知器学习 单层感知器学习算法单层感知器学习算法 单层感知器学习的例子单层感知器学习的例子v BP网络学习网络学习v Hopfield网络学习网络学习神经网络学习 单层感知器学习实际上是一种基于纠错学习规则单层感知器学习实际上是一种基于纠错学习规则,采用迭代的思,采用迭代的思想对连接权值和阈值进行不断调整,直到满足结束条件为止的学习算法。想对连接权值和阈值进行不断调整,直到满足结束条件为止的学习算法。假设假设X(k)和和W(k)分别表示学习算法在第分别表示学习算法在第k次迭代时输入向量和权值向量,次迭代时输入向量和权值向量,为方便,把阈值为方便,把阈值作为权值向量作为权值向量W(k)中的第
33、一个分量,对应地把中的第一个分量,对应地把“-1”固定固定地作为输入向量地作为输入向量X(k)中的第一个分量。即中的第一个分量。即W(k)和和X(k)可分别表示如下:可分别表示如下:X(k)=-1,x1(k),x2(k),xn(k)W(k)=(k),w1(k),w2(k),wn(k)即即x0(k)=-1,w0(k)=(k)。单层感知器学习是一种有导师学习,它需要给出输入样本的期望输出。单层感知器学习是一种有导师学习,它需要给出输入样本的期望输出。假设一个样本空间可以被划分为假设一个样本空间可以被划分为A、B两类,定义两类,定义:功能函数:功能函数:若输入样本属于若输入样本属于A类,输出为类,输
34、出为+1,否则其输出为,否则其输出为-1。期望输出:期望输出:若输入样本属于若输入样本属于A类,期望输出为类,期望输出为+1,否则为,否则为-1。单层感知器学习算法单层感知器学习算法算法思想算法思想 单层感知器学习算法可描述如下:单层感知器学习算法可描述如下:(1)(1)设设t=0t=0,初始化连接权和阈值。即给,初始化连接权和阈值。即给w wi i(0)(i=1,(0)(i=1,2,n)2,n)及及(0)(0)分别赋予一个较小的非零随机数,作为初值。分别赋予一个较小的非零随机数,作为初值。其中,其中,w wi i(0)(0)是第是第0 0次迭代时输入向量中第次迭代时输入向量中第i i个输入的
35、连接权值;个输入的连接权值;(0)(0)是第是第0 0次迭代时输出节点的阈值;次迭代时输出节点的阈值;(2)(2)提供新的样本输入提供新的样本输入x xi i(t)(i=1,2,n)(t)(i=1,2,n)和期望输出和期望输出d(t)d(t);(3)(3)计算网络的实际输出:计算网络的实际输出:nittxtwftyniii,.,2,1)()()()(1单层感知器学习算法单层感知器学习算法算法描述算法描述 (4)(4)若若y(t)=d(t)y(t)=d(t),不需要调整连接权值,转,不需要调整连接权值,转(6)(6)。否则,需。否则,需要调整权值要调整权值 (5)(5)调整连接权值调整连接权值其
36、中,其中,是一个增益因子,用于控制修改速度,其值如果太大,是一个增益因子,用于控制修改速度,其值如果太大,会影响会影响w wi i(t)(t)的收敛性;如果太小,又会使的收敛性;如果太小,又会使w wi i(t)(t)的收敛速度太慢的收敛速度太慢;(6)(6)判断是否满足结束条件,若满足,算法结束;否则,将判断是否满足结束条件,若满足,算法结束;否则,将t t值加值加1 1,转,转(2)(2)重新执行。这里的结束条件一般是指重新执行。这里的结束条件一般是指w wi i(t)(t)对一切对一切样本均稳定不变。样本均稳定不变。若输入的两类样本是线性可分的,则该算法就一定会收敛。若输入的两类样本是线
37、性可分的,则该算法就一定会收敛。否则,不收敛。否则,不收敛。nitxtytdtwtwiii,.,2,1)()()()()1(单层感知器学习算法单层感知器学习算法算法描述算法描述 例例 用单层感知器实现逻辑用单层感知器实现逻辑“与与”运算。运算。解:解:根据根据“与与”运算的逻辑关系,可将问题转换为:输入向量:运算的逻辑关系,可将问题转换为:输入向量:X1=0,0,1,1 X2=0,1,0,1输出向量:输出向量:Y=0,0,0,1 为减少算法的迭代次数,设初始连接权值和阈值取值如下:为减少算法的迭代次数,设初始连接权值和阈值取值如下:w1(0)=0.5,w2(0)=0.7,(0)=0.6并取增益
38、因子并取增益因子=0.4。算法的学习过程如下:算法的学习过程如下:设两个输入为设两个输入为x1(0)=0和和x2(0)=0,其期望输出为,其期望输出为d(0)=0,实际输出为:,实际输出为:y(0)=f(w1(0)x1(0)+w2(0)x2(0)-(0)=f(0.5*0+0.7*0-0.6)=f(-0.6)=0实际输出与期望输出相同,不需要调节权值。实际输出与期望输出相同,不需要调节权值。单层感知器学习的例子单层感知器学习的例子学习例子学习例子(1/4)再取下一组输入:再取下一组输入:x1(0)=0和和x2(0)=1,期望输出期望输出d(0)=0,实际输出:,实际输出:y(0)=f(w1(0)
39、x1(0)+w2(0)x2(0)-(0)=f(0.5*0+0.7*1-0.6)=f(0.1)=1实际输出与期望输出不同,需要调节权值,其调整如下:实际输出与期望输出不同,需要调节权值,其调整如下:(1)=(0)+(d(0)-y(0)*(-1)=0.6+0.4*(0-1)*(-1)=1 w1(1)=w1(0)+(d(0)-y(0)x1(0)=0.5+0.4*(0-1)*0=0.5 w2(1)=w2(0)+(d(0)-y(0)x2(0)=0.7+0.4*(0-1)*1=0.3取下一组输入:取下一组输入:x1(1)=1和和x2(1)=0,其期望输出为,其期望输出为d(1)=0,实际输出为:,实际输出
40、为:y(1)=f(w1(1)x1(1)+w2(1)x2(1)-(1)=f(0.5*1+0.3*0-1)=f(-0.51)=0实际输出与期望输出相同,不需要调节权值。实际输出与期望输出相同,不需要调节权值。单层感知器学习的例子单层感知器学习的例子学习例子学习例子(2/4)再取下一组输入:再取下一组输入:x1(1)=1和和x2(1)=1,其期望输出为,其期望输出为d(1)=1,实际输出为:,实际输出为:y(1)=f(w1(1)x1(1)+w2(1)x2(1)-(1)=f(0.5*1+0.3*1-1)=f(-0.2)=0 实际输出与期望输出不同,需要调节权值,其调整如下:实际输出与期望输出不同,需要
41、调节权值,其调整如下:(2)=(1)+(d(1)-y(1)*(-1)=1+0.4*(1-0)*(-1)=0.6 w1(2)=w1(1)+(d(1)-y(1)x1(1)=0.5+0.4*(1-0)*1=0.9 w2(2)=w2(1)+(d(1)-y(1)x2(1)=0.3+0.4*(1-0)*1=0.7 取下一组输入:取下一组输入:x1(2)=0和和x2(2)=0,其期望输出为,其期望输出为d(2)=0,实际输出为:,实际输出为:y(2)=f(0.9*0+0.7*0-0.6)=f(-0.6)=0实际输出与期望输出相同,不需要调节权值实际输出与期望输出相同,不需要调节权值.单层感知器学习的例子单层
42、感知器学习的例子学习例子学习例子(3/4)再取下一组输入:再取下一组输入:x1(2)=0和和x2(2)=1,期望输出为,期望输出为d(2)=0,实际输出为:,实际输出为:y(2)=f(0.9*0+0.7*1-0.6)=f(0.1)=1 实际输出与期望输出不同,需要调节权值,其调整如下:实际输出与期望输出不同,需要调节权值,其调整如下:(3)=(2)+(d(2)-y(2)*(-1)=0.6+0.4*(0-1)*(-1)=1 w1(3)=w1(2)+(d(2)-y(2)x1(2)=0.9+0.4*(0-1)*0=0.9 w2(3)=w2(2)+(d(2)-y(2)x2(2)=0.7+0.4*(0-
43、1)*1=0.3 实际上,实际上,由由与运算的阈值条件可知,此时的阈值和连接权值以满足结束条与运算的阈值条件可知,此时的阈值和连接权值以满足结束条件,算法可以结束。件,算法可以结束。对此,可检验如下:对此,可检验如下:对输入:对输入:“0 0”有有y=f(0.9*0+0.3*0-1)=f(-1)=0 对输入:对输入:“0 1”有有y=f(0.9*0+0.3*0.1-1)=f(-0.7)=0 对输入:对输入:“1 0”有有y=f(0.9*1+0.3*0-1)=f(-0.1)=0 对输入:对输入:“1 1”有有y=f(0.9*1+0.3*1-1)=f(0.2)=1单层感知器学习的例子单层感知器学习
44、的例子学习例子学习例子(4/4)多层感知器可以解决非线性可分问题,但其隐层神多层感知器可以解决非线性可分问题,但其隐层神经元的期望输出却不易给出。经元的期望输出却不易给出。而单层感知器学习是一种有导师指导的学习过程,而单层感知器学习是一种有导师指导的学习过程,因此其学习算法无法直接用于多层感知器。因此其学习算法无法直接用于多层感知器。由于多层感知器和由于多层感知器和BP网络都属于前向网络,并能网络都属于前向网络,并能较好解决多层前馈网络的学习问题较好解决多层前馈网络的学习问题.因此,可用因此,可用BP学习来解决多层感知器学习问题。学习来解决多层感知器学习问题。多层感知器学习问题多层感知器学习问
45、题 BP网络学习的网络基础是具有多层网络学习的网络基础是具有多层前馈前馈结构的结构的BP网络。为网络。为讨论方便,采用如下图所示的三层讨论方便,采用如下图所示的三层BP网络。网络。BP网络学习的基础网络学习的基础1.三层三层BP网络网络x1xny1yl12mwijwjkijk1nl1三层三层BP网络网络工作信号工作信号的的正向传播正向传播误差误差的的反向反向传播传播 对上述三层对上述三层BPBP网络,分别用网络,分别用I,j,kI,j,k表示输入层、隐含层、输表示输入层、隐含层、输出层节点,且以以下符号表示:出层节点,且以以下符号表示:O Oi i,O,Oj j,O,Ok k分别表示输入层节点
46、分别表示输入层节点i i、隐含层节点、隐含层节点j j,输出层节,输出层节点点k k的的输出输出;I Ii i,I,Ij j,I,Ik,k,分别表示输入层节点分别表示输入层节点i i、隐含层节点、隐含层节点j j,输出层,输出层节点节点k k的的输入输入;w wijij,w,wjkjk分别表示从输入层节点分别表示从输入层节点i i到隐含层节点到隐含层节点j j,从隐含层,从隐含层节点节点j j输出层节点输出层节点k k的输入节点的输入节点j j的连接的连接权值权值;j j、k k分别表示隐含层节点分别表示隐含层节点j j、输出层节点、输出层节点k k的的阈值阈值;对输入层节点对输入层节点i i
47、有:有:BP网络学习的基础网络学习的基础2.网络节点的输入网络节点的输入/输出关系输出关系(1/2),.,2,1(nixOIiii(7.1)对输出层节点有:对输出层节点有:BP网络学习的基础网络学习的基础2.网络节点的输入网络节点的输入/输出关系输出关系(2/2)mjkjjkklkOwI1,.,2,1lkIfOkk,.,2,1)((7.5)(7.4)mjxwOwIjniiijjiniijj,.,2,111()1,2,.,jjOf Ijm 对隐含层节点有:对隐含层节点有:(7.2)(7.3)BP网络学习的方式网络学习的方式BP网络学习的基础网络学习的基础BP网络的激发函数和学习方式网络的激发函数
48、和学习方式mjkjjkklkOwI1,.,2,1lkIfOkk,.,2,1)((7.5)(7.4)mjxwOwIjniiijjiniijj,.,2,111()1,2,.,jjOf IjmBP网络的激发函数网络的激发函数(7.3)通常采用连续可微的通常采用连续可微的S函数,包括单极函数,包括单极 BP网络学习过程是一个对给定训练模式,利用传播公式,沿着减小误差网络学习过程是一个对给定训练模式,利用传播公式,沿着减小误差的方向不断调整网络联结权值和阈值的过程。的方向不断调整网络联结权值和阈值的过程。设样本集中的第设样本集中的第r个样本,其输出层结点个样本,其输出层结点k的期望输出用的期望输出用dr
49、k表示,实际输表示,实际输出用出用yrk表示。其中,表示。其中,drk由训练模式给出,由训练模式给出,yrk由由7.5式计算得出。即有式计算得出。即有 yrk=Ork 如果仅针对单个输入样本,其实际输出与期望输出的误差为如果仅针对单个输入样本,其实际输出与期望输出的误差为 BP算法的传播公式算法的传播公式误差误差 上述误差定义是针对单个训练样本的误差计算公式,它适用于网络的顺上述误差定义是针对单个训练样本的误差计算公式,它适用于网络的顺序学习方式。若采用批处理学习方式,需要定义其序学习方式。若采用批处理学习方式,需要定义其总体误差总体误差。假设样本集中。假设样本集中有有R个样本,则对整个样本集
50、的个样本,则对整个样本集的总体误差定义为总体误差定义为lkkkydE12)(21RrlkrkrkRrrRydEE1121)(21(7.6)(7.7)针对顺序学习方式,其联结权值的调整公式为针对顺序学习方式,其联结权值的调整公式为 BP算法的传播公式算法的传播公式权值变化量权值变化量(1/2)(7.8)(7.9)式中,式中,为增益因子,取为增益因子,取0,1区间的一个正数,其取值与算法的收敛速度有区间的一个正数,其取值与算法的收敛速度有关;关;由下式计算由下式计算jkjkjkwtwtw)()1(式中,式中,wjk(t)和和wjk(t+1)分别是第分别是第t次迭代和次迭代和t+1次迭代时,从结点次