有监督的学习.ppt

上传人(卖家):刘殿科 文档编号:7112953 上传时间:2023-09-07 格式:PPT 页数:47 大小:1.22MB
下载 相关 举报
有监督的学习.ppt_第1页
第1页 / 共47页
有监督的学习.ppt_第2页
第2页 / 共47页
有监督的学习.ppt_第3页
第3页 / 共47页
有监督的学习.ppt_第4页
第4页 / 共47页
有监督的学习.ppt_第5页
第5页 / 共47页
点击查看更多>>
资源描述

1、有监督的学习有监督的学习一、预备知识(一、预备知识(3)突触有两种类型:突触有两种类型:兴奋型和抑制型。兴奋型和抑制型。突触的界面具有脉冲突触的界面具有脉冲/电位信号转换功电位信号转换功能,它能将沿神经纤维传递的等幅、恒能,它能将沿神经纤维传递的等幅、恒宽、编码的离散脉冲信号,转换为细胞宽、编码的离散脉冲信号,转换为细胞膜可以处理的连续电位信号。膜可以处理的连续电位信号。一、预备知识(一、预备知识(4)3 3、突触动力学:、突触动力学:突触能够传递神经冲动。树突从四方突触能够传递神经冲动。树突从四方收集由其它神经细胞传来的信息,信息收集由其它神经细胞传来的信息,信息流由树突出发,经过细胞体,然

2、后由轴流由树突出发,经过细胞体,然后由轴突输出。信息传递在突触处主要是发生突输出。信息传递在突触处主要是发生化学和电的变化,从而对神经细胞产生化学和电的变化,从而对神经细胞产生一个兴奋或抑制的动力。一个兴奋或抑制的动力。一、预备知识(一、预备知识(5)4 4、人工神经网络的分类:、人工神经网络的分类:人工神经网络的分类有多种方法,但通人工神经网络的分类有多种方法,但通常采用如下分类:常采用如下分类:按网络结构分为:前馈网络和反馈网络;按网络结构分为:前馈网络和反馈网络;按学习方式分为:监督学习和非监督学习,按学习方式分为:监督学习和非监督学习,也叫有导师学习和无导师学习。也叫有导师学习和无导师

3、学习。本章主要论述前馈网络的监督学习算法。本章主要论述前馈网络的监督学习算法。一、预备知识(一、预备知识(6)5、什么是学习?、什么是学习?学习就是对信息进行编码学习就是对信息进行编码,其目的就是通过向有其目的就是通过向有限个例子(训练样本)的学习来找到隐藏在例子背后限个例子(训练样本)的学习来找到隐藏在例子背后(即产生这些例子)的规律(如函数形式)。(即产生这些例子)的规律(如函数形式)。当样本数据改变系统参数时,系统会对这些改当样本数据改变系统参数时,系统会对这些改变进行自适应或自组织的学习,在神经网络中表现为变进行自适应或自组织的学习,在神经网络中表现为突触的改变。突触的改变。按突触修正

4、假说,神经网络在拓扑结构固定时,按突触修正假说,神经网络在拓扑结构固定时,其学习归结为连接权的变化。其学习归结为连接权的变化。所以,对固定拓扑的神经网络,学习就是求权值,所以,对固定拓扑的神经网络,学习就是求权值,即突触矩阵。即突触矩阵。一、预备知识(一、预备知识(7)6 6、什么是监督?、什么是监督?监督就是对每一个输入监督就是对每一个输入Xi,Xi,都都假定假定我们已经知道它的期望输出我们已经知道它的期望输出Yi,Yi,这个这个YiYi可以理解为监督信号,也叫可以理解为监督信号,也叫“教师信教师信号号”。对每一个输入对每一个输入XiXi及其对其估计的期及其对其估计的期望输出望输出YiYi,

5、就构成了一个训练样本。,就构成了一个训练样本。一、预备知识(一、预备知识(8)7 7、学习的种类:、学习的种类:学习的种类有四种:死记式学习,学习的种类有四种:死记式学习,学习律,自组织的学习和学习律,自组织的学习和HebbianHebbian学习律,相学习律,相近学习。近学习。由于监督学习主要使用的是由于监督学习主要使用的是 学习律,学习律,所以,在此主要介绍所以,在此主要介绍 学习律。学习律。一、预备知识(一、预备知识(9)8 8、学习律学习律 这种方法是用已知例子作为教师对网络的这种方法是用已知例子作为教师对网络的权进行学习。其规则是通过神经网络理想输出权进行学习。其规则是通过神经网络理

6、想输出和实际输出之间的误差来修正网络的权值。在和实际输出之间的误差来修正网络的权值。在很多神经网络中,都采用了这种学习方法,如很多神经网络中,都采用了这种学习方法,如PerceptronPerceptron,AdalineAdaline和和Back-propagationBack-propagation算法等。算法等。一、预备知识(一、预备知识(10)9 9、有监督的学习、有监督的学习 有监督的学习就是根据这若干组训练样本有监督的学习就是根据这若干组训练样本,对人工神经网络进行训练,利用学习系统的误差,对人工神经网络进行训练,利用学习系统的误差(EJEJ ,为,为期望输出与实际输出之差期望输出

7、与实际输出之差),),不断校正不断校正学习系统的行为(即突触权值),使误差尽可能地小,学习系统的行为(即突触权值),使误差尽可能地小,从而从而估计出神经元函数:估计出神经元函数:f:xyf:xy。所以,监督学习的最终任务,就是通过使系统误所以,监督学习的最终任务,就是通过使系统误差尽可能地小,不断地调整突触权值,最终求出神经差尽可能地小,不断地调整突触权值,最终求出神经元函数元函数f f。)y,x(ii一、预备知识(一、预备知识(11)1010、监督学习与非监督学习的区别:、监督学习与非监督学习的区别:在监督学习中,假定我们知道每一输在监督学习中,假定我们知道每一输入对应的期望输出,并利用学习

8、系统的入对应的期望输出,并利用学习系统的误差,不断校正系统的行为;误差,不断校正系统的行为;在非监督学习中,我们不知道学习在非监督学习中,我们不知道学习系统的期望输出。系统的期望输出。11、前馈神经网络的结构示意图前馈神经网络的结构示意图 特点:各神经元接受前一级输入,并输出特点:各神经元接受前一级输入,并输出到下一级,无反馈。输入、输出节点称为可见到下一级,无反馈。输入、输出节点称为可见层,其它中间层称为隐层。层,其它中间层称为隐层。输出隐层输入节点计算单元1212、监督学习流图、监督学习流图 其关键之处,就是将教师信号加入到了网络中其关键之处,就是将教师信号加入到了网络中.环境教师学习系统

9、实际响应误差信号应有响应描述环境状态的信号+-二、有监督的函数估计二、有监督的函数估计(1)在学习之前,神经网络犹如一个黑盒子,在学习之前,神经网络犹如一个黑盒子,我们能做的,就是可以给它加一定的输入我们能做的,就是可以给它加一定的输入 XiXi,再给每个输入,再给每个输入XiXi提供一个期望输出提供一个期望输出YiYi,即即“教师信号教师信号”,从而形成了一系列的样本,从而形成了一系列的样本对(对(Xi,YiXi,Yi)。)。有监督的函数估计,就是通过包含有监督的函数估计,就是通过包含“教教师信号师信号”的样本对(的样本对(Xi,YiXi,Yi),求出神经网络求出神经网络的传输函数的传输函数

10、 f f 的近似表达式。的近似表达式。二、有监督的函数估计二、有监督的函数估计(2)采用的方法,就是利用误差函数采用的方法,就是利用误差函数EJEJ(期望输出与实际输出的差值),不断调整(期望输出与实际输出的差值),不断调整ANNANN的突触权值,使的突触权值,使EJEJ达到最小,从而达达到最小,从而达到对到对ANNANN函数的估计。函数的估计。二、有监督的函数估计二、有监督的函数估计(3)已知随机样本矢量对已知随机样本矢量对通过实验可以测出实际输出通过实验可以测出实际输出 求出求出EJ=-EJ=-然后通过使然后通过使EJEJ最小而修改突触权值来求出最小而修改突触权值来求出f:f:其中其中F

11、F是要估计的是要估计的ANNANN函数;函数;是输入空间;是输入空间;是输出空间是输出空间。11,),(,)mmx yxy(yi yi yi:fxynixxRpiyyR三、监督学习就是有效的训练三、监督学习就是有效的训练 有效训练是指,对具有记忆功能的系统,有效训练是指,对具有记忆功能的系统,当使用训练样本对其进行学习之后,系统能够当使用训练样本对其进行学习之后,系统能够记住所学的方法,并能处理类似的问题。记住所学的方法,并能处理类似的问题。对对ANN进行有监督的学习就是有记忆功能进行有监督的学习就是有记忆功能的系统。也就是说,使用期望输出与实际输出的系统。也就是说,使用期望输出与实际输出的误

12、差不断校正其突触权值,最终的结果,就的误差不断校正其突触权值,最终的结果,就是系统具备了一定的功能,训练取得了一定的是系统具备了一定的功能,训练取得了一定的成效。就像巴普洛夫条件反射试验一样成效。就像巴普洛夫条件反射试验一样。四、已知类隶属度的监督学习(四、已知类隶属度的监督学习(1)就是用已知的模式类的隶属度函数,就是用已知的模式类的隶属度函数,来调整系统的突触权值,从而达到学习的来调整系统的突触权值,从而达到学习的目的。目的。比如,在噪声随机竞争学习定律中,比如,在噪声随机竞争学习定律中,由于没有使用类成员信息校正突触矢量,由于没有使用类成员信息校正突触矢量,所以是非监督学习。所以是非监督

13、学习。四、已知类隶属度的监督学习(四、已知类隶属度的监督学习(2)噪声随机竞争学习定律为噪声随机竞争学习定律为:它实际上就是在随机竞争学习中加入了噪声它实际上就是在随机竞争学习中加入了噪声ni。其。其规律为:若第规律为:若第j个神经元获胜,则学新忘旧;若第个神经元获胜,则学新忘旧;若第j个个神经元失败,则不学新也不忘旧。神经元失败,则不学新也不忘旧。其不足是:未使用已知模式类其不足是:未使用已知模式类X的隶属度信息。的隶属度信息。如果如果使用了类成员信息校正突触矢量,就成了监使用了类成员信息校正突触矢量,就成了监督学习。督学习。因为是监督学习,有因为是监督学习,有“教师教师”信号,我们预信号,

14、我们预先就知道其期望分类,所以实行了奖惩机制:若分对,先就知道其期望分类,所以实行了奖惩机制:若分对,则奖励;分错则惩罚。则奖励;分错则惩罚。()()jjijjmSySxmn四、已知类隶属度的监督学习(四、已知类隶属度的监督学习(3)而对应的监督随机竞争学习定律为:而对应的监督随机竞争学习定律为:增强函数为:增强函数为:若若x x属于属于Dj,Dj,上式中第一项为上式中第一项为+1+1,说明是分对了;,说明是分对了;若若x x不属于不属于Dj,Dj,上式中第二项为上式中第二项为-1-1,说明是分错了。奖,说明是分错了。奖励正确的模式分类励正确的模式分类1 1,惩罚错误的模式分类为,惩罚错误的模

15、式分类为1 1,从而调整权值,达到学习的目的。从而调整权值,达到学习的目的。()()jjjjjjmr x SyxmnjijDDijrII五、感知器学习算法(五、感知器学习算法(1)1 1、感知器拓扑结构、感知器拓扑结构 bpbjb1a1aianak1aknakibk1bkjbkp 11 1n 1i j1 nj npLALBW五、感知器学习算法(五、感知器学习算法(2)2、感知器学习、感知器学习 网络用误差修正规则(网络用误差修正规则(规则)学习,训练样本对规则)学习,训练样本对为(为(,)k=1,2,m.第第k个模式对应的输入个模式对应的输入向量向量 =(,)为模拟值模式,)为模拟值模式,输出

16、向量输出向量 =(,)为二值模式。)为二值模式。网络中,网络中,层的层的n个单元对应模式个单元对应模式 的的n个分量个分量,层的层的p个单元对应模式个单元对应模式 的的P个分量个分量.所以,感知器最突出的一个特点便是:输入是所以,感知器最突出的一个特点便是:输入是模拟向量,输出是二值模式。模拟向量,输出是二值模式。AkBkAkak1ak2aknBkbk1bk2bkpLAAkLBBk五、感知器学习算法(五、感知器学习算法(3)由于由于 层中每个单元只取值层中每个单元只取值+1或或-1,因此可将它视作输入模式因此可将它视作输入模式 (k=1,2m)两个可能的分类。在学习开始两个可能的分类。在学习开

17、始 时,由各连时,由各连接权决定的超平面随机地被接权决定的超平面随机地被 放到放到N维空间。维空间。随着学习的进行,这个超平面渐渐移动,直随着学习的进行,这个超平面渐渐移动,直到它能将两类模式恰当划分为止。到它能将两类模式恰当划分为止。AkLB五、感知器学习算法(五、感知器学习算法(4)3 3、算法过程、算法过程 从随机的权值开始;从随机的权值开始;反复应用每个训练样例到感知器,反复应用每个训练样例到感知器,只要它误分样例,就修改感知器的权值;只要它误分样例,就修改感知器的权值;重复这个过程,直到感知器正确分重复这个过程,直到感知器正确分类所有的训练样例为止。类所有的训练样例为止。五、感知器学

18、习算法(五、感知器学习算法(5)4 4、具体算法:、具体算法:(1 1)初始化连接权。将)初始化连接权。将 层到层到 层的连接权层的连接权 ,i=1,2,n,j=1,2,pi=1,2,n,j=1,2,p及及 层单元阈值层单元阈值 j=1,2,pj=1,2,p赋予赋予-1-1,+1+1间的随机值。间的随机值。(2)(2)对每一模式对(对每一模式对(,)k=1,m,k=1,m,完成下面操作:完成下面操作:A A、将、将 的值送到的值送到 层单元,层单元,层单元的输出之加层单元的输出之加权和作为权和作为 层单元的输入,计算层单元的输入,计算 层单元的输出:层单元的输出:LALBLB ij jAkBk

19、AkLALALBLB)jin1iij(fjab 五、感知器学习算法(五、感知器学习算法(6)上式中上式中j=1p,f(x)为双极阶跃函数为双极阶跃函数 B、计算、计算 层单元希望输出与实际输出间误差层单元希望输出与实际输出间误差 1010()xxfxLB,1.kjjjjpdbb五、感知器学习算法(五、感知器学习算法(7)C C、调整、调整 层单元与层单元与 层单元之间的连接权层单元之间的连接权式中式中i=1n,j=1p,0 1i=1n,j=1p,0 1(3)(3)重复步骤(重复步骤(2 2)直到误差)直到误差 (j=1pj=1p且且k=1mk=1m)变得足够小或变为)变得足够小或变为0 0为止

20、。为止。ijija dLALBjd五、感知器学习算法(五、感知器学习算法(8)5 5、说明:、说明:感知器算法,如果输入模式是线性感知器算法,如果输入模式是线性可分的,学习后能对输入模式正确分类;可分的,学习后能对输入模式正确分类;如果输入模式本身是线性不可分的,如果输入模式本身是线性不可分的,那么学习后的网络不能对输入模式正确那么学习后的网络不能对输入模式正确分类。分类。六、六、LMSLMS算法算法(1)(1)1 1、LMSLMS就是最小均方误差算法。它就是最小均方误差算法。它采用的准则函数是均方误差函数。采用的准则函数是均方误差函数。它通过调整单个神经元的权值,以它通过调整单个神经元的权值

21、,以使误差为最小,其数学基础是误差曲面使误差为最小,其数学基础是误差曲面上的梯度下降。上的梯度下降。其学习过程也是根据教师信号计算其学习过程也是根据教师信号计算其均方误差,由均方误差调整突触向量,其均方误差,由均方误差调整突触向量,如此反复,最后达到学习的目的。如此反复,最后达到学习的目的。六、六、LMSLMS算法算法(2)(2)2 2、权值调整公式:、权值调整公式:其中其中 为下一次权值向量的取值,为下一次权值向量的取值,为现为现在的权向量,在的权向量,为现在的输入向量,为现在的输入向量,为为现在的误差,现在的误差,为系数,为系数,为输入向量的模为输入向量的模.2101KkkKaakXX0K

22、KKyyK1KKXKKX七、反向传播网络学习(七、反向传播网络学习(1)1 1、定义:反向传播神经网络、定义:反向传播神经网络(Back-Propagation NetworksBack-Propagation Networks)简称)简称BPBP模型。由于在这一神经网络模型中引入模型。由于在这一神经网络模型中引入了中间隐含神经元层,所以,标准的了中间隐含神经元层,所以,标准的BPBP模型由三个神经元层次组成,分别为输模型由三个神经元层次组成,分别为输入层、隐层和输出层。各层次之间的神入层、隐层和输出层。各层次之间的神经元形成全互连接,各层次内的神经元经元形成全互连接,各层次内的神经元之间没有

23、连接。之间没有连接。七、反向传播网络学习(七、反向传播网络学习(2)2 2、BPBP算法是通过使代价函数最小化的过算法是通过使代价函数最小化的过程来完成输入到输出的映射。程来完成输入到输出的映射。代价函数有多种,但通常在代价函数有多种,但通常在BPBP算法中,将算法中,将代价函数定义为期望输出与实际输出的误差平代价函数定义为期望输出与实际输出的误差平方和。方和。在本算法中,将代价函数(期望输出与实在本算法中,将代价函数(期望输出与实际输出的误差平方和)用与其等价的一般化误际输出的误差平方和)用与其等价的一般化误差来代替,从而减小了运算量。差来代替,从而减小了运算量。七、反向传播网络学习(七、反

24、向传播网络学习(3)3 3、BPBP算法分成两个阶段算法分成两个阶段 第一阶段:正向传播。第一阶段:正向传播。在正向传播过程中,输入信息从输在正向传播过程中,输入信息从输入层经隐层逐层处理,并传向输出层,入层经隐层逐层处理,并传向输出层,获得各个单元的实际输出,每一层神经获得各个单元的实际输出,每一层神经元的状态只影响下一层神经元的状态。元的状态只影响下一层神经元的状态。七、反向传播网络学习(七、反向传播网络学习(4)第二阶段:反向传播。第二阶段:反向传播。如果在输出层未能得到期望的输出,如果在输出层未能得到期望的输出,则转入反向传播,计算出输出层各单元则转入反向传播,计算出输出层各单元的一般

25、化误差,然后将这些误差信号沿的一般化误差,然后将这些误差信号沿原来的连接通路返回,以获得调整各连原来的连接通路返回,以获得调整各连接权所需的各单元参考误差,通过修改接权所需的各单元参考误差,通过修改各层神经元的权值,使得误差信号最小。各层神经元的权值,使得误差信号最小。七、反向传播网络学习(七、反向传播网络学习(5)4 4、BPBP网络拓扑结构网络拓扑结构 bpbib1a1ahanak1aknakibk1bkjbkp 11 1n pqc1c1cqcjv11vnpv1h七、反向传播网络学习(七、反向传播网络学习(6)5 5、BPBP算法:算法:(1 1)初始化。将网络中所有权值及阈值赋予()初始

26、化。将网络中所有权值及阈值赋予(-1-1,+1+1)之间的随机值;)之间的随机值;(2 2)对于样本模式对()对于样本模式对(,)()(k=1mk=1m)进行如下操作:进行如下操作:A A)将)将 的值送到输入层单元,通过连接权矩的值送到输入层单元,通过连接权矩阵阵V V送到隐层单元,产生隐层单元新的激活值送到隐层单元,产生隐层单元新的激活值 式中式中i=1p,i=1p,f f为为S S型函数:型函数:KAKCKA1nih ihihfbva 11xf xe七、反向传播网络学习(七、反向传播网络学习(7)B)B)计算输出层单元的激活值计算输出层单元的激活值 C)C)计算输出层单元的计算输出层单元

27、的一般化误差一般化误差 式中式中j=1q,j=1q,为输出层单元为输出层单元j j的期望的期望输出;输出;11.pjjijjifjqCbr1kjjjjjdcccckjc七、反向传播网络学习(七、反向传播网络学习(8)D)计算隐含层单元对于每个计算隐含层单元对于每个 的误差的误差 式中式中i=1p;上式相当于将输出层单元的误差反上式相当于将输出层单元的误差反向传播到隐含层;向传播到隐含层;E)调整隐含层到输出层的连接权调整隐含层到输出层的连接权 为学习率,为学习率,0 1.jd11pjiiijjjebbd1.,1.ijijipjqb d七、反向传播网络学习(七、反向传播网络学习(9)F)F)调整

28、输入层到隐含层的连接权调整输入层到隐含层的连接权 式中式中h=1n,i=1p,0 1;h=1n,i=1p,0 1;G)G)调整输出单元的阈值调整输出单元的阈值 式中式中j=1q;j=1q;hihjva ejrd七、反向传播网络学习(七、反向传播网络学习(10)H)H)调整隐含层单元的阈值调整隐含层单元的阈值 (3 3)重复步骤()重复步骤(2 2),直到对于),直到对于k=1,2,m,k=1,2,m,误差误差 变得足够小或为变得足够小或为0 0为止。为止。1.;iieipjd七、反向传播网络学习(七、反向传播网络学习(11)6、BP算法的优点算法的优点 (1)BP算法是一个很有效的算法,许多算

29、法是一个很有效的算法,许多问题都可由它来解决。问题都可由它来解决。BP模型把一组样本的模型把一组样本的I/O问题变为一个非线性优化问题,使用了优问题变为一个非线性优化问题,使用了优化中最普通的梯度下降法,用迭代运算求解权化中最普通的梯度下降法,用迭代运算求解权相应于学习记忆问题,加入隐节点使优化问题相应于学习记忆问题,加入隐节点使优化问题的可调参数增加,从而可得到更精确的解。的可调参数增加,从而可得到更精确的解。七、反向传播网络学习(七、反向传播网络学习(12)(2)对平稳系统,从理论上说通过)对平稳系统,从理论上说通过监督学习可以学到环境的统计特征,这监督学习可以学到环境的统计特征,这些统计

30、特征可被学习系统作为经验记住。些统计特征可被学习系统作为经验记住。如果环境是非平稳的,通常的监督学习如果环境是非平稳的,通常的监督学习没有能力跟踪这种变化,此时网络需要没有能力跟踪这种变化,此时网络需要一定自适应能力。一定自适应能力。七、反向传播网络学习(七、反向传播网络学习(13)7 7、BPBP算法的缺点:算法的缺点:从数学上看,它是一个非线性优化问题,从数学上看,它是一个非线性优化问题,这不可避免地存在有局部极小问题;学习算法这不可避免地存在有局部极小问题;学习算法的收敛速度很慢,通常要几千步迭代甚至更多;的收敛速度很慢,通常要几千步迭代甚至更多;网络运行还是单向传播,没有反馈;对新加入网络运行还是单向传播,没有反馈;对新加入的样本要影响到已经学完的样本,刻画每个输的样本要影响到已经学完的样本,刻画每个输入样本的特征的数目也要求必须相同。入样本的特征的数目也要求必须相同。66、节制使快乐增加并使享受加强。德谟克利特67、今天应做的事没有做,明天再早也是耽误了。裴斯泰洛齐68、决定一个人的一生,以及整个命运的,只是一瞬之间。歌德69、懒人无法享受休息之乐。拉布克70、浪费时间是一桩大罪过。卢梭

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 办公、行业 > 各类PPT课件(模板)
版权提示 | 免责声明

1,本文(有监督的学习.ppt)为本站会员(刘殿科)主动上传,163文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。
2,用户下载本文档,所消耗的文币(积分)将全额增加到上传者的账号。
3, 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(发送邮件至3464097650@qq.com或直接QQ联系客服),我们立即给予删除!


侵权处理QQ:3464097650--上传资料QQ:3464097650

【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。


163文库-Www.163Wenku.Com |网站地图|