1、智能控制理论及其应用信息学院尤富强4.4 几种典型的神经网络 按照神经网络的拓扑结构与学习算法相结按照神经网络的拓扑结构与学习算法相结合的方法可将神经网络的类型分为前馈网络、竞合的方法可将神经网络的类型分为前馈网络、竞争网络、反馈网络和随机网络四大类。争网络、反馈网络和随机网络四大类。4.4.1 BP神经网络 19861986年,年,D.E.RumelhartD.E.Rumelhart和和J.L.McClellandJ.L.McClelland提出了提出了一种利用误差反向传播训练算法的神经网络,简称一种利用误差反向传播训练算法的神经网络,简称BP(Back BP(Back Propagatio
2、n)Propagation)网络,是一种有隐含层的多层前馈网络,系网络,是一种有隐含层的多层前馈网络,系统地解决了多层网络中隐含单元连接权的学习问题。统地解决了多层网络中隐含单元连接权的学习问题。(1)BP算法原理 BPBP学习算法的基本原理是梯度最速下降法,它的中心思学习算法的基本原理是梯度最速下降法,它的中心思想是调整权值使网络总误差最小。想是调整权值使网络总误差最小。4.4 几种典型的神经网络(1)BP算法原理 多层网络运用多层网络运用BPBP学习算法时,实际上包含了正向和反向学习算法时,实际上包含了正向和反向传播两个阶段。在正向传播过程中,输入信息从输入层经传播两个阶段。在正向传播过程
3、中,输入信息从输入层经隐含层逐层处理,并传向输出层,每一层神经元的状态只隐含层逐层处理,并传向输出层,每一层神经元的状态只影响下一层神经元的状态。如果在输出层不能得到期望输影响下一层神经元的状态。如果在输出层不能得到期望输出,则转入反向传播,将误差信号沿原来的连接通道返回,出,则转入反向传播,将误差信号沿原来的连接通道返回,通过修改各层神经元的权值,使误差信号最小。通过修改各层神经元的权值,使误差信号最小。这种网络没有反馈存在,实际运行仍是单向的,所以这种网络没有反馈存在,实际运行仍是单向的,所以不能将其看成是一非线性动力学系统,而只是一种非线性不能将其看成是一非线性动力学系统,而只是一种非线
4、性映射关系。具有隐含层映射关系。具有隐含层BPBP网络的结构如图网络的结构如图4-94-9所示。所示。(1)BP算法原理4.4 几种典型的神经网络 目标函数:函数为Sigmoid函数:正向推算过程:(1)隐层输出(2)网络输出 4.4 几种典型的神经网络(1)BP算法原理(2)BP算法的计算步骤 1)计算一个输出单元活性改变时的误差导数EA,即实际输出与期望输出的差值 2)计算一个单元所接受总输入变化时的误差导数EI,EI实际上等于上述步骤1)的结果乘以一个单元的总输入变化时其输出的变化率,即4.4 几种典型的神经网络(2)BP算法的计算步骤 3)计算一个与输出单元联接权值改变时的误差变化率E
5、W 4)为了计算对误差总的影响,把对各输出单元的所有单独影响相加 4.4 几种典型的神经网络(2)BP算法的计算步骤 运用步骤2)和4),可把一层单元的EA变成前面一层单元的EA,为了得到期望的前面各层的EA,可重复此计算步骤。当得到一个单元的EA后,可用步骤2)和3)来计算作用于它的输入联接上的EW。4.4 几种典型的神经网络(3)BP算法的计算机实现流程 1)初始化,对所有权值赋以随机任意小值,并对阈值设定初值;2)给定训练数据集,即提供输入向量 和期望输出 ;3)计算实际输出 Xyy4.4 几种典型的神经网络(3)BP算法的计算机实现流程 4)调整权值,按误差反向传播方向,从输出节点开始
6、返回到隐层按下式修正权值 其中:5)返回第2)步重复,直至误差满足要求为止。4.4 几种典型的神经网络(4)使用BP算法应注意的几个问题 学习速率 的选择非常重要。在设置各训练样本的期望输出分量时,不能设置为1或0,以设置为 0.9或0.1较为适宜。若实际问题给予网络的输入量较大,需做归一化处理,网络的输出也要进行相应的处理。各加权系数的初值以设置为随机数为宜。在学习过程中,应尽量避免落入某些局部最小值点上,引入惯性项有可能使网络避免落入某一局部最小值。4.4 几种典型的神经网络(5)BP网络的优缺点1)BP网络主要网络主要:只要有足够多的隐含层和隐节点,BP网络可以逼近任意的非线性映射关系;
7、BP网络的学习算法属于全局逼近的方法,因而它具有较好的泛化能力。2)BP网络的主要网络的主要:收敛速度慢;局部权值;难以确定隐含层和隐节点的个数。4.4 几种典型的神经网络(6)典型的BP网络改进算法 1)引入惯性项 输出层的任意神经元 k 在样本p 作用时的加权系数改进公式为 隐含层的任意神经元 i 在样本p 作用时的加权系数改进公式为4.4 几种典型的神经网络(6)典型的BP网络改进算法2)引入动量项 加入的动量项实质上相当于阻尼项收敛性式中,既可表示单个的连接权系数;为 时刻的负梯度:是 时刻的负梯度:为学习速率,;为动量项因子,。)(kw)()(kwJkDk)1(kD1k0104.4
8、几种典型的神经网络 4.4 几种典型的神经网络 4.4.2 径向基神经网络径向基神经网络 1985年,Powell提出了多变量插值的径向基函数(Radial Basis Function,RBF)方法。径向基函数网络比BP网络需要更多的神经元,但是它能够按时间片来训练网络。径向基网络是一种局部逼近网络,已证明它能以任意精度逼近任一连续函数。4.4 几种典型的神经网络 4.4.2 径向基神经网络径向基神经网络 构成RBF网络的:用RBF作为隐单元的“基”构成隐含层空间,这样就可将输入矢量直接(即不通过权连接)映射到隐空间。当RBF的中心点确定以后,这种映射关系也就确定了。而隐含层空间到输出空间的
9、映射是线性的,即网络的输出是隐单元输出的线性加权和。此处的权即为网络可调参数。4.4 几种典型的神经网络 4.4.2 径向基神经网络径向基神经网络 (1)径向基函数网络模型 RBF网络由两层组成,其结构如图4-10所示。4.4 几种典型的神经网络 4.4.2 径向基神经网络径向基神经网络 (1)径向基函数网络模型 输入层节点只是传递输入信号到隐含层,隐含层节点由象高斯核函数那样的辐射状作用函数构成,而输出层节点通常是简单的线性函数。隐含层节点中的作用函数(核函数)对输入信号将在局部产生响应。4.4 几种典型的神经网络(2)网络输出 RBF网络的输入层到隐含层实现 的非线性映射,径向基网络隐含层
10、节点的作用函数一般取下列几种形式)(xuxi4.4 几种典型的神经网络(2)网络输出最常用的是高斯激活函数 采用高斯基函数,具备如下优点:表示形式简单,即使对于多变量输入也不增加太多的复改性;径向对称;光滑性好,任意阶导数存在;由于该基函数表示简单且解析性好,因而使于进行理论分析。4.4 几种典型的神经网络(2)网络输出最常用的是高斯激活函数 采用高斯基函数,具备如下优点:表示形式简单,即使对于多变量输入也不增加太多的复改性;径向对称;光滑性好,任意阶导数存在;由于该基函数表示简单且解析性好,因而使于进行理论分析。4.4 几种典型的神经网络(2)网络输出 考虑到提高网络精度和减少隐含层节点数,
11、也可以将网络激活函数改成多变量正态密度函数 式中,是输入协方差阵的逆。RBF网络的隐含层到输出层实现 的线性映射,即)()(1iTicxcxEKkiyxu)(4.4 几种典型的神经网络(2)网络输出式中,是隐含层第 个节点的输出;是输出层第 个节点的输出;是隐含层到输出层的加权系数;是输出层的阀值;是隐含层节点数。iuikykkiwkq4.4 几种典型的神经网络(3)RBF网络的学习过程 RBF网络的学习过程分为两个阶段。第一阶段是无教师学习;第二阶段是有教师学习。1)(a)给定各隐节点的初始中心向量 和判定停止计算的 (b)计算距离(欧氏距离)并求出最小距离的节点;)0(ic4.4 几种典型
12、的神经网络(3)RBF网络的学习过程 (c)调整中心 (d)判定聚类质量 对于全部样本 反复进行以上(b),(c)步,直至满足以上条件。k4.4 几种典型的神经网络(3)RBF网络的学习过程 2)有教师学习也称为有监督学习。当 确定以后,训练由隐含层至输出层之间的权值,由上可知,它是一个线性方程组,则求权值就成为线性优化问题。隐含层至输出层之间的连接权值 学习算法为式中,为高斯函数。ickiwT21)()()(xuxuxuuq)(xui4.4 几种典型的神经网络(3)RBF网络有关的几个问题 从理论上而言,RBF网络和BP网络一样可近似任何连续非线性函数。已证明RBF网络具有惟一最佳通近的特性
13、,且无局部极小。求RBF网络隐节点的中心向量 和标准化常数 是一个困难的问题。径向基函数,即径向对称函数有多种。(RBF网络虽具有惟一最佳逼近的特性以及无局部极小的优点,但隐节点的中心难求,这是该网络难以广泛应用的原因。RBF网络学习速度很快,适于在线实时控制。ici4.4 几种典型的神经网络 4.4.3 Hopfield网络网络 美国物理学家Hopfield在1982年首先提出了一种由非线性元件构成的单层反馈网络系统,称这种单层反馈网络为Hopfield网络。图4-11给出Hopfield网络的一种结构形式。4.4 几种典型的神经网络(1)Hopfield网络模型 Hopfield网络的拓扑
14、结构可看作全连接加权无向图,它是一种网状网络,可分为离散和连续两种类型。离散网络的节点仅取+1和-1(或0和1)两个值,而连续网络取0和1之间任一实数。设此网络含有 个神经元,神经元 的状态 取0或1,各神经元按下列规则随机地、异步地改变状态 niiS4.4 几种典型的神经网络(1)Hopfield网络模型 Hopfield网络模型的:只要由神经元兴奋的算法和联接权系数所决定的神经网络的状态,在适当给定的兴奋模式下尚未达到稳定状态,那么该状态就会一直变化下去,直到预先定义的一个必定减小的能量函数达到极小值时,状态才达到稳定而不再变化。4.4 几种典型的神经网络(2)Hopfield网络的联想记
15、忆功能 Hopfield网络的联想记忆过程,从动力学的角度就是非线性动力学系统朝着某个稳定状态运行的过程,这一过程可分为和两个阶段。在给定样本的条件下,按照Hebb学习规则,调整联接权值,使得存储的样本成为动力学的吸引子,这个过程就是学习阶段。而联想是指在已调整好权值不变的情况下,给出部分不全或受了干扰的信息,按照动力学规则改变神经元的状态,使系统最终变到动力学的吸引子。即指收敛于某一点,或周期性迭代(极限环),或处于混沌状态。4.4 几种典型的神经网络(2)Hopfield网络的联想记忆功能 Hopfield网络用于联想记忆的学习算法,本算法取偏流I为零。1)按照Hebb规则设置权值 2)对
16、未知样本初始化4.4 几种典型的神经网络(2)Hopfield网络的联想记忆功能 3)迭代计算 直至节点输出状态不改变时,迭代结束。此时节点的输出状态即为未知输入最佳匹配的样本。4)返回 2)继续迭代。4.4 几种典型的神经网络(3)Hopfield网络的的优化计算功能 Hopfield网络理论的认为,网络从高能状态转移到最小能量状态,则达到收敛,获得稳定的解,完成网络功能。Hopfield网络所构成的动力学系统与固体物理学模型自旋玻璃相似,可用二次能量函数来描述系统的状态,系统从高能状态到低能的稳定状态的变化过程,相似于满足约束问题的搜索最优解的过程。4.4 几种典型的神经网络(3)Hopf
17、ield网络的的优化计算功能 Hopfield网络可用于优化问题的计算。Hopfield网络用于优化问题的计算与用于联想记忆的计算过程是对偶的。在解决优化问题时,权矩阵W已知,目的是求取最大能量正的稳定状态。为此,必须将待优化的问题映射到网络的相应于优化问题可能解的特定组态上,再构造一待优化问题的能量函数,它应和优化问题中的二次型代价函数成正比例。4.4 几种典型的神经网络 4.4.4 小脑模型关联控制器小脑模型关联控制器CMAC网络网络 1975年,Albus根据神经生理学小脑皮层结构特点,提出了一种小脑模型关联控制器(Cerebellum Model Articulation Contro
18、ller),简记为CMAC网络。经过多年的研究,其中包括Miller、Tolle、Ersu及Parks等人杰出的工作,目前它已被公认为是一类联想记忆网络(ANN)的重要组成部分。4.4 几种典型的神经网络 CMAC网络的工作原理 4.4 几种典型的神经网络 CMAC网络的工作原理 4.4 几种典型的神经网络 CMAC网络的工作原理 CMAC网络是一种通过多种映射实现联想记忆网络,实际上这种映射是一种智能查表技术,它模拟小脑皮层神经系统感受信息,获得并处理信息、存储信息,通过联想利用信息的功能。它能实现无教师学习,不仅学习速度快,而且精度高,可以处理不确定性知识,在机器人的手臂协调控制中有着广阔的应用前景。
侵权处理QQ:3464097650--上传资料QQ:3464097650
【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。