1、 神经网络的发展及特点神经网络就是用物理上可以实现的器件、系统或现有的计算机来模拟人脑的结构和功能的人工系统。它由大量简单神经元经广泛互联构成一种计算结构,在某种程度上可以模拟人脑生物神经系统的工作过程。21、神经网络的发展神经网络的发展可以追溯到一个世纪之前。一般将这一百多年的历史分为三个阶段。自1890年至1969年为初始发展期;1969年至1986年为发展的过渡时期;自1986年以来,步入了发展的高潮期。3 初始发展期1890年,美国生理学家出版了生理学一书,首次阐明了人脑的结构及其功能,以及一些学习、联想、记忆的基本规则。1943年,和根据已知的神经细胞生物基础,描述了一个简单的人工神
2、经元模型,即后来的“MP模型”。41949年发表了论著行为自组织,提出了很多有价值的观点。同时提出了网络学习的规则,从而使神经网络具有了可塑性。1958年,提出了“感知器()”模型,用于模拟一个生物视觉模型。这是第一个真正的神经网络。5 过渡时期1969年,和经过对“感知器”模型的深入研究,发表了论著感知器,分析了一些简单的单层感知器,说明这些单层的感知器只能解决线性分类问题,对于非线性或其他的分类则会遇到很大困难。这个观点使得许多专家放弃了对神经网络的研究。但在这个阶段,也还有一些研究人员在继续进行探索。61982年,物理学家提出了全连接神经网络,后来被称为神经网络,在网络的理论分析和综合上
3、达到了相当的深度。虽然早期的网络存在一些问题,如,网络的权值固定、不能学习、大规模的网络实现困难,而且无法克服局部极小点问题等等,但的研究为神经网络带来了复兴的希望,极大地推动了神经网络的发展。7这个时期,由等多人组成的并行分布处理研究小组提出了误差反向传播神经网络,即网络。这是一种按照一定的输入输出关系进行自组织的神经网络。同时他们还明确揭示了神经网络的三个主要属性,即网络模型的结构、神经元的输入输出变换函数及算法,对神经网络在各领域的推广应用起了很大的作用。网络目前已成为一种应用最为广泛的神经网络。81987年,在美国圣地亚哥召开了第一届国际神经网络会议,此后国际神经网络协会成立。从此,神
4、经网络技术的研究呈现出蓬勃活跃的局面,理论研究不断深入,各种类型的网络模型和算法纷纷出现,应用范围不断扩大。发展高潮期91994年,在美国奥兰多首次召开全球计算智能大会,此次会议将模糊算法、神经网络和遗传算法三个领域综合起来,有力地促进了不同研究领域之间的交叉渗透和共同发展。102、神经网络的特点神经网络具有以下四个基本特点:(1)广泛连接的巨型系统。脑科学已经证明人脑是由数量及其庞大的脑细胞组成的,每个细胞之间又有着及其广泛复杂的相互连接。人工神经网络着眼于模拟人脑,虽然目前还无法实现和人脑一样庞大的结构体系,但从本质上说,它是一个广泛连接的巨型系统。11(2)分布式存储信息。神经网络系统中
5、,信息是以某种形式分布在广大神经元及其相互连接中的。(3)并行处理功能。研究表明,神经元之间的信息传递是毫秒级的,比电子开关的速度慢得多;而实际上人在瞬间就能完成一幅图像的辨识。由此可以推断,人脑对信息的处理是并行式的。12(4)自学习、自组织和自适应功能。学习功能是神经网络的一个重要特征,正是因为神经网络具有自学习能力,才使得它在应用中表现出强大的自组织和自适应能力。13神经网络技术的出现,为故障诊断问题提供了一种新的解决途径。特别是对复杂系统,由于基于解析模型的故障诊断方法面临难以建立系统模型的实际困难,基于知识的故障诊断方法成了重要的、也是实际可行的方法。14 神经网络的基础1、神经元模
6、型神经网络的基本单元称为“神经元”,它是对生物神经元的简化和模拟。15生物神经元由细胞体、树突和轴突三部分组成。如下图所示。图 生物神经元结构示意图16生物神经元具有两种工作状态:“兴奋”和“抑制”。当传入的神经冲动使细胞膜电位升至高于其阈值时,细胞进入兴奋状态,产生神经冲动,由轴突输出;反之,若传入的神经冲动使细胞膜电位下降至低于阈值时,细胞进入抑制状态,就没有神经冲动输出。17基于生物神经元的结构和工作特性,对生物神经元进行模拟,得到人工神经元。如下图所示。图中,各变量的下标i表示神经网络中的第i个神经元。该神经元是一个多输入、单输出的非线性元件。图 人工神经元模型示意图18人工神经元的输
7、入输出关系可描述为:)(1iinjijijisfyxs其中,(1n)为来自其他神经元的输入信号;i为该神经元的阈值;表示从神经元j到神经元i的连接权值;表示神经元的状态;f()为某种非线性函数,它将神经元的状态变换成神经元的输出,所以称为神经元的输出函数或者传递函数。19为了便于统一处理,上式可表示为:njjijixs0式中:i0-i;x01。20神经元模型中的传递函数f()可以有多种形式。下面介绍几种常用的形式。(1)阈值单元模型)()(xuxf或1)(2)(xuxf其中,u(x)表示单位阶跃函数。阈值单元模型的特点是其传递函数为二值函数,神经元的输出为0,1或者1。感知器、模型以及最初的模
8、型中都采用这种类型的传递函数。21(2)限幅线性函数)()(xsigncaxxfbxbx其中,a0。22(3)型函数常用的型函数有以下两种:xexf11)(xxxxeeeexthxf)()(型函数因其连续、可微的性质,得到了广泛的应用。在网络中就采用了这种类型的传递函数。23(4)高斯型函数基本的高斯型函数如下:)2exp()(22xxf在(径向基函数)神经网络中采用了这种类型的传递函数。242、神经网络的拓扑结构神经网络是由大量神经元相互连接而构成的网络。根据连接方式的不同,神经网络的拓扑结构通常可分成两大类:层状结构和网状结构。2526下图为三层前馈网络的结构图。它包括三个单层的输入层、隐
9、含层和输出层。神经网络中有计算功能的节点称为计算单元,因此,前馈网络的隐含层和输出层节点属于计算单元。图 三层前馈网络的结构图2728根据状态信息的反馈途径,可以构成两种基本的递归结构模型:型和型,如下图所示。(a)型(b)型图 基本的结构模型29图 网状结构的神经网络输入信号要在所有神经元之间反复传递,从某一初始状态开始,经过若干次变化,直到收敛于某一稳定状态或进入周期振荡等状态为止。网状结构的神经网络如下图所示。303、神经网络的学习规则神经网络卓越的信息处理能力来自于网络中各神经元之间的连接权值。要模拟人脑的信息处理能力,必须使神经网络具有学习功能。学习的本质是调整各神经元之间的连接权值
10、,而如何调整连接权值就构成了不同的学习算法。31神经网络的学习方法有两大类:有导师学习和无导师学习。在无导师学习中,没有直接的误差信息,需要建立一个间接的评价函数,以对网络的某种行为进行评价。在有导师学习方法中,神经网络的输出及期望的输出(即教师值)相比较,然后根据两者之间的误差函数(又称为目标函数)来调整网络的权值,最终使误差函数达到最小值。32下面介绍几种常用的神经网络学习规则。(1)学习规则学习规则来源于关于生物神经元学习过程的假设:当两个神经元同时处于兴奋状态时,它们之间的连接应当加强。33令表示从神经元j到神经元i的连接权值,则按下式确定的变化量调整:此式为有导师的学习规则。其中,自
11、变量t表示当前时间;(t)为教师信号;g(,)和h(,)为适当的非线性函数。),()(),(ijjiiijtyhtttyg34当没有教师信号时,可以设g(,)的函数值为(t),h(,)的函数值正比于(t),因此,连接权值的变化量按下式调整:)()(tytyjiij上式为无导师的学习规则。其中,0表示学习速率的系数。35在有导师的学习规则中,如果g(,)的函数值正比于教师信号(t)及神经元i的输出(t)之间的差值,即并且,h(,)的函数值及神经元j的输出(t)成正比,即11)()()(),(tytttttygiiii其中,10为系数。)(),(2tytyhjijj其中,20为系数。则由学习规则可
12、得:)(tyjij上式即为学习规则。式中,0表示学习速率的系数。(2)()学习规则36在学习规则中,教师信号可看作为期望的输出,式11)()()(),(tytttttygiiii中的反映了神经网络期望输出和实际输出之间的差异。学习规则的实质就是通过迭代计算逐步调整网络权值,直到使误差达到最小。37竞争式学习规则属于无导师学习方式。它认为,神经网络是由许多“区域”组成的,各个区域包含一定数量的神经元,当有外界刺激输入时,在同一个区域里的各个神经元发生竞争性响应,其结果是只有一个神经元获胜从而达到兴奋状态,其余神经元则被抑制。(3)竞争式学习规则38“自组织竞争人工神经网络”是一种模拟某类生物神经
13、网络结构和现象的人工神经网络模型。在该类生物神经网络中存在一种侧抑制现象,即一个神经细胞兴奋后,通过它的分支会对周围其他神经细胞产生抑制。这种侧抑制使神经细胞之间出现竞争,一个兴奋最强的神经细胞对周围神经细胞的抑制作用也最强。“竞争式学习规则”是自组织竞争神经网络中的一种基本学习规则。39设j为三层前向网络输入层中某个神经元(1),i为隐含层神经元(1),且隐含层神经元采用型传递函数。假设整个隐含层属于同一个竞争区域,则竞争式学习规则如下:)()(ijjjiiijsysy式中,表示隐含层神经元i的状态,表示该神经元的输出;表示输入层神经元j的状态,表示该神经元的输出。isiyjsjy40如果在
14、隐含层中竞争的结果神经元k获胜,则其输出达到最大1)(kksy)()(ijjjiiijsysy根据式输入层所有及该神经元相连接的权值都将发生变化,其结果将使 (),即 0,从而使权值的调整达到稳态。ij而此时其他竞争失败的神经元受抑制,其输出为最小:0)(iisy)(ki 41 反向传播()网络()网络是一种最为常用的前馈网络,其结构如下图所示。它有一个输入层,一个输出层,一个或多个隐含层。每一层上包含若干个节点,每个节点代表一个神经元。同一层上的各个节点之间无耦合连接关系,信息从输入层开始在各层之间单向传播,依次经过各隐含层节点,最后到达输出层节点。图 网络42设网络接受的输入数据为n个,以
15、向量x表示:Tnxxxx),.,(21网络产生m个输出数据,用向量y表示:Tmyyyy),.,(21则网络将对应地有n个输入节点、m个输出节点。网络可视为从n维输入空间到m维输出空间地非线性映射,即yxfRRfmn)(,:43定理1:给定任一连续函数:f:0,1n ,f可以精确地用一个三层网络实现,该网络的第一层即输入层有n个神经元,中间层有(2n1)个神经元,第三层即输出层有m个神经元。该定理反映了映射网络的存在性。定理2:给定任意0,对于任意的L2型连续函数f:0,1n ,存在一个三层网络,它在任意平方误差精度内逼近f。由上述两个定理表明,只要用三层的网络就可实现L2型连续函数。基于这一结
16、论,在实际应用中三层网络已成为最为广泛应用的网络。44在网络的应用中,如何选取网络的隐含层数及其节点数,目前尚无准确的理论和方法。以下是几个确定三层网络隐含层节点数h的经验参考公式:amnh(1)其中,n为输入神经元数;m为输出神经元数;a为110之间的常数。nh2log(2)45网络的学习采用算法,即“误差反向传播算法”。在算法中要用到梯度下降法,下面先介绍梯度下降法,然后再介绍算法。梯度下降法梯度下降法源于最优化计算方法,它是各类有导师学习算法中最为基本的一种方法。46梯度下降法的基本思想是以神经网络期望的输出和网络实际输出之间的误差平方作为学习的目标函数,根据使其最小化的原则来调整网络的
17、权值。定义如下误差函数:2),()(21)(kWYkYWE式中,k为网络的离散时间变量;W为网络所有权值组成的向量;Y(k)为期望的网络输出向量;为网络的实际输出向量;表示向量的欧几里德范数。),(kWY47)()()()()1(kWWWWEkkWkW式中,(k)是控制权值调整速度的变量,通常和计算的步长有关。用数学公式表示为:48 算法设网络共有M层(不包括输入层),第l层的节点数为,(l)表示第l层节点k的输出,则(l)由下两式确定:)1()(10)1()()(llknjljlkjlkyWysl式中,(l)为第l层神经元k的状态,神经元的状态按式 表示,即 ,(为该神经元的阈值。)njji
18、jixs01)1(0ly)()(0lklkW)()()(lklksfy49上式采用了向量表示法,其中,(l)为由网络权值组成的系数行向量,y(1)为第1层的输出列向量。输入层作为第0层处理,因此,y(0),x为网络的输入向量。50给定样本模式X,Y后,网络的权值将被调整,使如下的误差目标函数达到最小:MnkkkYYYYWE122)(2121)(式中,为网络的输出;W表示网络中所有的权值;为最后一层(输出层)的节点数,因此m,且 。Y)(MkkyY 51根据梯度下降最优化方法,可以通过E(W)的梯度来修正权值。连至第l层第i个神经元的权值向量(l)的修正量由下式确定:)1()()()()(lli
19、liliyWWEW对于输出层(第M层),上式中的 为:)(li)()()()(MiiiMisfYY 对于隐含层 为:)(li11)()1()1()()(lnjliljlijlisf52以上即为算法。对于给定的输入输出样本,按照上述过程反复调整权值,最终使网络的输出接近期望的输出。由于权值的修正是在输入所有样本并计算总体误差后进行的,所以算法属于批处理的方法。53算法整个处理过程可以分为两个阶段:第二个阶段:对权值的修正,从网络的输出层开始逐层向后进行计算和修正,这是反向传播过第二个阶段:对权值的修正,从网络的输出层开始逐层向后进行计算和修正,这是反向传播过程。程。第一个阶段:从网络的输入层开始
20、逐层向前计算,根据输入样本计算出各层的输出,最终求出网络第一个阶段:从网络的输入层开始逐层向前计算,根据输入样本计算出各层的输出,最终求出网络输出层的输出,这是前向传播过程;输出层的输出,这是前向传播过程;这两个过程反复交替,直到收敛为止。54v反向传播的适用情况v正向传播用于进行网络计算,对其输入求出它的输出;反向传播用于逐层传递误差,修改连接权值,以使网络能进行正确的计算。v一旦网络经过训练用于求解现实问题,则就只需正向传播,不需要再进行反向传播。55 网络实质上实现了一个从输入到输出的映射功能,而数学理论已证明它具有实现任何复杂非线性映射的功能。这使得它特别适合于求解内部机制复杂的问题;
21、网络能通过学习带正确答案的实例集自动提取“合理的”求解规则,即具有自学习能力;多层前向网络的优点:网络具有一定的推广、概括能力。56算法的实质是梯度下降法,因而可能存在陷入局部极小以及收敛速度慢等问题。为了解决这些问题,通常采用全局最优算法及算法相结合的方法,同时还可以采取以下措施:给权值加以扰动。在学习的过程中给权值加以扰动,有可能使网络脱离当前局部最小点的陷阱;选择合适的初始权值;在网络的学习样本中适当加些噪声,可避免网络依靠死记的办法来学习;多层前向网络存在的问题及采取的措施:57 当网络的输出及样本之间的差小于给定的允许误差范围时,则对此样本神经网络不再修正其权值,以此来加快网络的学习
22、速度;适当选择网络的大小,尽可能使用三层网络,这样可以避免因层数多、节点数多、计算复杂化而可能导致反向误差发散的情况。58 径向基函数()网络径向基函数()网络也是一种常用的前馈网络,其结构如下图所示。图 网络59从结构上看,径向基函数()网络它属于三层前馈网络,包括一个输入层、一个输出层和一个隐含层。输入层节点的作用是将输入数据输入层节点的作用是将输入数据x1,x2,传递到隐含层节点;,传递到隐含层节点;隐含层节点称为节点,由以高斯型传递函数为典型代表的辐射状函数神经元构成;隐含层节点称为节点,由以高斯型传递函数为典型代表的辐射状函数神经元构成;输出层节点的传递函数通常为简单的线性函数。输出
23、层节点的传递函数通常为简单的线性函数。60隐含层节点的高斯核函数对输入数据将在局部产生响应。即当输入数据靠近高斯核函数的中心时,隐含层节点将产生较大的输出;反之则产生较小的输出。高斯核函数的表达式为:),.,2,1(),2)()(exp(2hjCxCxujjTjj式中:(x1,x2,)T是网络的输入数据向量;是第j个隐含层节点的输出,且0,1;是高斯核函数的中心值;h为隐含层节点数;j为标准化常数。61网络的输出是隐含层节点输出的线性组合,即),.,2,1(,1miUWuwyTiihjjiji式中:TiihiiiW),.,(21ThuuuU)1,.,(2162第一阶段:根据所有输入样本决定隐含
24、层各节点的高斯核函数的中心值和标准化常数第一阶段:根据所有输入样本决定隐含层各节点的高斯核函数的中心值和标准化常数j;第二阶段:当决定了隐含层的参数后,再根据样本,利用最小二乘原则,求出输出层的权值向量。第二阶段:当决定了隐含层的参数后,再根据样本,利用最小二乘原则,求出输出层的权值向量。网络的学习过程分为两个阶段:63网络是典型的反馈型神经网络()。网络在反馈型神经网络中,输入数据决定了反馈系统的初始状态,经过一系列状态转移后,系统逐渐收敛至平衡状态。这个平衡状态就是反馈型神经网络经计算后的输出结果。64稳定性是反馈型神经网络最重要的问题之一。稳定性是反馈型神经网络最重要的问题之一。如果能找
25、到网络的李雅普若夫()函数,则可以根据李雅普若夫稳定性定理来分析、设计反馈如果能找到网络的李雅普若夫()函数,则可以根据李雅普若夫稳定性定理来分析、设计反馈型神经网络,进而保证网络对任意的初始状态都具有稳定收敛的性质。型神经网络,进而保证网络对任意的初始状态都具有稳定收敛的性质。65网络分连续型和离散型两种。连续型网络可用如下的非线性微分方程描述:)(0iiinjjijiiiiisgyytxRsdtdsC66连续型网络的非线性微分方程可由相应的电路模拟,如下图所示。图中,电阻和电容并联,以模拟生物神经元输出的时间常数;跨导模拟生物神经元之间互连的突触特性;运算放大器用来模拟生物神经元的非线性特
26、性();神经元的状态()和输出()取电压量纲,而输入()取电流量纲。图 连续型网络的电路模拟njjijiiiiiytxRsdtdsC0)(iiisgy 67对于离散型神经网络,考虑由n个神经元构成的单层全反馈型网络,网络结构如下图所示。其中,i,分别表示神经元i的阈值、状态和输出;为网络的第i个输入信号。图 离散的神经网络(单层全反馈型)68对于神经元i,其模型方程如下:)(sgn)1()()(1kskyxkyksiinjiijiji其中,为符号函数。69 自组织特征映射网络自组织特征映射神经网络()是一种典型的自组织神经网络()。自组织神经网络是一种无教师学习的神经网络,它能够模拟人类应用过
27、去的经验来自动适应无法预测的环境变化的能力。由于没有教师信号,自组织神经网络通常利用竞争学习规则来进行网络的学习。70 递归神经网络递归神经网络()有完全递归和部分递归两种类型。完全递归网络具有任意的前馈和反馈连接,其所有连接权值都可修正调整。部分递归网络的主体结构仍为前馈型,反馈连接则由一组结构()单元实现,其连接权值固定。71图 递归神经网络()基于递归神经网络的结构如下图所示。在该网络中,输入单元仅起输入信号传输作用;输出单元起线性加权求和作用;结构单元则记忆前一时刻的网络输出值,即起延时算子的作用。,分别表示输入层至隐含层、隐含层至输出层以及结构单元至隐含层的权值矩阵。72设递归神经网
28、络的输入向量为:TnxxxX),.,(21网络的输出向量为:TmyyyY),.,(21反馈向量为:隐含层节点的输出向量为:TrfffF),.,(21ThvvvV),.,(2173)()(0okVWkY则递归神经网络的模型可以用下述方程描述:)()()(hcikFWkXWkV),1(),()(WkFkXkF上式中,k为离散时间变量;o,h分别为输出层和隐含层神经元的阈值向量;W为由(,o,h)组成的整个网络的参数矩阵。74在上述模型方程中,不同的反馈规则将导致不同的递归神经网络结构:(1)若F(k)0,则递归神经网络将退化为普通的前馈网络;由于在递归神经网络中引入了递归结构,所以能够实现对先验输
29、入数据的记忆,即通过递归变量F,依据网络输出层和隐含层的状态信息保留系统中过去的信息。输出层到隐含层有反馈(3)若F(k)V(1),则为型递归网络。(2)若F(k)Y(1),则为型递归网络;隐含层和隐含层之间有反馈75 改进型算法前面我们已经介绍了网络以及算法。网络是一种基本的神经网络,它在故障诊断中得到了广泛的应用。算法具有较为简单、清晰、有效的优点,但在实际应用中,存在两个主要问题:一是其收敛速度较慢;二是容易陷入局部极小点。76影响算法收敛速度和可能陷入局部极小点的因素很多,主要的影响因素有:隐节点的数目、学习步长的选择、样本集的预处理、以及网络初始权值的选择等。针对算法存在的问题,提出
30、了不少改进型算法,如“变步长算法”和“引入动量因子的改进算法”等。77 变步长算法基本的算法是定步长的,这不利于计算的快速收敛。变步长算法的基本思想是:1)(00E1)(0E时:当时:当其中,是及步长有关的参数;为步长的增大、缩小因子。,78 引入动量因子的改进算法考虑一个三层网络,设它有n个输入节点、m个输出节点、h个隐含层节点。网络的输入和输出数据分别用向量X和Y来表示,即:TnxxxX),.,(21TmyyyY),.,(2179给定样本集N)1,2,.,(i,)Y,(Xii网络的权值将被调整,使如下的误差目标函数达到最小:N1i2ii21)(YYWE上式中,为网络的输出向量,W为网络中所
31、有权值组成的权向量。iY80网络的学习可归结为如下的无约束最优化问题:E(W)minW基本的算法根据梯度法来解决这个问题。权向量按照误差函数E(W)的负梯度方向来修正,直到E(W)达到最小值。因此,权向量的迭代公式为:G(k)W(k)1)W(k上式中,为常数,表示学习的步长;G(k)为E(W)的负梯度,即W(k)WWE(W)G(k)(1)81为了加快算法的收敛速度,引入动量因子 ,从而将式(1)中的权向量迭代修正规则改进成为:W(k)G(k)W(k)1)W(k上式中:1)-W(k-W(k)W(k)它记忆了上一时刻权向量的修改方向,从而使式(2)的形式类似于共轭梯度算法。动量因子 的取值范围0
32、1,它的选取对网络学习的收敛速度有着重要的调节作用。(2)G(k)W(k)1)W(k(1)82 改进型算法在船舶主柴油机冷却系统故障诊断中的应用应用神经网络技术解决故障诊断问题的主要步骤包括:根据诊断问题组织学习样本;根据问题和样本构造神经网络;选择合适的学习算法和参数。83下面针对船舶主柴油机冷却系统的故障诊断问题,介绍基于引入动量因子的改进型算法的应用。冷却系统是船舶主柴油机系统的一个子系统,其简化的流程如下图所示。冷却系统属于船舶机舱高温淡水冷却回路,它用海水作为冷介质,通过热交换器去冷却高温淡水;经冷却后的高温淡水再去冷却主柴油机;高温淡水循环使用,必要时可通过淡水柜补充系统中的淡水循
33、环量。图 船舶主柴油机冷却系统流程图84根据故障机理分析以及该领域的专家知识,可以得到冷却系统的故障征兆集、故障原因集以及它们之间的关系。T1:淡水温度(0C);T2:海水温度(0C)P1:淡水压力();P2:海水压力()Q1:淡水流量();Q2:海水流量()以上6个参数作为神经网络的输入变量。该系统的故障征兆可由以下6个可测的工艺参数表征:85该系统常见的故障原因如下:F0:系统正常;F1:气缸超载F2:气缸后燃;F3:淡水阀关闭或损坏F4:淡水泵压力高;F5:淡水管系泄漏F6:淡水泵压力高;F7:淡水旁通阀开度小F8:淡水管系堵塞;F9:冷却器管系堵塞F10:海域气候;F11:海水泵压力低
34、F12:海水滤器堵塞;F13:海水泵压力高F14:海水旁通阀开度大;F15:海水阀堵塞以上16个参数作为神经网络的输出变量。用一个网络来处理该系统的故障诊断问题,因此,网络的输入节点数为6;输出节点数为16。将故障征兆和故障原因之间的关系作为网络的学习对象,故障样本如下表所示。86样本序号 输入数据 输出数据 故障 类型T1P1Q1T2P2Q2Y0Y1Y2Y3Y4Y5 1NNNNNN100000 F0 2HNNHLL011000F1F2 3HLNNNN000111F3 F4F5 4LHNNNN000000F6 F7 5HNLNNN000000F8 F9 6LNHNNN000000F6 7LNN
35、LNN000000F10 8HNNHNN000000F10 9HNNNLN000000F11 F12 10LNNNHN000000F13 11HNNNNL000000F14 F15 12LNNNNH000000F13表中,N,H,L分别表示,。87样本序号 输出数据 故障 类型Y6Y7Y8Y9Y10Y11Y12Y13Y14Y15 10000000000 F0 20000000000F1F2 30000000000F3 F4F5 41100000000F6 F7 50011000000F8 F9 61000000000F6 70000100000F10 80000100000F10 900000
36、11000F11 F12 100000000100F13 110000000011F14 F15 120000000100F1388为了确定网络的结构并取得优良的故障诊断效果,在设定允许误差限度的情况下,针对三层网络结构和学习样本,采用引入动量因子的改进型算法,研究网络结构参数和算法参数对学习速度的影响,寻求参数的优化。作如下仿真实验:(1)固定网络的隐含层节点数h和学习效率 ,分析动量因子 对算法的影响。结果表明,引入动量因子有利于加速学习收敛,并且在一定范围内其收敛速度随 的增加而加快。优化的动量因子为 0.9。89(2)固定学习效率和动量因子,分析网络的隐含层节点数h对算法的影响。结果表
37、明,隐含层节点数对网络学习的收敛性也有很大的影响。最佳的隐含层节点数为h7。(3)选择优化的动量因子 0.9 和最佳的隐含层节点数h7,然后选用不同的学习率 训练网络。结果表明,当 较小时网络收敛慢;而 取得过大则又会出现振荡而影响收敛。最终确定一个优化的学习率 0.7。90以上的参数优化显著改善了网络学习能力。通过学习训练,网络获得了柴油机冷却系统故障诊断的知识,这些知识隐性地表达在神经网络的拓扑结构、连接形式和权值分布之中。91引入实际运行中的数据对该神经网络进行验证:实验结果表明:对于已学习过的样本知识,网络输出及期望结果充分相符,表明该网络能够正确地实现故障诊断;当输入数据在一定范围内
38、偏离样本知识时,网络的输出具有接近样本输出的倾向,因而表明神经网络在故障诊断方面的实际可用性;对于远远偏离样本的输入数据,神经网络的诊断能力大大下降,甚至可能得出错误结论。这表明,采用神经网络处理故障诊断问题,故障诊断机理的必要知识起着重要的作用。92内容补充:基于神经网络技术的故障诊断在中的实现一、语言简介1、概述诞生于20世纪70年代,它的编写者是 博士和他的同事们。1984年,和 成立了公司,正式把推向市场,并继续进行开发。931993年,公司推出 4.0;1997年,推出 5.0;2002年8月,公司发布 6.5;2004年9月,公司发布 7;2006年9月,公司发布 7.2。从06年
39、开始,公司每年将进行两次产品发布,时间分别在每年的3月和9月,而且,每一次发布都会包含所有的产品模块,如产品的、和新产品模块的推出。94长于数值计算,能处理大量的数据,而且效率比较高。公司在此基础上,加强了的符号计算、文字处理、可视化建模和实时控制能力,增强了的市场竞争力,使成为了市场主流的数值计算软件。952、功能的核心是一个基于矩阵运算的快速解释程序,它交互式地接收用户输入的各项命令,输出计算结果。提供了一个开放式的集成环境,用户可以运行系统提供的大量命令,包括数值计算、图形绘制和代码编制等。具体来说,具有以下功能:数据可视化功能;矩阵运算功能;大量的工具箱;绘图功能;设计;仿真。963、
40、语言特点语言有不同于其他高级语言的特点,他被称为第四代计算机语言。语言最大的特点就是简单快捷。具体来说,主要有以下特点:编程效率高:是一种面向科学及工程计算的高级语言,允许用数学形式的语言来编写程序,比、和C等语言更加接近我们书写计算公式的思维方式。用语言编写程序犹如在演算纸上排列出公式及求解问题一样。因此,语言也可以通俗地称为“演算纸”式科学算法语言。正是由于它编写简单,所以编程效率高,易学易懂。97 用户使用方便:语言是一种解释执行的语言,它灵活、方便,调试手段丰富,调试速度快。语言及其他语言相比,把编辑、编译、连接和执行融为一体。具体地说,在运行时,如果直接在命令行输入语句(命令),包括
41、调用M文件的语句,每输入一条语句,就会立即对其进行处理,完成编译、连接和运行的全过程。98 扩充能力强,交互性好:高版本的语言拥有丰富的库函数,在进行复杂的数学运算时可以直接调用,而且的库函数同用户文件在形成方式上一样,所以用户文件也可以作为库函数被调用。另外,在、C语言和之间可以方便的调用,具有良好的交互性。移植性好,开放性好:是用C语言编写的,而C语言的可移植性很好。除了内部函数外,所有的核心文件和工具箱文件都是公开的,用户可以通过对源文件的修改和自己编程构成新的工具箱。99 语句简单,内涵丰富 高效方便的矩阵和数组运算方便的绘图功能:的绘图功能是十分方便的,它有一系列绘图函数(命令),例
42、如线性坐标、对数坐标、半对数坐标及极坐标。在调用函数时,可以通过调整自变量绘出不同颜色的点、线、复线或多重线。100二、快速入门之所以易学易用,主要在于它向用户提供了成系列的交互式工作界面。下面,专门介绍主窗口中最常用的交互界面。1、命令行窗口()可以在命令行窗口中输入命令,可以是一个单独的语句,也可以是一段利用编程功能实现的代码。101例1:在命令行窗口创建一个神经网络。(0 10,5 1,);例2:输入一个简单的矩阵 。在创建神经网络时,经常需要用到矩阵,在命令行中,矩阵有两种输入方式。0 10 2方法1:在命令行中输入A0 1;0 2。方法2:在命令行中输入A0 1 0 2。102函数在
43、利用神经网络工具箱时会被经常用到,它是最基本的二维绘图函数。的基本调用格式有以下三种。(1)(x)(2)()(3)()s表示线条的颜色和类型,如,表示各点是由红色的+号绘制的。如果没有特别说明,则默认的类型为蓝色的线条。103例3:绘制三条正弦曲线,其中在第一张图上绘制两条,在第二张图上绘制一条。除外,还要用到::用于保存绘制句柄;:用于释放(停止)绘制句柄;:用于重开一张图进行绘制。5:0.1:5;y1(x);y2(2*x);y3(1.5*x);(1);(2,);(3,)程序:1042、命令行历史窗口(窗口)该窗口中存储了在命令行窗口中输入的所有命令。如果想重新执行已经运行过的命令,该窗口提
44、供了一个很好的选择。如果需要重新运行该窗口的命令,只需在窗口中选中该命令,然后双击鼠标即可。3、当前路径窗口(窗口)该窗口指定了当前的路径窗口。如果不加改动的话,每次启动,该窗口默认的当前为:7(X为的安装盘符)。1054、工作空间浏览器()工作空间浏览器存储并显示了当前命令行窗口中所有的变量。这些变量是保存在内存中的,在进程结束以前,一直是活动的。在命令行窗口中输入和,可以查看当前内存中的所有变量,包括变量的名称、大小和类型。例4:在命令行窗口输入和。1065、帮助系统 7提供了丰富的帮助资源,有形式,也有网页形式。所有的帮助文档都在安装过程中默认放置在 7文件夹,可根据需要选择相应的帮助文
45、档进行查看。例5:在命令行窗口输入。(可显示所有的帮助主题。)107例6:如需要有关前向型网络的创建函数的有关信息,可在命令行窗口中输入如下命令:在命令行窗口输入。(如需要某个函数或工具箱的帮助信息,可在命令行输入该命令。为需要帮助的函数或工具箱的名称。)在结果中,提供了丰富的帮助信息,包括函数的功能、调用方法、各参数的意义、使用过程中的注意事项和示例,最后还给出了及该函数相关的其他函数的名称。另外,在主窗口中,在【】菜单下选中【】命令,即可启动集成式的帮助系统。108三、神经网络工具箱最新版本的神经网络工具箱几乎涵盖了所有的神经网络的基本常用模型,如感知器、网络、径向基网络等。对于各种不同的
46、网络类型,神经网络工具箱集成了多种学习算法,为用户提供了极大的方便。另外,工具箱中还给出了大量的示例程序和帮助文档,能够快速地帮助用户掌握工具箱的应用方法。目前,神经网络工具箱中提供的神经网络模型主要应用于:函数逼近和模型拟合;信息处理和预测;神经网络控制;故障诊断。109 确定信息表达方式在实际应用中,面对一个具体问题,首先需要分析利用神经网络求解问题的性质,然后依据问题特点,确定网络模型。最后通过对网络进行训练、仿真等,检验网络是否满足要求。具体过程概括为:将领域问题及其相应的领域知识转化为网络可以接受并处理的形式,即将领域问题抽象为适合于网络求解所能接受的某种数据形式。网络模型的确定根据
47、问题的实际情况,选择模型的类型、结构等。110 网络参数的选择确定网络的输入输出神经元的数目,如果是多层网络,还需要进一步确定隐含层神经元的个数。训练模式的确定包括选择合理的训练算法,确定合适的训练步数,指定适当的训练目标误差,以获得较好的网络性能。网络测试选择合理的测试样本,对网络进行测试,或者将网络应用于实际问题,检验网络性能。1111、神经网络工具箱中的通用函数(1)神经网络仿真函数该函数用于对神经网络进行仿真,调用格式:()式中,Y:函数返回值,网络输出;:函数返回值,最终输入延迟;:函数返回值,最终的层延迟;E:函数返回值,网络误差;:函数返回值,网络性能;:待仿真的神经网络;P:网
48、络输入;:初始输入延迟,默认为0;:初始的层延迟,默认为0;T:网络目标,默认为0。112(2)神经网络训练及学习函数1)该函数用于对神经网络进行训练,调用格式:(,)式中,:待训练的神经网络;P:网络的输入信号;T:网络目标,默认为0;:初始输入延迟,默认为0;:初始的层延迟,默认为0;:函数返回值,训练后的神经网络;:函数返回值,训练记录(包括步数和性能);Y:函数返回值,神经网络输出信号;E:函数返回值,神经网络误差;:函数返回值,最终输入延迟;:函数返回值,最终的层延迟。1132)该函数用于对神经网络权值和阈值的训练。它不能直接调用,而是通过函数隐含调用。训练之前,需要设定以下参数。表
49、:训练参数 训练参数名称默认值 属 性100最大训练步数0性能参数5确认失败的最大次数25两次显示之间的训练步数最大训练时间(单位:秒)1143)该函数用于神经网络权值和阈值的学习。4)该函数也是一个神经网络权值和阈值的学习函数。但它在输入向量的幅值变化非常大或者存在奇异值时,其学习速度比要快得多。1155)该函数使得神经网络能够自适应,调用格式:(,)式中,:未自适应的神经网络;P:网络输入;T:网络目标,默认为0;:初始输入延迟,默认为0;:初始的层延迟,默认为0。:自适应后的神经网络;Y:网络输出;E:网络误差;:最终输入延迟;:最终的层延迟。:训练记录(包括步数和性能)。通过设定自适应
50、的参数和自适应的函数可调用该函数,并返回如下参数:116(3)神经网络初始化函数1)该函数用于对神经网络进行初始化,调用格式为:()式中,:返回参数,表示已经初始化后的神经网络;:待初始化的神经网络。2)该函数用于对一个层进行初始化,它按照设定的每层的初始化函数对每层的权值和阈值进行初始化,调用格式为:()式中,:待初始化的神经网络;i:层次索引;:返回参数,表示已经初始化后的神经网络。117例1:根据给定的输入向量P和目标向量T,创建一个感知器网络,对其进行训练并初始化。其中,P0 1 0 1;0 0 1 1,T0 0 0 1。程序:(0 12 2,1);创建一个感知器网络 1,1 ;感知器