ImageVerifierCode 换一换
格式:PPT , 页数:52 ,大小:1.15MB ,
文档编号:2271426      下载积分:28 文币
快捷下载
登录下载
邮箱/手机:
温馨提示:
系统将以此处填写的邮箱或者手机号生成账号和密码,方便再次下载。 如填写123,账号和密码都是123。
支付方式: 支付宝    微信支付   
验证码:   换一换

优惠套餐
 

温馨提示:若手机下载失败,请复制以下地址【https://www.163wenku.com/d-2271426.html】到电脑浏览器->登陆(账号密码均为手机号或邮箱;不要扫码登陆)->重新下载(不再收费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录  
下载须知

1: 试题类文档的标题没说有答案,则无答案;主观题也可能无答案。PPT的音视频可能无法播放。 请谨慎下单,一旦售出,概不退换。
2: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
3: 本文为用户(三亚风情)主动上传,所有收益归该用户。163文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

1,本文(第10章神经网络控制及其应用课件.ppt)为本站会员(三亚风情)主动上传,163文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。
2,用户下载本文档,所消耗的文币(积分)将全额增加到上传者的账号。
3, 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(发送邮件至3464097650@qq.com或直接QQ联系客服),我们立即给予删除!

第10章神经网络控制及其应用课件.ppt

1、1. 1. 神经网络控制产生的背景神经网络控制产生的背景 自动控制面临着两个方面的技术问题自动控制面临着两个方面的技术问题(1)控制对象)控制对象越来越复杂越来越复杂,存在着多种不确定(随机性),存在着多种不确定(随机性)和难以确切描述的和难以确切描述的非线性非线性。(2)对控制系统的要求)对控制系统的要求越来越高越来越高,迫切要求提高控制系统,迫切要求提高控制系统的的智能化智能化水平,即系统具有水平,即系统具有逻辑思维和推理判断逻辑思维和推理判断的能力。的能力。 神经网络为处理和解决上述问题提供了一条新的途径神经网络为处理和解决上述问题提供了一条新的途径 (1)神经网络源于)神经网络源于对脑

2、神经的模拟对脑神经的模拟,所以具有很强的适应,所以具有很强的适应于复杂环境和多目标控制要求的于复杂环境和多目标控制要求的自学习能力自学习能力。(2)具有以)具有以任意精度逼近任意非线性连续函数任意精度逼近任意非线性连续函数的特性。的特性。 2.神经网络的应用神经网络的应用航空航空:高性能飞行器自动驾驶、飞行路径模拟、高性能飞行器自动驾驶、飞行路径模拟、飞行部件模拟、飞行部件故障检测飞行部件模拟、飞行部件故障检测汽车汽车:汽车自动导航仪汽车自动导航仪 国防国防:武器操纵、目标跟踪、面部识别、雷达武器操纵、目标跟踪、面部识别、雷达 和图像信号处理、新型传感器、声纳和图像信号处理、新型传感器、声纳

3、制造:制造:生产流程控制、过程和机器诊断、机生产流程控制、过程和机器诊断、机器性能分析、化工流程动态建模、项目投器性能分析、化工流程动态建模、项目投标标 机器人:机器人:轨道控制、操作手控制、视觉系统轨道控制、操作手控制、视觉系统 语音:语音:语音识别、语音压缩语音识别、语音压缩 还有还有金融、保险、银行、医疗、交通、电讯、金融、保险、银行、医疗、交通、电讯、电子、石油天然气、有价证券、娱乐等行业。电子、石油天然气、有价证券、娱乐等行业。3 . 生物学的启示生物学的启示 4 . 人工神经元人工神经元 输入输入 输出输出 1niijijiIW x( )jiyf Ij=1,2mi=1,2nyjQj

4、XnX2fX1图图2 单神经元结构图单神经元结构图 wij轴突轴突细胞体细胞体树突树突树树突突轴突轴突突触突触细胞体细胞体树突树突图图1 生物神经元的简图生物神经元的简图 (发射发射)(接收接收)(连接连接)为简便起见,也可把网络的阈值以连接数值的形式表示为简便起见,也可把网络的阈值以连接数值的形式表示出来,即令,则出来,即令,则 式中式中 为其它神经元传至本神经元的输入信号,为其它神经元传至本神经元的输入信号, 神经元神经元j的阈值,此阈值决定了该神经元的兴奋与否;的阈值,此阈值决定了该神经元的兴奋与否; 表示从神经元表示从神经元i到神经元到神经元j的连接权值;的连接权值; 称为激励函数(也

5、有称为响应函数或传输函数)。称为激励函数(也有称为响应函数或传输函数)。权值权值表示相邻的神经元相互连接的程度表示相邻的神经元相互连接的程度阈值阈值即决定神经元的兴奋与否,决定兴奋与抑制即决定神经元的兴奋与否,决定兴奋与抑制激励函数激励函数可为线性函数也可为非线性函数。它是可为线性函数也可为非线性函数。它是用来实现输入对输出函数关系的静态映射,它决用来实现输入对输出函数关系的静态映射,它决定了神经元的单元特性。定了神经元的单元特性。 0niijiiIWx1,2,in( )f ijWjix常用的神经元非线性函数常用的神经元非线性函数)(xfx10f(x)图图3 阶跃函数阶跃函数f(x)x1-1图

6、图4 sgn函数函数 1=1f(x)0 x=0.2=5图图5 S状函数状函数10( )00 xf xx(1)阶跃函数)阶跃函数 10sgn( )10 xxx(2)Sgn函数函数 1( )(0)1exp()f xx(3)S状函数状函数 5. 神经网络模型的组成神经网络模型的组成 5.1神经网络连接的结构形式神经网络连接的结构形式 输出层输出层输入层输入层隐含层隐含层神经元神经元yny2y1XnX2X1图图6 前向网络前向网络 神经元神经元网络中神经元是分层排列,每个神经元网络中神经元是分层排列,每个神经元只与前一层的神经元相连接,分为只与前一层的神经元相连接,分为输入层输入层,隐隐含层含层(一层

7、或多层)和(一层或多层)和输出层输出层。 (1)前向网络)前向网络(2)反馈前向网络)反馈前向网络 网络本身是前向型,但从输出到输入有反馈。网络本身是前向型,但从输出到输入有反馈。 yny2y1XnX2X1图图7 反馈前向网络反馈前向网络 图图8 互连网络互连网络 (3)互连网络)互连网络 任意两个神经元之间都可能有连接,因此输入信号任意两个神经元之间都可能有连接,因此输入信号要在神经元之间反复往返传递。要在神经元之间反复往返传递。 5.2BP网络的结构网络的结构 BP网络网络是一单向传播的多层是一单向传播的多层前向网络前向网络,其结构图,其结构图如图如图6所示所示BP网络可看成是一从网络可看

8、成是一从输入到输出的高度输入到输出的高度非线性映射网络非线性映射网络。 (1)输入层神经元数)输入层神经元数 (2)隐含层神经元数)隐含层神经元数 (3)隐含层数的确定)隐含层数的确定 (4)输出层神经元数的确定)输出层神经元数的确定 BP网络各层的神经元数(即节点数)及隐含层层网络各层的神经元数(即节点数)及隐含层层数的确定如下:数的确定如下: 6. 神经网络的学习神经网络的学习 当神经网络的结构确定之后,关键问题是设计当神经网络的结构确定之后,关键问题是设计一个一个学习速度快,收敛性好的学习速度快,收敛性好的学习算法学习算法。 要求网络本身必须具有学习功能,即能够从示要求网络本身必须具有学

9、习功能,即能够从示教模式的学习中逐渐教模式的学习中逐渐调整权值调整权值和和阈值阈值,使网络整体,使网络整体具有近似函数或处理信息的功能。具有近似函数或处理信息的功能。 (1)有教师学习)有教师学习 (2)无教师学习)无教师学习 6.1网络学习方网络学习方式式广泛应用的有教师学习的算法广泛应用的有教师学习的算法BP(Back Propagation)算法)算法 BP算法即是误差反向传播算法算法即是误差反向传播算法,该方法已成为神经网络学习中最常用的方法之一。,该方法已成为神经网络学习中最常用的方法之一。BP算法一般是应用梯度下降原理,算法一般是应用梯度下降原理,样本输入信号样本输入信号在神经网络

10、中在神经网络中正向传播正向传播,应用了多,应用了多层前向神经层前向神经网络具有网络具有的的以任意精度逼近非线性函数以任意精度逼近非线性函数的能力的能力。而而网络输出与样本给定网络输出与样本给定输出值之差(误差)输出值之差(误差)在网络中在网络中是反向传播,用于网络的权值的训练。是反向传播,用于网络的权值的训练。 输出层输出层LC隐含层隐含层LB输入层输入层LAWpqWiqWijW1qW1jVnpVniVn1VhpVhiVh1V1pV1iW11V11a1ahanb1bibpc1cjcq1kAkhAknA1kCkjCkqC图图9 基本基本BP网络的拓扑结构网络的拓扑结构 1PWPjW1 iW1Uh

11、UnU5.2网络的计算网络的计算 对对BP控制网络进行控制网络进行训练训练时,首先要提供时,首先要提供训练样本训练样本,样本可以形式化为样本可以形式化为样本对样本对或称或称模式对模式对 ( )其中其中Ak为第为第k个样本的输入模式个样本的输入模式 ( ) Ck为希为希望输出模式望输出模式 ( )它们分别对应于它们分别对应于LA层的层的n个神经元和个神经元和Lc层的层的q个神经元。个神经元。,kkA C12,kkknAAA12,kkkqCCC当网络的当网络的实际输出与希望输出一致时实际输出与希望输出一致时,学习过程结学习过程结束束。否则否则学习系统将学习系统将根据根据实际输出和希望输出之间实际输

12、出和希望输出之间的的误差误差,通过,通过调整连接权值调整连接权值使网络的实际输出趋向使网络的实际输出趋向于希望输出。于希望输出。 BP网络样本输入学习算法程序框图如图网络样本输入学习算法程序框图如图10所所示。并以图示。并以图1111三层(三层(LA,LB,LC)BP神经网络神经网络为例进行学习过程的演示为例进行学习过程的演示。 结束结束输入学习样本输入学习样本求隐含层、输出层神经元的输出求隐含层、输出层神经元的输出计算实际输出值与目标值的误差计算实际输出值与目标值的误差误差满足误差满足要求?要求?反向计算调整权值和阈值反向计算调整权值和阈值YN初始化初始化 三层三层BP神经网络拓扑结构神经网

13、络拓扑结构 W11V11b1W12W32W31W22W21V23V22V21V13V12U2=1U1=1a1a2b2b3c1c210kA 21kA 11kC 20kC ii jj 00图图11 三层三层BP神经网络拓扑结构神经网络拓扑结构 ALBLCLBP三层神经网络学习算法各种参数及计算公式见三层神经网络学习算法各种参数及计算公式见表表1。 层名1 1符号及公式参数名神经元数初始权值矩阵初始阈值矩阵第k个样本对值输入值输出值误 差学习率阈值调整权值调整输入层隐含层输出层ALBLCL1,2,hn1,2,ip1,2,jq01hU 0V0W00i0jkhAkjC0netkhhhaU A1netni

14、hihhbV a1netpjijiicW b(net)hhafa(net)iiibfb(net)jjjcfc1e(1)qiiijijjbbd W(1)()kjjjjjdcccc01iiehiihVea01ijdijjiWd b学习训练步骤如下:学习训练步骤如下:第第1步:网络初始化步:网络初始化输入层输入层LA的权值的权值U=1,U=1,阈值阈值=0=0输入层输入层LA到隐含层到隐含层LB的权值矩阵为的权值矩阵为 11121302122230.10.40.60.20.30.5VVVVVVV隐含层隐含层LB到输出层到输出层LC权值矩阵为权值矩阵为 11120212231320.10.40.60.

15、20.50.3WWWWWWW隐含层隐含层LB各神经元阈值为各神经元阈值为 00.10.20.3Ti输出层输出层LC各神经元阈值为各神经元阈值为00.20.4Tj以一个样本对即以一个样本对即k=1为例,样本输入为例,样本输入 ,样本输出样本输出 。 1112(,)(0,1)AA1112(,)(1,0)CC图图12 12 三层三层BPBP神经网络拓扑结构神经网络拓扑结构第第2步:样本正向输入,进行前向计算步:样本正向输入,进行前向计算 输入样本为输入样本为 , , 其输入层的输出为其输入层的输出为a1和和a2。对于输入层,给定每个神经元的权值对于输入层,给定每个神经元的权值 为为1,阈值为阈值为0

16、,其激励函数为,其激励函数为S型函数,则型函数,则11120,1AA0hU0(0)khhhaf U A第第1个神经元的输出值为个神经元的输出值为 11 11220111111 00122221 1111()()0.511111()()0.7310611khhxU AkhhU Aaf netaf UAeeeaf netaf UAee 则则 120.50.73106haaa 层神经元的加权输入,根据层神经元的加权输入,根据 为为 21111 1212122212122212331312321net0.1 0.50.20.731060.196212net0.40.50.3 0.731060.4193

17、18net0.60.50.5 0.731060.66553hhhhhhhhhbV aV aV abV aV aV abV aV aV aBL111netnhhhbV a 层层的实际输出值,根据式的实际输出值,根据式 和式和式 计算,则计算,则111222333(net)(0.1962120.1)(net)(0.4193180.2)(net)(0.665530.3)bfbfbfbfbfbf根据式根据式 求激励函数为求激励函数为S型情况型情况下的下的b值为值为 10.09621220.21931830.3655310.524110.5546110.59041bebebe则则 0.5240.5546

18、0.5904ib BL(net)iiibfb00.10.20.3Ti10.09621211be根据式根据式 计算第计算第k=1k=1样本对样本对L LC C层神经元层神经元的加权输入为的加权输入为 1netpjijijcW b111 121 231 3net()0.1 0.5240.60.55460.5 0.59040.68036cW bW bW b212 1222323net()0.40.5240.20.55460.3 0.59040.49764cW bW bW b根据式根据式 求求L LC C层神经元的实际输层神经元的实际输出值出值 (net)jjjcfcr10.4803620.09764

19、1(0.680360.2)0.617811(0.497640.4)0.52441cfecfe则则 0.61780.5244jc 第第3步:进行误差计算步:进行误差计算根据式根据式 和样本期量值和样本期量值进行输出层进行输出层L LC C误差计算误差计算 (1)()kjjjjjdccCc11112222(1)(1)0.6178(10.6178)(10.6178)0.09025(1)(0)0.5244(10.5244)(10.5244)0.1308dcccdccc 则则 0.09030.1308jd 通过给定的精度系数可判断输出层通过给定的精度系数可判断输出层LC的误差值的误差值d是否是否满足要求

20、,如果不满足,则需进行反向传播计算,满足要求,如果不满足,则需进行反向传播计算,通过修正权值和阈值使其逼近给定精度系数。通过修正权值和阈值使其逼近给定精度系数。 第第4步:反向传播计算步:反向传播计算(1 1)隐含层)隐含层L LB B一般化误差的计算一般化误差的计算根据式根据式 计算隐含层计算隐含层L LB B一般化一般化误差为误差为 1(1)qiiijijjebbd W21111112121(1)()0.524(10.524)(0.090250.10.13080.4)0.0108jebbd Wd W 222121222(1)()0.5546(10.5546)(0.09025 0.60.13

21、08 0.2)0.0069ebbdWd W333131232(1)()0.5904(10.5904)(0.09025 0.50.1308 0.3)0.0014ebbdWd W则则 0.01080.00690.0014ie(2)隐含层)隐含层Lb和输出层和输出层Lc权值的调整权值的调整根据式根据式 调整其调整其LB至至LC权值,则按学权值,则按学习步长(也称学习率)的范围:习步长(也称学习率)的范围: 给给定定 。 ijjiWd b010.9111 1122 1322 30.90.09025 0.5240.04260.9( 0.1308)0.5240.06170.9( 0.1308)0.5904

22、0.0695Wd bWd bWd b 则则 1112212231320.04260.06170.0450.06530.04790.0695ijWWWWWWW (3)(3)根据式根据式 调整调整LA至至LB权值权值, ,则则 hiihVe a按步长范围:按步长范围: , ,给定给定 010.9111 1122123220.9( 0.0108)0.50.00490.90.00690.50.00310.90.00140.7310610.0009Ve aVe aVe a 则则 1112132122230.00490.00310.00060.00710.00450.0009hiVVVVVVV(4)网络输

23、出层)网络输出层Lc和隐含层和隐含层Lb阈值的调整值计算阈值的调整值计算根据式根据式 调整调整L Lc c层阈值层阈值 jjd11220.90.090250.0812250.9( 0.1308)0.11772dd 则则 0.0812250.11772j(5)(5)根据式根据式 调整调整LB层阈值为层阈值为 iie1122330.9( 0.0108)0.0090.90.00690.00620.90.00140.0013eee 则则 0.0090.00620.0013i(6 6)计算调整后的权值和阈值)计算调整后的权值和阈值隐含层隐含层LBLB至输出层至输出层LCLC的权值,得的权值,得00.10

24、.40.04260.06170.14260.33830.60.20.0450.06530.64500.13470.50.30.04790.06950.54790.2305ijijijWWW 输入层输入层L LA A至隐含层至隐含层L LB B的权值,由式得的权值,由式得00.20.0812250.2812250.40.117720.28228jjj 00.10.40.60.00490.00310.00060.20.30.50.00710.00450.0009hihihiVVV 0.09510.40310.60060.19290.30450.5009输出层输出层LC阈值根据式得阈值根据式得 隐含

25、层隐含层LB阈值,根据式得阈值,根据式得 00.10.0090.0910.20.00620.20620.30.00130.3013iii 经过上述计算在输出层经过上述计算在输出层LC的误差值的误差值d未满足精度要求未满足精度要求的情况下,完成了第的情况下,完成了第1次权值和阈值的调整训练。经次权值和阈值的调整训练。经反向计算调整后需按程序框图反向计算调整后需按程序框图12的流程和上述计算方的流程和上述计算方法再计算输出层法再计算输出层LC误差值误差值d,其运算过程不再全部列,其运算过程不再全部列出,只是直接给出将调整后出,只是直接给出将调整后LB层和层和LC层的输出值和误层的输出值和误差值差值

26、 。 LB层的输出值层的输出值 0.52460.55430.5903ib LB层的误差值层的误差值 0.00780.01010.0047ieLC层的输出值层的输出值 0.663540.75315jc LC层的误差值层的误差值 0.07510.1400jd 在此根据在此根据LC层的误差值层的误差值d判断是否满足给定的精度判断是否满足给定的精度系数,如果不满足再进行第系数,如果不满足再进行第2次的循环调整,再从次的循环调整,再从第第2步开始运行,以后为了简化只给出调整结果。步开始运行,以后为了简化只给出调整结果。 第第2次循环调整次循环调整 LC层至层至LB层的权值调整层的权值调整 0.04280

27、.0620.04520.06550.04820.0697ijW0.18540.27640.69030.06920.59610.1608ijW LB层至层至LA层的权值调整层的权值调整 0.0035 0.0045 0.00210.0052 0.0066 0.0031hiV0.0916 0.4076 0.60280.1877 0.3112 0.5040hiV LC层阈值的调整层阈值的调整 0.08160.1181j0.36280.1642jLB层阈值的调整层阈值的调整 0.00710.00910.0042i0.08220.21530.3055iLB层的输出值层的输出值 LB层的误差值层的误差值 0

28、.52490.55380.5901ib 0.00490.01330.008ieLc层的输出值层的输出值Lc层的误差值层的误差值 0.11750.1456jd 0.52850.6150jc 第第3次循环调整次循环调整 LC层至层至LB层的权值调整层的权值调整 0.04330.06250.04560.06580.04860.0701ijW0.22720.15170.78130.06220.69320.0207ijW LB层至层至LA层的权值调整层的权值调整 0.00080.00740.00510.00120.01090.0075hiV0.08860.42110.61150.18330.33080.

29、5168hiV LC层阈值的调整层阈值的调整 0.08250.1189j0.52730.0733jLB层阈值的调整层阈值的调整 0.00170.01490.0102i0.07720.24220.3230iLB层的输出值层的输出值 0.52520.55320.5897ib LB层的误差值层的误差值 0.00180.01650.0114ieLC层的输出值层的输出值 0.53060.6135jc LC层的误差值层的误差值 0.11690.1455jd 第第999次循环调整次循环调整 LC层至层至LB层的权值调整层的权值调整 3.51273.26223.94463.42114.10963.6023ij

30、WLB层至层至LA层的权值调整层的权值调整 3.70344.60485.02395.46866.44806.9682hiV LC层的阈值为层的阈值为 9.07588.8108j LB层的阈值为层的阈值为 7.30698.60979.1477iLB层的输出值层的输出值 LB层的误差值层的误差值 0.18890.16890.1763ib 0.000940.000940.00102ie LC层的输出值层的输出值 LC层的误差值层的误差值 0.999070.00089jc 0.0000008640.000000791jd BP神经网络样本神经网络样本输入信号正向传播输入信号正向传播和和误差反误差反向传

31、播向传播的过程,就是在的过程,就是在不断地调整权值和阈值不断地调整权值和阈值的过程,可以的过程,可以使网络以任意精度逼近任意非线使网络以任意精度逼近任意非线性函数性函数,也就是随着循环调整次数的增加也就是随着循环调整次数的增加,其,其输出层的误差值输出层的误差值d在不断地减小,直至趋近于在不断地减小,直至趋近于零零,这是总的趋势,但不排除在训练过程中出,这是总的趋势,但不排除在训练过程中出现现d值增大的现象,特别是前些次调整,本例值增大的现象,特别是前些次调整,本例的最初几次调整的最初几次调整, ,d值可能有所增大。产生这种值可能有所增大。产生这种现象的原因是网络学习训练过程中出现振荡现现象的

32、原因是网络学习训练过程中出现振荡现象。这与学习率象。这与学习率 和和 的取值有关,和的取值有关,和 的值取的值取的过大就会出现振荡现象。的过大就会出现振荡现象。 电火花线切割加工是用直径为0.02-0.3mm不断移动的铜丝或钨丝等作为电极,根据被加工工件的形状要求,编制数字程序控制工作台的运动,对安装在工作台上的工件实现电火花线切割加工。对于在线切割机床上加工工件,经常被人们关注的影响表面质量和生产率的主要技术指标是:被加工工件的表面粗糙度Ra(m)和在一定厚度下的表面切割速度(mm2/min)。而影响这两项指标的加工工艺参数分别是工件厚度、脉冲电流的脉宽、脉间、幅值及平均加工电流。而这5项工

33、艺参数均以不同的程度、错综复杂地影响着这两项技术指标,而且难以用数学模型进行综合性表达。但从生产需要出发,还必须了解并掌握它们之间的影响规律,故采用神经网络的技术手段通过以下步骤来实现这一目的。现以BP神经网络的学习算法实现对线切割加工质量及效率的控制。 6 基于BP神经网络的线切割加工质量及效率控制10.6.1线切割加工BP神经网络的设计1.BP网络的结构确定BP网络为前向网络结构,各层的神经元数和隐含层数的确定是要根据所研究对象和内容来确定。(1)输入层神经元数(节点数)的确定输入层神经元数的确定是根据线切割加工时输入的工件厚度、脉冲电流的脉宽、脉间、脉冲峰值电流和平均加工电流等5项工艺参

34、数来确定的,故输入层节点数为5。(2)隐含层神经元数及层数的确定隐含层神经元数的确定隐含层目前还没有一个很好的计算方法,而是要根据经验来定,数目太少,网络拟合误差曲线的能力差。如果数目太多,网络会出现过拟合现象,即拟合精度很高,但对样本的均方差(均方差的计算方法与表10.1误差的计算方法不同)此处并不反而增大。此例分别选定神经元数为13和18进行对比实验,最终选择较为合适的一种。 隐含层层数的确定隐含层层数的确定也没有一个很好的计算方法,和隐含层神经元数一样,可以利用经验或是试错法,先设置一层隐含层,计算其输出层均方差,逐渐增加层数,如果出现变坏,则停止,选择出现均方差最小时的层数。此例选定一

35、层和二层隐含层进行对比实验,最终选择较为合适的一种。(3)输出层神经元数的确定输出层神经元数的确定根据实际需要,在线切割机上主要是两项技术指标,一是加工零件的表面粗糙度,另一项就是表面切割速度。线切割加工质量及效率控制BP神经网络三层和四层拓扑结构分别如图13和图14所示。 6 基于基于BP神经网络线切割加工质量及效率控制神经网络线切割加工质量及效率控制 工件厚度工件厚度脉冲电流脉宽脉冲电流脉宽 切割速度切割速度 脉冲电流脉间脉冲电流脉间 表面粗糙度表面粗糙度脉冲电流幅值脉冲电流幅值平均电流平均电流 图图13 线切割加工质量及效率控制神经网络拓扑结构线切割加工质量及效率控制神经网络拓扑结构 图

36、图14 BP神经网络四层拓扑结构图神经网络四层拓扑结构图 3.学习(训练)样本的确定及激励函数的选择学习(训练)样本的确定及激励函数的选择学习样本的个数为学习样本的个数为25个,样本各项输入数据(个,样本各项输入数据( )、输出数据()、输出数据(c1, c2),和希望值),和希望值 以及最后达到的期以及最后达到的期望误差望误差 (反映网络收敛误差的大小,在此即为均方(反映网络收敛误差的大小,在此即为均方差)等的确定见表差)等的确定见表14.2。 2.网络的初始化网络的初始化 在在BP神经网络模型的训练中,所有神经元之间的连接初神经网络模型的训练中,所有神经元之间的连接初始权值始权值 、 和和

37、 以及各层神经元的初始阈值可分别选择变以及各层神经元的初始阈值可分别选择变化区间为化区间为1,1 或或0,1的随机值。并在网络训练中进行比较,的随机值。并在网络训练中进行比较,观察其不同,最终选取较为合适的变化区间。观察其不同,最终选取较为合适的变化区间。12345,kkkkkAAAAA12,kkCC81 10 hiVijWijW在此选择S状函数,即Sigmoid函数作为激励函数。4.样本的正向输入及反向传播计算样本的正向输入及反向传播计算 样本输入之后,按所编制的计算机程序,进行前向输样本输入之后,按所编制的计算机程序,进行前向输入层、隐含层和输出层输出值的计算以及误差值和反向计入层、隐含层

38、和输出层输出值的计算以及误差值和反向计算等。其最终的结果见表算等。其最终的结果见表14.4。线切割加工质量及效率控制线切割加工质量及效率控制BPBP神经网络的训练神经网络的训练1. 神经网络预测程序的编写神经网络预测程序的编写用用MATLAB软件编写神经网络预测程序,预测程序包括:输入的归一化软件编写神经网络预测程序,预测程序包括:输入的归一化和输出的反归一化、函数的调用、网络初始化参数和网络结构参数的确定等。和输出的反归一化、函数的调用、网络初始化参数和网络结构参数的确定等。2. 采用不同网络训练方案采用不同网络训练方案BP神经网络采用不同训练方案其结果如表神经网络采用不同训练方案其结果如表

39、14.2所示。所示。 通过不同训练方案见表通过不同训练方案见表14.3:由方案:由方案1和方案和方案2可见,初始权值和阈值的取值可见,初始权值和阈值的取值范围为范围为11比取值范围为比取值范围为01时收敛次数少时收敛次数少(收敛次数定义为:当均方差小于给定收敛次数定义为:当均方差小于给定的期望误差时,程序停止运行,此时的叠代次数为收敛次数的期望误差时,程序停止运行,此时的叠代次数为收敛次数),而收敛速度快;由方,而收敛速度快;由方案案1和方案和方案3可见,隐含层神经元数为可见,隐含层神经元数为13时比神经元数为时比神经元数为18时的收敛次数少,收敛速时的收敛次数少,收敛速度更快;由方案度更快;

40、由方案1和方案和方案4可见,神经元数相同,隐含层为二层的收敛速度比隐含层可见,神经元数相同,隐含层为二层的收敛速度比隐含层为一层的收敛次数少,收敛速度快。为一层的收敛次数少,收敛速度快。 当采用不同网络训练方案时,其训练次数为当采用不同网络训练方案时,其训练次数为78次时,均方差与收敛后的均方次时,均方差与收敛后的均方差的对比见表差的对比见表14.3,这种比较只看出其不同,因数据太少不足以认定其规律。,这种比较只看出其不同,因数据太少不足以认定其规律。 从表从表14.2和表和表14.3可见,应选择哪一种方案为佳,从收敛速度来看应选择方案可见,应选择哪一种方案为佳,从收敛速度来看应选择方案4,如

41、若从收敛时的均方差更接近期望误差,如若从收敛时的均方差更接近期望误差(此时期望误差给定为此时期望误差给定为 )来看,应选来看,应选择方案择方案2。四种训练方案网络训练收敛后的权值和阈值矩阵四种训练方案网络训练收敛后的权值和阈值矩阵 81 10下面均以三层下面均以三层BP神经网络来训练收敛后的权值和阈值。权值和阈值符号的右神经网络来训练收敛后的权值和阈值。权值和阈值符号的右上角的数字为收敛后的训练次数,如上角的数字为收敛后的训练次数,如 右上角的右上角的115为训练次数。为训练次数。115hiV训练方案训练方案1:输入层输入层隐含层权值矩阵隐含层权值矩阵111213141521222324251

42、15121122123124125131132133134135-5.20591.3219-0.27692.57121.4281-8.24831.65703.5038-4.38751.690914.8608-3.4938-0.4572-9.9724-0.97471.2098-0.8082hiVVVVVVVVVVVVVVVVVVVVV3.2091-5.19011.9534隐含层隐含层输出层权值矩阵输出层权值矩阵111211211311521222122131.24213.8904-7.3560-5.5219-5.1561-7.5597-11.16814.6843ijWWWWWWWWW隐含层阈值矩

43、阵隐含层阈值矩阵输出层阈值矩阵输出层阈值矩阵115121213()(-2.75840.9942-3.1237-0.4434)TTi11512()(-3.25122.4499)TTi训练方案训练方案2:输入层输入层隐含层权值矩阵隐含层权值矩阵11121314152122232425150121122123124125131132133134135-4.93151.3955-1.5976-3.02002.2412-6.2755-4.75848.25401.26430.4681-16.5187-0.7453-11.27298.8533-10.7245-1.25852.5hiVVVVVVVVVVVVV

44、VVVVVVVV595-1.43713.9354-2.5673隐含层隐含层输出层权值矩阵输出层权值矩阵111211211315021222122132.65454.04380.3698-1.80502.9671-2.374619.50612.1309ijWWWWWWWWW隐含层阈值矩阵隐含层阈值矩阵输出层阈值矩阵输出层阈值矩阵150121213()(-0.3624-4.50150.09583.3281)TTi15012()(-16.5131-11.2060)TTi训练方案训练方案3:输入层输入层隐含层权值矩阵隐含层权值矩阵隐含层隐含层输出层权值矩阵输出层权值矩阵1112131415212223

45、24251421711721731741751811821831841856.7102-1.0347-3.5695-4.9918-0.4582-5.9731-2.17472.47520.19422.47700.5722-0.6382-1.0878-1.77384.3847-16.59224.861hiVVVVVVVVVVVVVVVVVVVVV9-1.46939.22571.825511121171181422122217218-4.90063.18514.64627.5577-0.4570-3.9871-3.2778 12.9755ijWWWWWWWWW隐含层阈值矩阵隐含层阈值矩阵输出层阈值矩

46、阵输出层阈值矩阵142121718()(7.1067-1.4651-3.1154.7925)TTi14212()(-1.5446-0.7303)TTi训练方案训练方案4:输入层输入层隐含隐含1层权值矩阵层权值矩阵 1112131415212223242578121122123124125131132133134135-1.1289-1.6540-0.5910-2.2513-1.33552.8748-0.77564.1277-3.53750.2576-2.97111.5353-1.5063-3.7241-4.0418-5.04020.927hiVVVVVVVVVVVVVVVVVVVVV3-1.1

47、053-0.04781.4468隐含隐含1层层隐含隐含2层权值矩阵层权值矩阵111211211321222122137812112212121213131132131213131.78160.03953.04800.61521.4082-2.7299-0.17743.8219-0.16751.70610.78603.60352.4226-1.8328-0.79371.0893hiVVVVVVVVVVVVVVVVV隐含隐含2层层输出层权值矩阵输出层权值矩阵11121121137821222122130.36492.51846.7239-1.3581-1.0806-4.14382.41920.32

48、88ijWWWWWWWWW隐含隐含1层阈值矩阵层阈值矩阵隐含隐含2层阈值矩阵层阈值矩阵输出层阈值矩阵输出层阈值矩阵78121213()(-1.3357-2.00373.98591.3397)TTi78121213()(-9.8184-1.94050.65091.4238)TTi7812()(-1.7319-0.1214)TTi4.网络训练收敛后的学习样本和最终的训练结果网络训练收敛后的学习样本和最终的训练结果 四种训练方案网络训练收敛后的学习样本和最终四种训练方案网络训练收敛后的学习样本和最终的训练结果如表的训练结果如表14.4所示。所示。5. 5. 测试样本对测试样本对BPBP网络训练的测试网络训练的测试 最后随机选择两个测试样本,对上述训练好的最后随机选择两个测试样本,对上述训练好的BP神经神经网络进行测试,其结果如表网络进行测试,其结果如表14.5所示。所示。 由表由表14.5和表和表14.4比对可知:根据表比对可知:根据表14.5序号序号1的测试输的测试输入值和表入值和表14.4样本输入值相对应,看其实际输出值应该和样样本输入值相对应,看其实际输出值应该和样本本8和和9相接近,实际情况也是如此。而序号相接近,实际情况也是如此。而序号2的实际输出值的实际输出值应该和样本应该和样本2022相接近,实际情况也是如此。相接近,实际情况也是如此。

侵权处理QQ:3464097650--上传资料QQ:3464097650

【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。


163文库-Www.163Wenku.Com |网站地图|