BP神经网络算法原理课件.pptx

上传人(卖家):三亚风情 文档编号:2982981 上传时间:2022-06-19 格式:PPTX 页数:29 大小:598KB
下载 相关 举报
BP神经网络算法原理课件.pptx_第1页
第1页 / 共29页
BP神经网络算法原理课件.pptx_第2页
第2页 / 共29页
BP神经网络算法原理课件.pptx_第3页
第3页 / 共29页
BP神经网络算法原理课件.pptx_第4页
第4页 / 共29页
BP神经网络算法原理课件.pptx_第5页
第5页 / 共29页
点击查看更多>>
资源描述

1、智能中国网提供学习支持智能中国网提供学习支持2.4 BP2.4 BP神经网络模型与学习算法神经网络模型与学习算法概述概述pRumelhartRumelhart,McClellandMcClelland于于19851985年提出了年提出了BPBP网络的误差反网络的误差反向后传向后传BP(Back Propagation)BP(Back Propagation)学习算法学习算法pBPBP算法基本原理算法基本原理利用输出后的误差来估计输出层的直接前导层的误差,再用这个误差估计更前一层的误差,如此一层一层的反传下去,就获得了所有其他各层的误差估计。 J. McClelland David Rumelh

2、art 2.4.1 BP2.4.1 BP神经网络模型神经网络模型p三层三层BPBP网络网络1x2x1Nx1y2y2Ny1z2z3Nz123N1T2Tihwhjw- - -隐含层输出层输入层3NT2.4.1 BP2.4.1 BP神经网络模型神经网络模型p激活函数激活函数必须处处可导一般都使用一般都使用S S型函数型函数 p使用使用S S型激活函数时型激活函数时BPBP网络输入与输出关网络输入与输出关系系输入输出1122.nnnetx wx wx w1f()1enetynet2.4.1 BP2.4.1 BP神经网络模型神经网络模型输出的导数211f ()(1)1e(1e)-netnetnetyy根

3、据根据S S型激活函数的图形可知型激活函数的图形可知, ,对神经网络进行训练,应该将对神经网络进行训练,应该将netnet的值尽的值尽量控制在收敛比较快的范围内量控制在收敛比较快的范围内 2.4.2 BP2.4.2 BP网络的标准学习算法网络的标准学习算法p学习的过程:学习的过程:神经网络在外界输入样本的刺激下不断改变网络的连接权值,以使网络的输出不断地接近期望的输出。p学习的本质:学习的本质:对各连接权值的动态调整p学习规则:学习规则:权值调整规则,即在学习过程中网络中各神经元的连接权变化所依据的一定的调整规则。2.4.2 BP2.4.2 BP网络的标准学习算法网络的标准学习算法- -算法思

4、想算法思想p学习的类型:有导师学习学习的类型:有导师学习p核心思想:核心思想: 将输出误差以某种形式通过隐层向输入层逐层反传p学习的过程:学习的过程:信号的正向传播 误差的反向传播将误差分摊给各层的所有将误差分摊给各层的所有单元各层单元的误单元各层单元的误差信号差信号修正各单元权修正各单元权值值2.4.2 BP2.4.2 BP网络的标准学习算法网络的标准学习算法- -学习过程学习过程p正向传播:正向传播: 输入样本输入层各隐层输出层p判断是否转入反向传播阶段:判断是否转入反向传播阶段: 若输出层的实际输出与期望的输出(教师信号)不符p误差反传误差反传 误差以某种形式在各层表示修正各层单元的权值

5、p网络输出的误差减少到可接受的程度网络输出的误差减少到可接受的程度进行到预先设定的学习次数为止进行到预先设定的学习次数为止2.4.2 BP2.4.2 BP网络的标准学习算法网络的标准学习算法 p网络结构网络结构输入层有n个神经元,隐含层有p个神经元, 输出层有q个神经元p变量定义变量定义输入向量;隐含层输入向量;隐含层输出向量;输出层输入向量;输出层输出向量;期望输出向量; 12,nxxxx12,phihihihi12,pho hohoho12,qyiyiyiyi12,qyoyoyoyo12,qdddod2.4.2 BP2.4.2 BP网络的标准学习算法网络的标准学习算法输入层与中间层的连接权

6、值:隐含层与输出层的连接权值:隐含层各神经元的阈值:输出层各神经元的阈值:样本数据个数:激活函数: 误差函数:ihwf( ) howhb1,2,kmob211( )( )2qoooedkyo k2.4.2 BP2.4.2 BP网络的标准学习算法网络的标准学习算法p第一步,网络初始化第一步,网络初始化 给各连接权值分别赋一个区间(-1,1)内的随机数,设定误差函数e,给定计算精度值 和最大学习次数M。p第二步第二步, ,随机选取第随机选取第 个输入样本及对应个输入样本及对应期望输出期望输出 k12( )( ),( ),( )nkx kx kx kx12( )( ),( ),( )qkd kdkd

7、kod2.4.2 BP2.4.2 BP网络的标准学习算法网络的标准学习算法p第三步,计算隐含层各神经元的输入和第三步,计算隐含层各神经元的输入和输出输出1( )( )1,2,nhihihihikw x kbhp( )f( )1,2,hhho khi khp1( )( )1,2,pohohohyi kw ho kboq( )f( )1,2,ooyo kyi koq2.4.2 BP2.4.2 BP网络的标准学习算法网络的标准学习算法p第四步,利用网络期望输出和实际输出,第四步,利用网络期望输出和实际输出,计算误差函数对输出层的各神经元的偏导计算误差函数对输出层的各神经元的偏导数数 。 ohooho

8、eeyiwyiw( )( )( )phohoohhhohow ho kbyi kho kww211( ( )( )2( ( )( )( )( ( )( )f( )( )qooooooooooood kyo ked kyo k yo kyiyid kyo kyi kk( )ok2.4.2 BP2.4.2 BP网络的标准学习算法网络的标准学习算法( )( )oohhoohoeeyik ho kwyiw 1( )( )( )( )( )hihhihnihihhiiihiheehikwhikww x kbhikx kwwp第五步,利用隐含层到输出层的连接权第五步,利用隐含层到输出层的连接权值、输出层的

9、值、输出层的 和隐含层的输出计算误和隐含层的输出计算误差函数对隐含层各神经元的偏导数差函数对隐含层各神经元的偏导数 。 ( )hk( )ok2.4.2 BP2.4.2 BP网络的标准学习算法网络的标准学习算法21212111( )( ) )( )2( )( )( )1( )f( ) )( )2( )( )1( )f( ) )( )2( )( )qoohohhhqoohohhqpohohohohhhd kyo keho khi kho khi kd kyi kho kho khi kd kw ho kbho kho khi k11( )( )( )f ( )( )( )f ( )( )qhooo

10、hoohqohohhoho kd kyo kyi kwhi kk whi kk 2.4.2 BP2.4.2 BP网络的标准学习算法网络的标准学习算法p第六步,利用输出层各神经元的第六步,利用输出层各神经元的 和和隐含层各神经元的输出来修正连接权隐含层各神经元的输出来修正连接权值值 。 1( )( )( )( )( )hoohhoNNhohoohewkk ho kwwwk ho k ( )ok( )howk2.4.2 BP2.4.2 BP网络的标准学习算法网络的标准学习算法p第七步,利用隐含层各神经元的第七步,利用隐含层各神经元的 和和输入层各神经元的输入修正连接权。输入层各神经元的输入修正连接

11、权。 ( )hk1( )( )( ) ( )( )( ) ( )hihhiihhihNNihihhieehi kw kk x kwhi kwwwk x k2.4.2 BP2.4.2 BP网络的标准学习算法网络的标准学习算法p第八步,计算全局误差第八步,计算全局误差p第九步,判断网络误差是否满足要求。当误差第九步,判断网络误差是否满足要求。当误差达到预设精度或学习次数大于设定的最大次数,达到预设精度或学习次数大于设定的最大次数,则结束算法。否则,选取下一个学习样本及对则结束算法。否则,选取下一个学习样本及对应的期望输出,返回到第三步,进入下一轮学应的期望输出,返回到第三步,进入下一轮学习。习。

12、2111( )( )2qmookoEdky km2.4.2 BP2.4.2 BP网络的标准学习算法网络的标准学习算法pBPBP算法直观解释算法直观解释情况一直观表达 当误差对权值的偏当误差对权值的偏导数大于零时,权值导数大于零时,权值调整量为负,实际输调整量为负,实际输出大于期望输出,出大于期望输出,权值向减少方向调整,权值向减少方向调整,使得实际输出与期望使得实际输出与期望输出的差减少。输出的差减少。whohoewe0,此时,此时who02.4.2 BP2.4.2 BP网络的标准学习算法网络的标准学习算法pBPBP算法直解释算法直解释情况二直观表达当误差对权值的偏导数当误差对权值的偏导数小于

13、零时,权值调整量小于零时,权值调整量为正,实际输出少于期为正,实际输出少于期望输出,权值向增大方向望输出,权值向增大方向调整,使得实际输出与期调整,使得实际输出与期望输出的差减少。望输出的差减少。hoewe0who2.4.3 BP2.4.3 BP神经网络学习算法的神经网络学习算法的MATLABMATLAB实现实现 pMATLABMATLAB中中BPBP神经网络的重要函数和基本神经网络的重要函数和基本功能功能 函 数 名功 能newff()生成一个前馈BP网络tansig()双曲正切S型(Tan-Sigmoid)传输函数logsig()对数S型(Log-Sigmoid)传输函数traingd()

14、梯度下降BP训练函数2.4.3 BP2.4.3 BP神经网络学习算法的神经网络学习算法的MATLABMATLAB实现实现pMATLABMATLAB中中BPBP神经网络的重要函数和基本功能神经网络的重要函数和基本功能newff()功能功能 建立一个前向建立一个前向BPBP网络网络格式格式 net = newff(PRnet = newff(PR,S1 S2.SN1S1 S2.SN1,TF1 TF1 TF2.TFN1TF2.TFN1,BTFBTF,BLFBLF,PF)PF)说明说明 netnet为创建的新为创建的新BPBP神经网络;神经网络;PRPR为网络输入为网络输入取向量取值范围的矩阵;取向量

15、取值范围的矩阵;S1 S2S1 S2SNlSNl表示网络表示网络隐含层和输出层神经元的个数;隐含层和输出层神经元的个数;TFl TF2TFl TF2TFN1TFN1表示网络隐含层和输出层的传输函数,默认为表示网络隐含层和输出层的传输函数,默认为tansigtansig;BTFBTF表示网络的训练函数,默认为表示网络的训练函数,默认为trainlmtrainlm;BLFBLF表示网络的权值学习函数,默认表示网络的权值学习函数,默认为为learngdmlearngdm;PFPF表示性能数,默认为表示性能数,默认为msemse。 2.4.3 BP2.4.3 BP神经网络学习算法的神经网络学习算法的M

16、ATLABMATLAB实现实现pMATLABMATLAB中中BPBP神经网络的重要函数和基本功能神经网络的重要函数和基本功能tansig()功能功能 正切正切sigmoidsigmoid激活函数激活函数格式格式 a = tansig(n)a = tansig(n)说明说明 双曲正切双曲正切SigmoidSigmoid函数把神经元的输入范围从函数把神经元的输入范围从(-(-,+)+)映射到映射到(-1(-1,1)1)。它是可导函数,适用于。它是可导函数,适用于BPBP训练的神经元。训练的神经元。logsig()功能功能 对数对数SigmoidSigmoid激活函数激活函数格式格式 a = log

17、sig(N)a = logsig(N)说明对数说明对数SigmoidSigmoid函数把神经元的输入范围从函数把神经元的输入范围从(-(-,+)+)映射映射到到(0(0,1)1)。它是可导函数,适用于。它是可导函数,适用于BPBP训练的神经元。训练的神经元。2.4.3 BP2.4.3 BP神经网络学习算法的神经网络学习算法的MATLABMATLAB实现实现p例例2-32-3,下表为某药品的销售情况,现构建一个如下的三层,下表为某药品的销售情况,现构建一个如下的三层BPBP神经神经网络对药品的销售进行预测:输入层有三个结点,隐含层结点数网络对药品的销售进行预测:输入层有三个结点,隐含层结点数为为

18、5 5,隐含层的激活函数为,隐含层的激活函数为tansigtansig;输出层结点数为;输出层结点数为1 1个,输出层个,输出层的激活函数为的激活函数为logsiglogsig,并利用此网络对药品的销售量进行预测,并利用此网络对药品的销售量进行预测,预测方法采用滚动预测方式,即用前三个月的销售量来预测第四预测方法采用滚动预测方式,即用前三个月的销售量来预测第四个月的销售量,如用个月的销售量,如用1 1、2 2、3 3月的销售量为输入预测第月的销售量为输入预测第4 4个月的销个月的销售量,用售量,用2 2、3 3、4 4月的销售量为输入预测第月的销售量为输入预测第5 5个月的销售量个月的销售量.

19、 .如此反如此反复直至满足预测精度要求为止。复直至满足预测精度要求为止。 月份123456销量205623952600229816341600月份789101112销量1873147819001500204615562.4.3 BP2.4.3 BP神经网络学习算法的神经网络学习算法的MATLABMATLAB实现实现%以每三个月的销售量经归一化处理后作为输入p P=0.5152P=0.51520.81730.81731.0000 ;1.0000 ; 0.8173 0.81731.00001.00000.7308;0.7308; 1.0000 1.00000.73080.73080.1390;0.

20、1390; 0.7308 0.73080.13900.13900.1087;0.1087; 0.1390 0.13900.10870.10870.3520;0.3520; 0.1087 0.10870.35200.35200.0000;0.0000;%以第四个月的销售量归一化处理后作为目标向量p T=0.7308 0.1390 0.1087 0.3520 0.0000 0.3761;T=0.7308 0.1390 0.1087 0.3520 0.0000 0.3761;%创建一个BP神经网络,每一个输入向量的取值范围为0 ,1,隐含层有5个神经%元,输出层有一个神经元,隐含层的激活函数为tan

21、sig,输出层的激活函数为%logsig,训练函数为梯度下降函数,即2.3.2节中所描述的标准学习算法p net=newff(0 1;0 1;0 1,5,1,tansig,logsig,traingd);net=newff(0 1;0 1;0 1,5,1,tansig,logsig,traingd);p net.trainParam.epochs=15000;net.trainParam.epochs=15000;p net.trainParam.goal=0.01;net.trainParam.goal=0.01;%设置学习速率为0.1p LP.lr=0.1;LP.lr=0.1;p net=

22、train(net,P,T); net=train(net,P,T); 2.4.3 BP2.4.3 BP神经网络学习算法的神经网络学习算法的MATLABMATLAB实现实现pBPBP网络应用于药品预测对比图网络应用于药品预测对比图p由对比图可以看出预测效果与实际存在一定误差,此误差可以通过由对比图可以看出预测效果与实际存在一定误差,此误差可以通过增加运行步数和提高预设误差精度业进一步缩小增加运行步数和提高预设误差精度业进一步缩小BPBP神经网络的特点神经网络的特点p非线性映射能力非线性映射能力能学习和存贮大量输入能学习和存贮大量输入- -输出模式映射关系,而无需事输出模式映射关系,而无需事先了

23、解描述这种映射关系的数学方程。只要能提供足够先了解描述这种映射关系的数学方程。只要能提供足够多的样本模式对供网络进行学习训练,它便能完成由多的样本模式对供网络进行学习训练,它便能完成由n n维输入空间到维输入空间到m m维输出空间的非线性映射。维输出空间的非线性映射。p泛化能力泛化能力当向网络输入训练时未曾见过的非样本数据时,网络也当向网络输入训练时未曾见过的非样本数据时,网络也能完成由输入空间向输出空间的正确映射。这种能力称能完成由输入空间向输出空间的正确映射。这种能力称为泛化能力。为泛化能力。p容错能力容错能力输入样本中带有较大的误差甚至个别错误对网络的输入输入样本中带有较大的误差甚至个别错误对网络的输入输出规律影响很小。输出规律影响很小。 小结小结pBPBP算法背景算法背景pBPBP神经网络模型神经网络模型pBPBP算法算法基本思想推导过程实现pBPBP神经网络的神经网络的MATLABMATLAB函数函数pBPBP神经网络的应用实例神经网络的应用实例pBPBP神经网络与感知器神经网络的对比神经网络与感知器神经网络的对比谢谢!谢谢!

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 办公、行业 > 各类PPT课件(模板)
版权提示 | 免责声明

1,本文(BP神经网络算法原理课件.pptx)为本站会员(三亚风情)主动上传,163文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。
2,用户下载本文档,所消耗的文币(积分)将全额增加到上传者的账号。
3, 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(发送邮件至3464097650@qq.com或直接QQ联系客服),我们立即给予删除!


侵权处理QQ:3464097650--上传资料QQ:3464097650

【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。


163文库-Www.163Wenku.Com |网站地图|