人工神经网络课件.ppt

上传人(卖家):三亚风情 文档编号:3049603 上传时间:2022-06-26 格式:PPT 页数:86 大小:2.93MB
下载 相关 举报
人工神经网络课件.ppt_第1页
第1页 / 共86页
人工神经网络课件.ppt_第2页
第2页 / 共86页
人工神经网络课件.ppt_第3页
第3页 / 共86页
人工神经网络课件.ppt_第4页
第4页 / 共86页
人工神经网络课件.ppt_第5页
第5页 / 共86页
点击查看更多>>
资源描述

1、1第第3讲讲 人工神经网络人工神经网络 欧阳柳波 2/65人工神经网络的进展l初创阶段(二十世纪四十年代至六十年代): l1943年,美国心理学家W. S. Mcculloch和数理逻辑学家 和数理逻辑学家W. Pitts 提出了神经元的数学模型,即MP( Mcculloch-Pitts )模型l以数学逻辑为研究手段,探讨了客观事件在神经网络的形式问题l1960年,威德罗和霍夫率先把神经网络用于自动控制研究。l过渡阶段(二十世纪六十年代初至七十年代)lM. Minsky和S. Papert于1969 年出版Perceptron Perceptronl从理论上证明了以单层感知机为代表的网络系统在

2、某些能力方面的局限性。l 60年代末期至 80年代中期,神经网络控制与神经网络进入低潮3/65人工神经网络的进展(续)l高潮阶段(二十世纪八十年代)l1982和1984年,美国加州理工学院的生物物理学J. J. Hopfield在美国科学院院刊发表的两 篇文章,有力地推动了人工神经网络的研究与应用,并引发了研究神经网络的一次热潮。l80年代后期以来,随着人工神经网络研究的复苏和发展,对神经网络控制的研究也十分活跃。研究进展主要在神经网络自适应控制和模糊神经网络控制及其在机器人控制中的应用上。l平稳发展阶段(二十世纪九十年代以后)l和相关学科交叉融合4/65 ANN 人工神经网络人工神经网络l概

3、述l基本原理l前向型神经网络l自组织竞争神经网络l神经网络的应用l与人工智能原理的结合lBP神经网络5/65概述概述l什么叫人工神经网络l采用物理可实现的系统来模仿人脑神经细胞的结构和功能的系统。l为什么要研究神经网络l用计算机代替人的脑力劳动。 l计算机速度为纳秒级,人脑细胞反应时间是毫秒级。而计算机不如人。 l长期以来人类的梦想,机器既能超越人的计算能力,又有类似于人的识别、分析、联想等能力。6/65概述概述l人工智能与神经网络l共同之处:研究怎样使用计算机来模仿人脑工作过程,学习实践再学习再实践 。l不同之处:l人工智能研究人脑的推理、学习、思考、规划等思维活动,解决需人类专家才能处理的

4、复杂问题。l神经网络企图阐明人脑结构及其功能,以及一些相关学习、联想记忆的基本规则(联想、概括、并行搜索、学习和灵活性)7/65l例如:l人工智能专家系统是制造一个专家,几十年难以培养的专家。神经网络是制造一个婴儿,一个幼儿,一个可以学习,不断完善,从一些自然知识中汲取智慧的生命成长过程。 l同样是模仿人脑,但所考虑的角度不同。l成年人和婴儿l学习过程不一样8/65概述概述 人工智能 神经网络 研究目的 人脑推理、学习、思考、规划等思维活动,解决需人类专家才能处理的复杂问题。 阐明有关人脑结构及其功能以及相关学习、联想记忆的基本规律。 研究内容 推理方法、知识表示、机器学习 生物的生理机制、信

5、息的存储、传递、处理方式 知识表示方法 人懂机器懂人懂 图像等机器图像等 知识储存方式 知识库中有事实和规则,随时添加而增大,一条出了毛病有可能出错。 在网的结构之中,一条出问题不会触大错,网络结构不会随知识增加变化很大 信息传递方式 符号 脉冲形式,以频率表示 信息处理方式 树、网等,一条一条执行,并行处理较难 原理上是并行结构,与生物信息处理机制一致 9/65 ANN 人工神经网络人工神经网络l概述l基本原理l前向型神经网络l自组织竞争神经网络l神经网络的应用l与人工智能原理的结合lBP神经网络10/65基本原理基本原理11/6512/6513/65生物神经元生物神经元 细胞核 细胞质 树

6、突 突触 来自其他细胞 细胞膜 轴突 神经末梢 l神经元由神经元由和和组成。细胞体是神经元的主体组成。细胞体是神经元的主体, ,它由细胞核、细胞质和细胞膜三部分构成它由细胞核、细胞质和细胞膜三部分构成. .从细胞体向外延伸从细胞体向外延伸出许多突起出许多突起, ,其中大部分突起呈树状其中大部分突起呈树状, ,称为称为树突树突. .树突起感受作树突起感受作用用, ,接受来自其他神经元的传递信号接受来自其他神经元的传递信号. . l由细胞体伸出的一条最长的突起由细胞体伸出的一条最长的突起, ,用来传出细胞体产生的输出用来传出细胞体产生的输出信号信号, ,称之为称之为轴突轴突; ;轴突末端形成许多细

7、的分枝轴突末端形成许多细的分枝, ,叫做叫做神经末梢神经末梢; ;每一条神经末梢可以与其他神经元形成功能性接触每一条神经末梢可以与其他神经元形成功能性接触, ,该接触部该接触部位称为位称为突触突触。所谓。所谓功能性接触功能性接触是指非永久性接触是指非永久性接触, ,它是神经元它是神经元之间信息传递的奥秘之处。之间信息传递的奥秘之处。14/65l一个神经元把来自不同树突的兴奋性或抑制性输入信号一个神经元把来自不同树突的兴奋性或抑制性输入信号( (突触后膜电位突触后膜电位) )累加求和累加求和的过程,称为整合。考虑到输入的过程,称为整合。考虑到输入信号的影响要持续一段时间信号的影响要持续一段时间(

8、 (毫秒级毫秒级),),因此因此, ,神经元的整合神经元的整合功能是一种时空整合。当神经元的时空整合产生的膜电位功能是一种时空整合。当神经元的时空整合产生的膜电位超过超过阈值阈值电位时电位时, ,神经元处于神经元处于兴奋状态兴奋状态, ,产生兴奋性电脉冲产生兴奋性电脉冲, ,并经轴突输出并经轴突输出; ;否则否则, ,无电脉冲产生无电脉冲产生, ,处于处于抑制状态抑制状态。15/6516/65图图2 一种简化神经元结构一种简化神经元结构 17/65人工神经元模型人工神经元模型l每一个细胞处于两种状态。l突触联接有强度。l多输入单输出。l实质上传播的是脉冲信号,信号的强弱与脉冲频率成正比。 yi

9、 si x1 x2 xn ui i 图3 人工神经元的结构模型l一般地,人工神经元的结构模型如图3所示。l它是一个多输入单输出的非线性阈值器件。其中 x1,x2,xn表示神经元的n个输入信号量;l w1,w2,wn表示对应输入的权值,它表示各信号源神经元与该神经元的连接强度;l U表示神经元的输入总和,它相应于生物神经细胞的膜电位,称为激活函数;y为神经元的输出;表示神经元的阈值。18/6519/65于是,人工神经元的输入输出关系可描述为:于是,人工神经元的输入输出关系可描述为: 1( )niiiyf UUx 函数函数y=f(U)称为特性函数称为特性函数(亦称作用、传递、亦称作用、传递、激活、

10、活激活、活化、转移函数化、转移函数)。特性函数可以看作是神经元的数学模型。特性函数可以看作是神经元的数学模型。20/65 1. 阈值型阈值型 ()yfA1000AA 2. S型型 这类函数的输入输出特性多采用指数、对数或这类函数的输入输出特性多采用指数、对数或双曲正切等双曲正切等S型函数表示。例如型函数表示。例如 1( )1Ayf AeS型特性函数反映了神经元的非线性输出特性。型特性函数反映了神经元的非线性输出特性。 常见的特性函数有以下几种常见的特性函数有以下几种:21/65 3. 3.分段线性型分段线性型神经元的输入输出特性满足一定的区间线性关系神经元的输入输出特性满足一定的区间线性关系,

11、 ,其特性函数表达为其特性函数表达为 0001kkAyKAAAAA式中,式中,K、Ak均表示常量。均表示常量。 22/65人工神经元模型人工神经元模型l以上三种特性函数的图像依次如下图中的(a)、(b)、(c)所示l神经细胞的输出对输入的反映。l典型的特性函数是非线性的。 f(u)f(u)f(u)111000uuu(a)(b)(c)23/65基本原理基本原理网络结构网络结构l人脑神经网络:l人脑中约有亿个神经细胞l根据Stubbz的估计这些细胞被安排在约个主要模块内,每个模块上有上百个神经网络,每个网络约有万个神经细胞。 l 如果将多个神经元按某种的拓扑结构连接起来,就构成了神经网络。 根据连

12、接的拓扑结构不同,根据连接的拓扑结构不同,神经网络可分为四大类:神经网络可分为四大类:、反馈前向网络反馈前向网络、互互连连前向网络前向网络、广广泛互连网络泛互连网络。 24/65基本原理基本原理网络模型网络模型l分层前向网络分层前向网络:每层只与前层相联接 网络由若干层神经元组成,一般有输入层、中间层(又称隐层,可有一层或多层)和输出层,各层顺序连接;且信息严格地按照从输入层进,经过中间层,从输出层出的方向流动。 x1 x2 xn y1 y2 yn 25/65基本原理基本原理网络模型网络模型l反馈前向网络反馈前向网络:输出层上存在一个反馈回路,将信号反馈到输入层。而网络本身还是前向型的。 反馈

13、的结果形成封闭环路,具有反馈的单元称为隐单元,其输出称为内部输出。 x1 x2 xn y1 y2 yn 26/65基本原理基本原理网络模型网络模型l互连前向网络互连前向网络:外部看还是一个前向网络,内部有很多自组织网络在层内互连着。 同一层内单元的相互连接使它们之间有彼此牵制作用。 x1 x2 xn y1 y2 yn 27/65基本原理基本原理网络模型网络模型l广泛互连网络广泛互连网络:所有计算单元之间都有连接,即网络中任意两个神经元之间都可以或可能是可达的。如:Hopfield网络 、波尔茨曼机模型l反馈型局部连接网络反馈型局部连接网络:特例,每个神经元的输出只与其周围的神经元相连,形成反馈

14、网络。 28/65基本原理基本原理 网络分类网络分类l分类l前向型(前馈型);l反馈型;l自组织竞争;l随机网络l其它 具体来讲,神经网络至少可以实现如下功能:l数学上的映射逼近。通过一组映射样本(x1,y1)(x2,y2),(xn,yn),网络以自组织方式寻找输入与输出之间的映射关系:yi=f(xi)。l数据聚类、压缩。通过自组织方式对所选输入模式聚类。 l联想记忆。实现模式完善、恢复,相关模式的相互回忆等。 l优化计算和组合优化问题求解。利用神经网络的渐进稳定态,特别是反馈网络的稳定平衡态,进行优化计算或求解组合优化问题的近似最优解。 29/65l模式分类。现有的大多数神经网络模型都有这种

15、分类能力。 l概率密度函数的估计。根据给定的概率密度函数,通过自组织网络来响应在空间Rn中服从这一概率分布的一组向量样本X1,X2,Xk。 30/6531/65基本原理基本原理基本属性基本属性l基本属性:l非线性:l自然界的普遍特性l大脑的智慧就是一种非线性现象l人工神经元处于激活或抑制两种不同的状态,在数学上表现为一种非线性。 l非局域性:l一个神经网络通常由多个神经元广泛连接而成l一个系统的整体行为不仅取决于单个神经元的特征,而且可能主要由单元之间的相互作用、相互连接所决定l通过单元之间的大量连接模拟大脑的非局域性l联想记忆是非局域性的典型例子。 32/65基本原理基本原理 基本属性基本属

16、性l非定常性l人工神经网络具有自适应、自组织、自学习能力l神经网络不但处理的信息有各种各样,而且在处理信息的同时,非线性动力系统本身也在不断变化l经常采用迭代过程描写动力系统的演化过程。 l非凸性:系统演化的多样性l一个系统的演化方向,在一定条件下,将取决于某个特定的状态函数,如能量函数,它的极值相应于系统比较稳定的状态l非凸性是指这种函数有多个极值,故系统具有多个较稳定的平衡态,这将导致系统演化的多样性。 33/65基本原理基本原理优缺点优缺点l评价l优点:并行性;分布存储;容错性;学习能力 l缺点:不适合高精度计算;学习问题没有根本解决,慢;目前没有完整的设计方法,经验参数太多。 l学习学

17、习( (亦称训练亦称训练) )是神经网络的最重要特征之一。神经网络是神经网络的最重要特征之一。神经网络能够通过学习能够通过学习, ,改变其内部状态改变其内部状态, ,使输入使输入输出呈现出某种输出呈现出某种规律性。规律性。l网络学习一般是利用一组称为网络学习一般是利用一组称为样本样本的数据的数据, ,作为网络的输作为网络的输入入( (和输出和输出),),网络按照一定的训练规则网络按照一定的训练规则( (又称学习规则或学又称学习规则或学习算法习算法) )自动调节神经元之间的连接强度或拓扑结构自动调节神经元之间的连接强度或拓扑结构, ,当网当网络的实际输出满足期望的要求络的实际输出满足期望的要求,

18、 ,或者趋于稳定时或者趋于稳定时, ,则认为学则认为学习成功。习成功。34/65 权值修正学派认为:神经网络的学习过程就是不断调权值修正学派认为:神经网络的学习过程就是不断调整网络的连接权值,以获得期望的输出的过程。所以,学整网络的连接权值,以获得期望的输出的过程。所以,学习规则就是权值修正规则。习规则就是权值修正规则。 从不同角度考虑,神经网络的学习方法有不同的分类。从不同角度考虑,神经网络的学习方法有不同的分类。表表9.19.1列出了常见的几种分类情况。列出了常见的几种分类情况。 35/6536/65表表1 1 神经网络学习方法的常见分类神经网络学习方法的常见分类 37/65 ANN 人工

19、神经网络人工神经网络l概述l基本原理l前向型神经网络lBP神经网络l自组织竞争神经网络l神经网络的应用l与人工智能原理的结合38/65前向型神经网络前向型神经网络l概述l最初称之为感知器。应用最广泛的一种人工神经网络模型,最要原因是有BP学习方法。l前向网络结构是分层的,信息只能从下一层单元传递到相应的上一层单元。上层单元与下层所有单元相联接l特性函数可以是线性阈值的。 39/65前向型神经网络前向型神经网络l单层感知器 w1 Y x1 xn wn 40/65前向型神经网络前向型神经网络l基本原理和结构极其简单l在实际应用中很少出现l采用阶跃函数作为特性函数l维空间可以明显表现其分类功能,但M

20、insky等揭示的致命弱点也一目了然。l关键是学习算法及网络设计方法l输出yi等于:)(jjijixwfy(1)0101)(jjjuuuf其中41/65前向型神经网络前向型神经网络单层感知器单层感知器l分类方法:l如果输入x有k个样本,xp, p=1, 2, , k, xRnl当将这些样本分别输入到单输出的感知器中,在一定的和下,输出有两种可能+1或-1。l把样本xp看作为在n维状态空间中的一个矢量,则k个样本为输入空间的k个矢量l前向神经网络就是将n维空间分为SA、SB两个子空间,其分界线为n-1维的超平面。即用一个单输出的感知器通过调整参数及来达到k个样本的正确划分。 42/65前向型神经

21、网前向型神经网单层感知器单层感知器), , , , 2, 1,.2 , 1(其中,kllBlASxSxBBAA则存在一组权值wij使得公式(1)满足: 1,; 1,ySxySxBBAA称样本集为线性可分的,否则为线性不可分的。 43/65前向型神经网前向型神经网单层感知器单层感知器l如:2维空间Txxx),(21Twww),(21)(2211xwxwfy希望找到一根直线,把A, B两类样本分开,其分界线为: 21212wxwwx解有无数个。 单层感知器只能解决线性可分类的样本的分类问题。如样本不能用一个超平面分开,就会产生当年Minsky等提出的不可分问题如:异或问题。44/65+X1X2二维

22、输入感知器及其在状态空间中的划分二维输入感知器及其在状态空间中的划分 45/65前向型神经网络前向型神经网络多层感知器l多层感知器 l多层感知器的输入输出关系与单层感知器完全相同。前一层的输出是下一层的输入。也被称为BP网络。)()(.)(12011012101iniijjjnjikkvknkvkllxwfxxwfxxwfyv46/65前向型神经网络前向型神经网络多层感知器l多层感知器 l采用BP算法学习时要求传递函数为有界连续可微函数如sigmoid函数。因此,网络可以用一个连续的超曲面(而不仅仅是一个超平面)来完成划分输入样本空间的功能。l先求误差,用梯度下降的方法求误差的传递。从后往前算

23、。210)(21111PPmlPlPlytE47/65 No No Yes Yes 给定输入向量和目标输出 初始化 求隐层、输出层各单元输出 求目标值与实际输出的偏差 e e 满足要求? 全部ei满足? 计算隐层单元误差 求误差梯度 权值学习 END 48/65前向型神经网络前向型神经网络多层感知器l多层感知器 ln层网络可以以n-1个超曲面构成一个符合曲面,弥补单层感知器的缺陷。l基于BP算法,依据大量样本通过逐步调整神经元之间的联接权重来构造网络。l理论上,多层前馈网络在不考虑结果规模的前提下,可以模拟任意的输出函数。 49/65前向型神经网络前向型神经网络多层感知器l特点:l用非线性连续

24、可微函数分类,结果为一种模糊概念。当输出f(u)0时,其输出不一定为,而是一个0.5(有时只是0)的值,表示所得到的概率为多少。 l应用最广泛的神经网络模型之一。50/65 ANN 人工神经网络人工神经网络l概述l基本原理l前向型神经网络lBP神经网络l自组织竞争神经网络l神经网络的应用l与人工智能原理的结合BP 神经网络神经网络51/65lBP(BackBP(BackPropagation)Propagation)网络网络即误差反向传播网络是应用最广泛的一种神经网络模型。 (1)BP网络的拓扑结构为分层前向网络; (2)神经元的特性函数为Sigmoid型(S型)函数,一般取为 1()1xfx

25、e(3)输入为连续信号量(实数);(4)学习方式为有导师学习;(5)学习算法为推广的学习规则,称为误差反向传播算法,简称BP学习算法。52/65BP 神经网络神经网络lBP算法的基本思想: l正向传播过程中,输入信号从输入层经隐单元层传向输出层,每一层的神经元状态只会影响到下一层神经元的输入,如果在输出层得不到期望的输出,则转入反向传播过程。l将误差信号沿原来的连接通路返回,通过修改各层神经元的连接权值,使得输出误差信号达到最小。l变量定义:lXX为输入向量,YY为网络输出向量;lWW(1)(1)、WW(2)(2)分别为输入层隐层、隐层输出层的权值矩阵l每层神经元的个数为:输入层,NN个神经元

26、;隐层,PP个神经元;输出层,MM个神经元。53/6554/6555/6556/6557/6558/6559/6560/6561/65网络训练函数lfunction teste,bestep,testouts,wh,wo,errorCurve = nnTrain(matrices,nrows,ninputs,nhiddens1, nhiddens2,noutputs,hrates,orates,moms,epochs,options)lmatrices: 训练集合的样式,即输入-期望输出对。lnrows: 样本集的列数,即学习样本的数目。lninputs, nhiddens1, nhidden

27、s2, noutputs: 输入层节点数;第一隐层节点数;第二隐层节点数(可以为空);输出层节点数。lhrates, orates: 隐层、输出层单元的学习率。lmoms: 训练过程激励速率。lepochs: 最大训练过程的迭代数。loptions: 函数使用过程的选项。62/65l例例:设计一个设计一个BPBP网络,对表网络,对表2 2所示的样本数据进行学习,所示的样本数据进行学习,使学成的网络能解决类似的模式分类问题。设网络的使学成的网络能解决类似的模式分类问题。设网络的输入层有三个节点,隐层四个节点,输出层三个节点,输入层有三个节点,隐层四个节点,输出层三个节点,拓扑结构如拓扑结构如下下

28、图图9 9所示。所示。 表2 网络训练样本数据 输入输入输出输出X1 x2 x3Y1 y2 y30.3 0.8 0.10.7 0.1 0.30.6 0.6 0.61 0 00 1 0 0 0 163/65图 BP网络举例 l用样本数据按BP算法对该网络进行训练,训练结束后,网络就可作为一种模式分类器使用。因为网络的输出向量(1,0,0)、(0,1,0)、(0,0,1)可以表示多种模式或状态。如可以分别表示凸、凹和直三种曲线,或者三种笔划,也可以表示某公司的销售情况:高峰、低谷和持平等等。l当然,要使网络有很好的模式分类能力,必须给以足够多的范例使其学习,本例仅是一个简单的示例。64/65l神经

29、网络模型是一个在神经网络研究和应用中经常提到的神经网络模型是一个在神经网络研究和应用中经常提到的概念。所谓概念。所谓神经网络模型神经网络模型,它是关于一个神经网络的综合,它是关于一个神经网络的综合描述和整体概念,包括网络的拓扑结构、输入输出信号类描述和整体概念,包括网络的拓扑结构、输入输出信号类型、信息传递方式、神经元特性函数、学习方式、学习算型、信息传递方式、神经元特性函数、学习方式、学习算法等等。法等等。l截止目前,人们已经提出了上百种神经网络模型截止目前,人们已经提出了上百种神经网络模型, ,下下表简表简介最著名的几种。介最著名的几种。65/6566/6567/6568/65l神经网络模

30、型也可按其功能、结构、学习方式等的不同进神经网络模型也可按其功能、结构、学习方式等的不同进行分类。行分类。 神经网络的学习方式包括三种,有神经网络的学习方式包括三种,有、强化学强化学习习和和。按学习方式进行神经网络模型分类时,。按学习方式进行神经网络模型分类时,可以分为相应的三种,即可以分为相应的三种,即、强化学习网络强化学习网络及及。69/65 神经网络的连接结构分为两大类,分层结构与互连结构,分层结构网络有明显的层次,信息的流向由输入层到输出层,因此,构成一大类网络,即前向网络前向网络。对于互连型结构网络,没有明显的层次,任意两处理单元之间都是可达的,具有输出单元到隐单元(或输入单元)的反

31、馈连接,这样就形成另一类网络,称之为反馈网络反馈网络。 70/65 在神经网络模型中,处理单元(即神经元)的状态有两种形式:连续时间变化状态、离散时间变化状态。如果神经网络模型的所有处理单元状态能在某一区间连续取值,这样的网络称为连续型网络连续型网络;如果神经网络模型的所有处理单元状态只能取离散的二进制值0或1(或-1、+1),那么称这种网络为离散型网离散型网络。络。 典型的Hopfield网络同时具有这两类网络,分别称为连续型Hopfield网络和离散型Hopfield网络。另外,还有输出为二进制值0或1、输入为连续值的神经网络模型,如柯西机模型。71/65 确定神经网络处理单元的状态取值有

32、两种活动方式,一种是由确定性输入经确定性作用函数,产生确定性的输出状态;另一种是由随机输入或随机性作用函数,产生遵从一定概率分布的随机输出状态。 具有前一种活动方式的神经网络,称为确定性网络确定性网络。已有的大部分神经网络模型均属此类。而后一种活动方式的神经网络,称为随机性网络随机性网络。随机性网络的典型例子有:波尔茨曼机、柯西机和高斯机等。72/6573/65 ANN 人工神经网络人工神经网络l概述l基本原理l前向型神经网络l自组织竞争神经网络l神经网络的应用l与人工智能原理的结合lBP神经网络74/65自组织竞争神经网络自组织竞争神经网络l概述l在实际的神经网络中,存在一种侧抑制的现象。即

33、一个细胞兴奋后,通过它的分支会对周围其他神经细胞产生抑制。这种侧抑制在脊髓和海马中存在,在人眼的视网膜中也存在。75/65自组织竞争神经网络自组织竞争神经网络l概述l这种抑制使神经细胞之间出现竞争,一个兴奋最强的神经细胞对周围神经细胞的抑制也强。虽然一开始各个神经细胞都处于兴奋状态,但最后是那个输出最大的神经细胞“赢”,而其周围的神经细胞“输”了。l胜者为王。小猫 76/65自组织竞争神经网络自组织竞争神经网络l概述l自组织竞争神经网络是在 “无师自通”的现象的基础上生成的。 l人类等生物的生长过程。77/65自组织竞争神经网络自组织竞争神经网络l结构:层内细胞之间互联,在各个神经细胞中加入自

34、反馈,相互作用,输出y为 :)(,(ygxwfy 系统稳定时“胜者为王”。此时赢者的权向量与输入向量的欧氏距离最小。此距离为 :),cos(|wxxwxwT78/65自组织竞争神经网络自组织竞争神经网络l自组织映射模型l自组织映射模型是由Kohonen提出来的。模型是以实际神经细胞中的一种特征敏感的细胞为模型的。各个细胞分别对各种输入敏感,可以代表各种输入,反映各种输入样本的特征。如果在二维空间上描述这些细胞,则,功能相近的细胞聚在一起,靠得比较近。功能不同的离得比较远。l网络形成过程:开始是无序的,当输入样本出现后各个细胞反映不同,强者依照“胜者为王”的原则,加强自己的同时对周围细胞进行压抑

35、。使其对该种样本更加敏感,也同时对其他种类的样本更加不敏感。此过程的反复过程中,各种不同输入样本将会分别映射到不同的细胞上。79/65Kohonen网络的结构网络的结构 x2x1输入层输出层80/65Nc(t)的形状和变化情况的形状和变化情况 Nc(t0)Nc(t1)Nc(t2)Nc(t0)Nc(t1)Nc(t2)81/65自组织竞争神经网络自组织竞争神经网络l特点: l网络中的权值是输入样本的记忆。如果输出神经元j与输入n个神经元之间的联接用wj表示,对应其一类样本x输入,使yj达到匹配最大。那么wj通过学习后十分靠近x,因此,以后当x再次输入时,yj这个神经元必定会兴奋,yj是x的代表。.

36、 82/65自组织竞争神经网络自组织竞争神经网络.l网络学习时对权的调整不只是对兴奋的那个细胞所对应的权进行,而对其周围Nc区域内的神经元同时进行调整。因此,对于在Nc内的神经元可以代表不只是一个样本x,而是与x比较相近的样本都可以在Nc内得到反映。因此,这种网络对于样本的畸变和噪声的容差大。(调整区域函数有。) 各种函数l网络学习的结果是:比较相近的输入样本在输出平面上映射的位置也比较接近。具有自然聚类的效果。 83/65 ANN 人工神经网络人工神经网络l概述l基本原理l前馈型人工神经元网络lBP神经网络l自组织竞争人工神经网络l神经网络的应用l与人工智能原理的结合84/65神经网络的应用

37、神经网络的应用lANN是一门交叉学科,涉及心理学、生理学、生物学、医学、数学、物理学、计算机科学等l应用几乎遍及自然科学的各个领域l应用最多的是模式识别、通讯、控制、信号处理等方面。 85/65神经网络的应用神经网络的应用l在模式识别中的基本步骤:1、根据应用背景选择网络结构2、数据预处理、构造训练集3、选择适合的训练函数,训练ANN4、输入未知样本进行识别86/65与人工智能原理的结合与人工智能原理的结合l神经网络存在的问题:l网络结构大不宜实现l学习时间长效率低等l提出的改进方案: l利用不完善的领域理论和带有噪声的数据进行解释学习,产生一种近似正确的解释结构(规则树)。l利用该规则树构造初始神经网络,而后进行BP算法的训练,达到减少训练时间的目的。 l其他方案

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 办公、行业 > 各类PPT课件(模板)
版权提示 | 免责声明

1,本文(人工神经网络课件.ppt)为本站会员(三亚风情)主动上传,163文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。
2,用户下载本文档,所消耗的文币(积分)将全额增加到上传者的账号。
3, 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(发送邮件至3464097650@qq.com或直接QQ联系客服),我们立即给予删除!


侵权处理QQ:3464097650--上传资料QQ:3464097650

【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。


163文库-Www.163Wenku.Com |网站地图|