突触动力学非监督学习课件.ppt

上传人(卖家):三亚风情 文档编号:2860214 上传时间:2022-06-05 格式:PPT 页数:63 大小:688.50KB
下载 相关 举报
突触动力学非监督学习课件.ppt_第1页
第1页 / 共63页
突触动力学非监督学习课件.ppt_第2页
第2页 / 共63页
突触动力学非监督学习课件.ppt_第3页
第3页 / 共63页
突触动力学非监督学习课件.ppt_第4页
第4页 / 共63页
突触动力学非监督学习课件.ppt_第5页
第5页 / 共63页
点击查看更多>>
资源描述

1、2022-6-51第四章 突触动力学 非监督学习n复习 1 Heb学习法则 简化后可得XYijijiijjmmSxSy ijijiijjmmSxSy 2022-6-52第四章 突触动力学 非监督学习n复习 2 竞争学习法则 其中含有一个陡峭逻辑响应函数 ijjjiiijmSySxm11jjjc ySye2022-6-53第四章 突触动力学 非监督学习n复习 3 微分Heb学习法则 ijjjjmSyx m2022-6-54第四章 突触动力学 非监督学习n复习 4 微分竞争学习法则 ijjjiiijmSySxm2022-6-55第四章 突触动力学 非监督学习n信号的Heb学习n竞争学习n微分Heb

2、学习n微分竞争学习2022-6-56一 信号的Heb学习通过求解Heb学习法则的公式 (132)可获得如下积分方程 (133) ijijiijjmm tS x t S y t 00tts tijijijmtmeSs Ss eds2022-6-57一 信号的Heb学习n近期的影响与遗忘n渐进相关编码nHeb相关解码2022-6-58近期的影响与遗忘nHeb学习遵循的是指数加权平均的样本模式。式中的遗忘项为 。 上述遗忘项产生了积分方程中先前突触的指数系数。说明学习的同时也在遗忘,而且是呈指数衰减。 (132)中的遗忘项 产生了(133)中对先前知识 的指数权 。ij-mijm 0ijmte202

3、2-6-59近期的影响与遗忘n实际上遗忘定律提供的最简单的局部非监督学习定律为: (134)n说明了两个关键特征: 1 仅依赖于局部信息,即现在的突触强度 。 2 呈指数律达到平衡,可实时操作。ijijmm ijmt2022-6-510渐进相关编码 (135) X和Y:双极信号 和 。 , = 1,-1 两种极端情况: 1 2 实际中必须使用一个对角衰减记忆指数矩阵 来补偿固有的信息指数衰减。 TKKMX Y S x S yisjs 11ijijS Smtt 11ijijS Smtt W 10 1tijijm tme 2022-6-511渐进相关编码 (142) X和Y表示二极信号矢量矩阵。简

4、单说,用对角衰减矩阵W的目的就是对过去的联想模式取一段学习时间,而给最近的m个联想模式取更短一些的学习时间。达到补偿指数衰减的目的。1mTTkkkkXW Yw x Y2022-6-512Heb相关解码 考虑m个二极矢量联想对 的二极相关编码。 表示n维二极空间 中的一个点, 表示p维二极空间 中的一个点。 二极联想对 对应于二值矢量联想对 。 表示n维布尔空间 中的一个点, 代表p维空间 中的一个点。,iiX YiX1,1niY1,1p,iiX Y,iiA BiA0,1niB0,1p2022-6-513Heb相关解码 可以看出,把0换成-1, 就会变成 。这样,若加权矩阵W为单位阵I,二极联想

5、对的Heb编码就对应于(142)的加权Heb编码方案: (143)1mTiiiMX Y,iiXY,iiA B2022-6-514Heb相关解码 可用Heb突触矩阵M对 和 神经元信号进行双向处理。可把神经元信号前向通过M,后向通过 。这里仅考察前向的情况。 二极矢量 提供给神经元系统。有若干 , 越接近 ,解码精度越高。XFYFTMiXiXXX2022-6-515Heb相关解码 信噪分解 (144) (145) (146)mTTiiiiijjj iX MX XYX XYmTiijjj inYX XYijjjc Y2022-6-516Heb相关解码 其中 这里 为信号矢量而 为噪声矢量。 为校正

6、系数,使每个 尽可能从符号上接近于 。把 或其它靠近的矢量Y通过 ,校正性质依然成立。 用神经元网络从有代表性的训练样本中估计连续函数f时,有一个连续的假设。TTijijjijicX XX XciYjYijcijjc YjYiYTM2022-6-517Heb相关解码 假定异联想样本 从连续函数f上取样,那么输入的微小变化必然引起输出的微小变化。 相同的比特数-不同的比特数 (154),iiX YTijijcX X,ijijn H A AH AA2ijnH AA 2022-6-518Heb相关解码 若两个二值矢量 和 靠近 ,相同的比特数大于不同的比特数,那么 。极端情况下 , 。 时, ,校正

7、系数将度量上含糊不清的矢量丢弃掉,不参与求和。 与 相差较远, 。极端情况下 ,则 。iAjA0ijcjiYYijcn,/2ijH A An0ijciAjA0ijcijcn ijjjic YnYnY2022-6-519Heb相关解码nHeb编码步骤: 1 把二值矢量 变为双极矢量 ; 2 对邻接的相关编码联想求和 若TAM假设成立 则对同步的TAM输入 ,把激励同步阈值化为信号,就产生了 :iAiX111mTTmijiTX XX X11,ijijH A AH AA1iX111iiijjij iX TnXc XXXiX2022-6-520Heb相关解码nHeb编码步骤(例证): 一个三步极限环

8、位矢量: 将位矢量转换成二极矢量1231AAAA11010A 21100A 31001A 2022-6-521Heb相关解码 产生TAM矩阵111 11X 21 111X 3111 1X 1223311 1 1 11 1 1 11 1 1 11 1 1 11 1 1 11 11 11 1 1 11 1 1 11 1 1 11 1 1 11 1 111 1 1 13 1 1 11 1 1 31 3 1 11 1 3 1TTTT X XX XX X 2022-6-522Heb相关解码n位矢量 通过T产生: 因此产生前向极限环 后向情况类似。iA1222221 1 00ATA2322221 00 1

9、ATA3122221010ATA1231AAAA2022-6-523二 竞争学习n确定性竞争学习定律: (165) 也可写为 这里用的是非线性遗忘项 ,而Heb学习定律用的是线性遗忘项。 因此两种学习方法的区别在于它们如何遗忘而不是如何学习。ijjiijmSSmijjijijmS mS S jijS m2022-6-524二 竞争学习n两种情况下都有当第j个竞争神经元获胜时 ,突触 以指数率迅速编码信号 。与Heb突触不同的是,竞争突触当突触后神经元失败时,并不遗忘,此时 。因此(165)就简化为不改变的形式 。而Heb学习则简化为(134)的形式 。1jS ijmiS0ijm ijijmm

10、0jS 2022-6-525二 竞争学习nHeb学习是分布式的,对每个样本模式进行编码,因此学习新模式后,会遗忘每个所学模式的部分。n而竞争学习不是分布式的,如果样本模式 或 坚持足够长的学习,竞争突触就会成为“grandmother”突触,突触值很快等于模式 或 ,其它突触不会编码这种模式。? S xx iSxix2022-6-526二 竞争学习n竞争作为指示器n竞争作为相关检测器n渐进质心估计n竞争协方差估计2022-6-527竞争作为指示器n质心估计需要竞争信号 近似于局部样本模式 的指示函数 (168) 这样如果样本x来自于区域 ,则第j个竞争元获胜,其它神经元失败。 (169) jS

11、jDjDIjjjDSyIxjD jTjjjDSxmfIx2022-6-528竞争作为指示器n上式是 的神经元激励,使用的是随机线性竞争学习和简单的加模型。 与 是随机行矢量, 是 竞争神经元向第 j个神经元发出的阻性反馈。 (170)1pjkjkkkfS SyYFXjmjfYF2022-6-529竞争作为指示器 其中 是阻性反馈值,它等于突触加权信号的和式。式(170)中 为二值阈值化函数,因此该式可简化为:当第j个神经元获胜时 ,如果第k个神经元获胜,则 ? 竞争神经元激励自己(或邻近区域),同时禁止其它(或较远的区域)。jfjSjjjfsjkjfs 2022-6-530竞争作为相关检测器n

12、度量指示函数: (171) 于是竞争学习就简化为信号相关检测。这里要用到等范数的特性。那么如何将度量竞争学习简化为相关检测,设在每个时刻的突触矢量具有相等的正的有限的范数值: 22221min0minjkkjjjkkifx mx mS yifx mx m2022-6-531竞争作为相关检测器 (173) 从(4-171)知:第j个竞争神经元获胜当且仅当: (174177) 22212pmmm22minjkkxmxmminTTjjkkkx mx mx mx m2min2TTTTTTjjjkkkkxxm mxmxxm mxm222min2TTjjkkkmxmmxm2022-6-532竞争作为相关检

13、测器 利用等范数特性并进一步简化可得: (179) 可看出当且仅当输入信号模式 x 与 最大相关时,第j个竞争元才竞争获胜。 余弦定律: 度量竞争学习的几何解释:第j个神经元当且仅当输入模式更平行于突触矢量时才获胜。maxTTjkkxmxmjmcos,TjjjXmXmx m2022-6-533渐进的质心估计n简化的竞争学习定律: (181) 突触矢量 倾向于等于区域 的质心,至少也是平均意义上的质心。具体的细节将在第六章讨论。结论是平均突触矢量以指数规律迅速收敛到质心。应用此特性可以把训练样本只通过一次或少数的几次即可。 jijDjjmIxx mnjmjD2022-6-534竞争协方差估计n质

14、心估计提供概率密度函数的一阶估计,而局部的协方差估计提供二阶描述。先将竞争学习规律扩展到渐进估计条件协方差矩阵 。 (189) 这里 表示 的质心。每个确定类 都有一个质心。jK TjjjjKExxxxDjxjDjD2022-6-535竞争协方差估计 Borel测度随机矢量y的均方误差优化估计是误差估计理论的一个重要定理: (190) 其中 为Borel测度随机矢量函数。 TTEyEy xyEy xEyfxyfx f x2022-6-536竞争协方差估计 每一步迭代中估计未知的质心 作为当前突触矢量 。这样 就成为一个误差条件协方差矩阵。对于获胜突触矢量有下列随机微分方程算法(191-192)

15、jxjmjK 1jjkkjmkmkcxmk 1TjjkkjkjjKkKkdxmkxmkKk2022-6-537竞争协方差估计 如果第i个 神经元在 度量竞争中失败,则 (193) (194) 1iim km k 1iiKkKkYF2022-6-538三 微分Heb学习n确定的微分Heb学习定律: (204) 及其简化形式 (205) 从样本数据的模糊认知映射的动态估计中提出。直觉上讲,Heb相关促进同时激励单元中伪因果联想。而微分相关则可以估计激励单元中同时的,假定为因果的变化。ijijijijmmS SS S ijijijmmS S 2022-6-539三 微分Heb学习n模糊认知映射n自适

16、应因果推理nKlopf的驱动增强模型n伴随变化作为统计协方差n脉冲编码微分Heb学习2022-6-540模糊认知映射n模糊认知映射(FCMS)是带有反馈的模糊正负号的有向图。有向边 从因果概念 到概念 表示 对 因果程度的测度。边 取值于模糊因果空间 , 表示没有因果关系。 表示因果增加, 随 的增加而增加,随其减小而减小。 表示因果减小,即 随 的增加而减小。 ijeiCjCiCjCije1,10ije 0ije jCiC0ije jCiC2022-6-541模糊认知映射 图4.2外国投资矿业雇用黑人白人种族激进主义工作保留法律黑人种族联合种族隔离政府管理力度民族政党支持者1c2C3C4C5

17、C6C7C8C9C2022-6-542模糊认知映射nFCM的因果连接矩阵:E 123456789CCCCCCCCC01100001100100001000010101100000110101100110000010011 00000100100000001000000100102022-6-543模糊认知映射n上图的TAM记忆过程: 从外国投资政策开始,即 这样: 箭头后为阈值化操作,1/2作为门限值。1100000000C 101 100001 1C E 1 1 100001 12C2022-6-544模糊认知映射n零因果输入产生零因果输出。由于此处测试外国投资,因此 保持为1。下一步 下一

18、步 因此 是FCM动态系统的固定点。1C2012111141C E 1111000113C3012110041C E 3111100011C3C2022-6-545自适应因果推理n当我们观察两个变量之间的伴随变化或滞后变化,要推出其间的因果关系,若A改变时B也改变,则猜想它们之间有因果关系,相关改变越大,因果关系越准确。n时间导数测值变化,导数的乘积将这些变化关联起来。这就导出了简单的微分Heb学习规则 ijijijeeC C 2022-6-546自适应因果推理n其中 为被动衰减项,它强制不改变的概念为零因果。n伴随变化项 表明因果性随邻接概念的变化增加或减少,导数可正可负,若 , 都增加或都

19、减少,导数乘积为正,否则为负,该项提供了一个简单的因果时间方向。 ijeijCC iCjC2022-6-547Klopf的驱动增强模型nHarry Klopf单独提出如下微分Heb学习的离散变量: 增强驱动模型中,强行加入几个限制。神经元膜电势 和 必须遵循加性激励规则: 1TijjjjijiikmtSytc mtkSx tk 1ijijijm tm tm tiyix 1niijiijiytmt SxtT2022-6-548Klopf的驱动增强模型n微分形式的驱动增强模型为: 突触幅度 增强突触的可塑性,假定第ij个突触被激励时 ,则上式可改写为: 。一般 项很小,用以阻止快速遗忘,因此上式就

20、变为:ijijijijmmmS S ijm0ijm 1ijijijmmS S ijmijijijmm S S 2022-6-549伴随变化作为统计协方差n伴随变化类似于协方差。微分Heb学习中将变化解释为时间的改变,伴随的是耦合或乘积。另外还可以从空间的角度将变化解释为统计方差或协方差。n协方差学习规则的形式如下: 加入遗忘项一方面保持突触有限,另一方面建立遗忘的模型。 ,ijijiijjmmCov SxSy 2022-6-550伴随变化作为统计协方差n上式描述突触随机过程的时间进化。进一步将上式写为: 可以用实际观察值来代替未知平均值。如何在每个时刻估计未知的均值?可以用稍微滞后的随机近似估

21、计,martingale假设用现在估计将来,或者用过去估计现在。 ijijxyijxiyjmmESSE S ES2022-6-551伴随变化作为统计协方差 上述分形接线假设的精度随着s靠近t而提高。该式表示了一种合理的期望,前提是信号过程具有良好的行为。该假设的离散形式如下: 0 xixiiES tES t Ssst对 iSs 1xiiES tS t0ts2022-6-552伴随变化作为统计协方差 这样方差项就可以简化为时间上的伴随变化项。学习规则也就成了典型的Heb差分学习: 从 开始递归上式可得到: 1ijijixijyjm tm tS tE S tS tE S t 00ijm 1111t

22、ijixiikjyjjm tS kES k S kSkESk Sk2022-6-553脉冲编码的微分Heb学习n脉冲编码信号函数: (239) (240) 其中 和 都是脉冲函数,在t时刻 为1,其余地方为0。 速度微分特性(脉冲编码信号): ts tiiStxs eds ts tjjS tys e ds ix t jyt iiiS tx tS t jjjStytSt2022-6-554脉冲编码的微分Heb学习n利用速度微分特性,可得到脉冲编码微分Heb学习规则: 当没有脉冲出现,即 时,简化为随机信号学习规则。ijijijijmmS Sn ijiijjijmxSySn ijijiiijjii

23、jmS Sx yx Sy Sn 0ijxy2022-6-555脉冲编码的微分Heb学习n用双极信号代替二值信号,接着假定脉冲及其期望频率分别相互独立,将上式的平均行为简化为: 即随机信号Heb学习规则的总体平均等价于典型的确知信号Heb学习规则。 ijijijE mE mE S E S2022-6-556四 微分竞争学习n微分竞争学习规则为: 用速度微分特性代替上式中的 ,那么 当第j个 的神经元初次竞争获胜时,上式就退化为随机竞争学习: ijjjiiijijmSySxmnjSijjiijjiijijmySmSSmnYF jjjjjmSyS xmn2022-6-557四 微分竞争学习 此时 。

24、如果第j个神经元连续获胜, 很快接近于1,学习就会停止。这样就阻止了第j个神经元获胜太频繁,否则会过早编码一个新的 。编码不稳定,可用自组织共振模型来解决这一问题。在非微分竞争学习中,获胜的神经元趋向于一直获胜,给第j个神经元的激励超过其他竞争对手。?1,0jjySjSjm2022-6-558四 微分竞争学习 微分竞争学习中。一旦第j个神经元保证竞争获胜,获胜的信号 会迅速停止改变。 竞争信号变化率 近似于监督增强函数 ,他们都是奖励正信号惩罚负信号,都迅速估计出未知模式类中心。但是增强函数 需要实时神经元“知道”并使用模式样本的转换类隶属度。 jSjSjrjr2022-6-559四 微分竞争

25、学习n非监督信号变化 不依赖于未知隶属度关系。实际上它同时估计这些信息与获胜率信息。而增强函数忽略获胜信息。所以尽管微分竞争学习用很少的信息,但它与监督竞争学习具有相比拟的作用。2022-6-560微分竞争学习作为 调制n离散(脉冲编码)差分竞争学习规则: (261) 表示了神经元的自适应 调制。通信理论中, 调制系统传输的是相邻采样的幅度差分而不是采样幅度本身。一个 调制系统可以传输 信号,表明基本采样波形局部增加或减少。 1jjjjkjm km kS y kxm k12022-6-561微分竞争学习作为 调制n可以将信号差分近似为激励的差分: 这里的 定义如下: sgn1jjjjjSytytytyt sgn 10sgn0010ifxxifxifx2022-6-562微分竞争学习作为 调制 符号算子固定了 调制的步长。像(261)所示的变量步长就导致了自适应 调制。信号饱和长时间后,激励差分仍保持对激励变量的敏感。2022-6-563 今天就到这里谢谢大家

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 办公、行业 > 各类PPT课件(模板)
版权提示 | 免责声明

1,本文(突触动力学非监督学习课件.ppt)为本站会员(三亚风情)主动上传,163文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。
2,用户下载本文档,所消耗的文币(积分)将全额增加到上传者的账号。
3, 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(发送邮件至3464097650@qq.com或直接QQ联系客服),我们立即给予删除!


侵权处理QQ:3464097650--上传资料QQ:3464097650

【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。


163文库-Www.163Wenku.Com |网站地图|