ImageVerifierCode 换一换
格式:PPTX , 页数:41 ,大小:3.37MB ,
文档编号:3346956      下载积分:25 文币
快捷下载
登录下载
邮箱/手机:
温馨提示:
系统将以此处填写的邮箱或者手机号生成账号和密码,方便再次下载。 如填写123,账号和密码都是123。
支付方式: 支付宝    微信支付   
验证码:   换一换

优惠套餐
 

温馨提示:若手机下载失败,请复制以下地址【https://www.163wenku.com/d-3346956.html】到电脑浏览器->登陆(账号密码均为手机号或邮箱;不要扫码登陆)->重新下载(不再收费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录  
下载须知

1: 试题类文档的标题没说有答案,则无答案;主观题也可能无答案。PPT的音视频可能无法播放。 请谨慎下单,一旦售出,概不退换。
2: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
3: 本文为用户(三亚风情)主动上传,所有收益归该用户。163文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

1,本文(卷积神经网络CNN课件.pptx)为本站会员(三亚风情)主动上传,163文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。
2,用户下载本文档,所消耗的文币(积分)将全额增加到上传者的账号。
3, 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(发送邮件至3464097650@qq.com或直接QQ联系客服),我们立即给予删除!

卷积神经网络CNN课件.pptx

1、CNN的早期历史的早期历史n卷积神经网络CNNK.Fukushima,“Neocognitron:A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position,”Biological Cybernetics,vol.36,pp.193202,1980Y.LeCun,B.Boser,J.S.Denker,D.Henderson,R.E.Howard,W.Hubbard,and L.D.Jackel,“Backpropagation appl

2、ied to handwritten zip code recognition,”Neural Computation,vol.1,no.4,pp.541551,1989Y.Le Cun,L.Bottou,Y.Bengio,and P.Haffner,“Gradient-based learning applied to document recognition,”Proceedings of the IEEE,vol.86,no.11,pp.22782324,19981DL时代的时代的CNN扩展扩展nA Krizhevsky,I Sutskever,GE Hinton.ImageNet cl

3、assification with deep convolutional neural networks.NIPS2012nY.Jia et al.Caffe:Convolutional Architecture for Fast Feature Embedding.ACM MM2014nK.Simonyan,A.Zisserman.Very deep convolutional networks for large-scale image recognition.arXiv preprint arXiv:1409.1556,2014nC.Szegedy,W.Liu,Y.Jia,P.Serma

4、net,S.Reed,D.Anguelov,D.Erhan,V.Vanhoucke,A.Rabinovich.Going deeper with convolutions.CVPR2015(&arXiv:1409.4842,2014)2卷积卷积示例示例3卷积卷积形式化形式化4卷积卷积why?n1.sparse interactions有限连接,Kernel比输入小连接数少很多,学习难度小,计算复杂度低nm个节点与n个节点相连O(mn)n限定k(m)个节点与n个节点相连,则为O(kn)5卷积卷积why?n1.sparse interactions有限连接,Kernel比输入小连接数少很多,学习难

5、度小,计算复杂度低nm个节点与n个节点相连O(mn)n限定k(m)个节点与n个节点相连,则为O(kn)6卷积卷积why?n1.sparse interactions有限(稀疏)连接nKernel比输入小n局部连接局部连接连接数少很多n学习难度小n计算复杂度低层级感受野(生物启发)n越高层的神经元,感受野越大7卷积卷积why?n2.Parameter Sharing(参数共享)Tied weights进一步极大的缩减参数数量n3.Equivariant representations等变性配合Pooling可以获得平移不变性n对scale和rotation不具有此属性8CNN的基本结构的基本结构

6、n三个步骤卷积n突触前激活,net非线性激活nDetectorPoolingnLayer的两种定义复杂定义简单定义n有些层没有参数9Pooling10n定义(没有需要学习的参数)replaces the output of the net at a certain location with a summary statistic of the nearby outputsn种类max pooling(weighted)average poolingWhy Pooling?11n获取不变性小的平移不变性:有即可,不管在哪里n很强的先验假设The function the layer learn

7、s must be invariant to small translationsWhy Pooling?12n获取不变性小的平移不变性:有即可,不管在哪里旋转不变性?n9个不同朝向的kernels(模板)0.20.610.10.50.30.020.050.1Why Pooling?13n获取不变性小的平移不变性:有即可,不管在哪里旋转不变性?n9个不同朝向的kernels(模板)0.50.30.0210.40.30.60.30.1Pooling与下采样结合与下采样结合n更好的获取平移不变性n更高的计算效率(减少了神经元数)14从全连接到有限连接从全连接到有限连接n部分链接权重被强制设置为0通

8、常:非邻接神经元,仅保留相邻的神经元全连接网络的特例,大量连接权重为015Why Convolution&Pooling?na prior probability distribution over the parameters of a model that encodes our beliefs about what models are reasonable,before we have seen any data.n模型参数的先验概率分布(No free lunch)在见到任何数据之前,我们的信念(经验)告诉我们,什么样的模型参数是合理的nLocal connections;对平移的不

9、变性;tied weigts来自生物神经系统的启发16源源起:起:Neocognitron(1980)nSimplecomplexLower orderhigh order17K.Fukushima,“Neocognitron:A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position,”Biological Cybernetics,vol.36,pp.193202,1980Local Connection源起:源起:Neocognit

10、ron(1980)18源起:源起:Neocognitron(1980)n训练方法分层自组织ncompetitive learning 无监督n输出层独立训练有监督19LeCun-CNN1989用于字符识别用于字符识别n简化了Neocognitron的结构n训练方法监督训练BP算法n正切函数收敛更快,Sigmoid Loss,SGDn用于邮编识别大量应用20LeCun-CNN1989用于字符识别用于字符识别n输入16x16图像nL1H112个5x5 kernel8x8个神经元nL2-H212个5x5x8 kernel4x4个神经元nL3H330个神经元nL4输出层10个神经元n总连接数5*5*1

11、2*64+5*5*8*12*16+192*30,约66,000个21LeCun-CNN1989用于字符识别用于字符识别nTied weights对同一个feature map,kernel对不同位置是相同的!22LeCun-CNN1989用于字符识别用于字符识别231998年年LeNet数字数字/字符识别字符识别nLeNet-5Feature mapna set of units whose weighs are constrained to be identical.241998年年LeNet数字数字/字符识别字符识别n 例如:C3层参数个数(3*6+4*9+6*1)*25+16=1516

12、25后续:后续:CNN用于目标检测与识别用于目标检测与识别26AlexNet for ImageNet(2012)n大规模CNN网络650K神经元60M参数使用了各种技巧nDropoutnData augmentnReLUnLocal Response NormalizationnContrast normalizationn.27Krizhevsky,Alex,Ilya Sutskever,and Geoffrey E.Hinton.Imagenet classification with deep convolutional neural networks.Advances in neur

13、al information processing systems.2012.AlexNet for ImageNet(2012)nReLU激活函数28AlexNet for ImageNet(2012)n实现2块GPU卡输入层150,528其它层253,440186,624 64,896 64,896 43,264 4096 4096 1000.29Krizhevsky,Alex,Ilya Sutskever,and Geoffrey E.Hinton.Imagenet classification with deep convolutional neural networks.Advanc

14、es in neural information processing systems.2012.AlexNet for ImageNet(2012)nImageNet物体分类任务上1000类,1,431,167幅图像30RankNameError rates(TOP5)Description1U.Toronto0.153Deep learning2U.Tokyo0.261Hand-crafted features and learning models.Bottleneck.3U.Oxford0.2704Xerox/INRIA0.271Krizhevsky,Alex,Ilya Sutskev

15、er,and Geoffrey E.Hinton.Imagenet classification with deep convolutional neural networks.Advances in neural information processing systems.2012.AlexNet for ImageNetn深度的重要性31网络深度87664参数数量60M44M10M59M10M性能损失0%1.1%5.7%3.0%33.5%Krizhevsky,Alex,Ilya Sutskever,and Geoffrey E.Hinton.Imagenet classification

16、 with deep convolutional neural networks.Advances in neural information processing systems.2012.VGG Net(2014)n多个stage每个stage多个卷积层n卷积采样间隔1x1n卷积核大小3x31个Pooling层(2x2)n16-19层n多尺度融合K.Simonyan,A.Zisserman.Very deep convolutional networks for large-scale image recognition.arXiv preprint arXiv:1409.1556,201

17、4VGG Net(2014)n几种配置Cov3-64:n3x3感受野n64个channel33K.Simonyan,A.Zisserman.Very deep convolutional networks for large-scale image recognition.arXiv preprint arXiv:1409.1556,2014VGG Net(2014)34K.Simonyan,A.Zisserman.Very deep convolutional networks for large-scale image recognition.arXiv preprint arXiv:14

18、09.1556,2014GoogLeNet(2014)n超大规模22个卷积层的网络计算复杂度是AlexNet的4倍左右C.Szegedy,W.Liu,Y.Jia,P.Sermanet,S.Reed,D.Anguelov,D.Erhan,V.Vanhoucke,A.Rabinovich.Going deeper with convolutions.CVPR2015(&arXiv:1409.4842,2014)GoogLeNet(2014)n超大规模24层网络nInception结构提取不同scale的特征然后串接起来1x1 convolutions3x3 convolutions5x5 conv

19、olutionsFilter concatenationPrevious layerC.Szegedy,W.Liu,Y.Jia,P.Sermanet,S.Reed,D.Anguelov,D.Erhan,V.Vanhoucke,A.Rabinovich.Going deeper with convolutions.CVPR2015(&arXiv:1409.4842,2014)GoogLeNet(2014)n超大规模24层网络nInception结构提取不同scale的特征,然后串接起来增加1x1的卷积:把响应图的数量缩小了1x1 convolutions3x3 convolutions5x5 c

20、onvolutionsFilter concatenationPrevious layer3x3 max pooling1x1 convolutions1x1 convolutions1x1 convolutionsC.Szegedy,W.Liu,Y.Jia,P.Sermanet,S.Reed,D.Anguelov,D.Erhan,V.Vanhoucke,A.Rabinovich.Going deeper with convolutions.CVPR2015(&arXiv:1409.4842,2014)GoogLeNet(2014)38C.Szegedy,W.Liu,Y.Jia,P.Serma

21、net,S.Reed,D.Anguelov,D.Erhan,V.Vanhoucke,A.Rabinovich.Going deeper with convolutions.CVPR2015(&arXiv:1409.4842,2014)GoogLeNet(2014)n在ImageNet上1000类物体分类上的性能39C.Szegedy,W.Liu,Y.Jia,P.Sermanet,S.Reed,D.Anguelov,D.Erhan,V.Vanhoucke,A.Rabinovich.Going deeper with convolutions.CVPR2015(&arXiv:1409.4842,2014)40谢谢!谢谢!41

侵权处理QQ:3464097650--上传资料QQ:3464097650

【声明】本站为“文档C2C交易模式”,即用户上传的文档直接卖给(下载)用户,本站只是网络空间服务平台,本站所有原创文档下载所得归上传人所有,如您发现上传作品侵犯了您的版权,请立刻联系我们并提供证据,我们将在3个工作日内予以改正。


163文库-Www.163Wenku.Com |网站地图|