CNN(卷积神经网络).ppt

上传人:xt****7 文档编号:1835330 上传时间:2019-11-08 格式:PPT 页数:34 大小:3.29MB
返回 下载 相关 举报
CNN(卷积神经网络).ppt_第1页
第1页 / 共34页
CNN(卷积神经网络).ppt_第2页
第2页 / 共34页
CNN(卷积神经网络).ppt_第3页
第3页 / 共34页
点击查看更多>>
资源描述
,卷积神经网络(CNN),汇报人:吴建宝 2017.06.12,目录 Contents,1. 神经网络计算 2. 卷积神经网络 3. CNN实现(tensorflow),目录 Contents,1. 神经网络计算 1.1.神经网络信息流动 1.2.神经网络结点计算 1.3.神经网络梯度传播(链式法则),神经网络信息流动,解析:(x,y)是给定的带标签数据,通常,x为特征,y为标签,固定不变为权重(网络参数),随机初始化(正态分布),且随时变化一次前向计算过程,通过score function,得到预测结果,与标签数据对比,计算loss值,通常,loss是规则化项(redularization loss)和均方差项(data loss)的加权和(见式),其目的是减小权重的幅度,防止过度拟合在反向计算时,使用均方差项更新权重. Notes: 式1:,神经网络的结点计算,前向计算:,反向传播:,神经网络梯度传播(链式法则),Notes:,目录 Contents,2. 卷积神经网络 2.1. 卷积神经网络和深度学习的历史 2.2. 卷积神经网络的设计和原理 2.3. 卷积神经网络的神经科学基础,卷积神经网络和深度学习的历史,卷积神经网络在深度学习的历史中发挥了重要作用它们是将研究大脑获得的深刻理解成功应用于机器学习应用的关键例子,也是第一个表现良好的深度模型之一是第一个解决重要商业应用的神经网络,并且仍然是当今深度学习应用的前沿 在20世纪90年代,的神经网络研究小组开发了一个用于读取支票的卷积神经网络,到90年代末,NEC部署的这个系统用于读取美国所有支票的10%后来,微软部署了若干个基于卷积神经网络的OCR和手写识别系统(MNIST) 卷积神经网络也被用来赢得许多比赛当前对深度学习的商业热潮始于2012年,当时Alex Krizhevsky使用新型卷积神经网络(AlexNet)赢得了当年的ImageNet大赛第一名,TOP-5分类错误率比第二名小约10%,引起轰动 深度学习以及卷积神经网络的适用需要大量的有效训练数据,过去的互联网时代为深度学习提供了大量的训练数据,同时随着几十年来硬件技术的发展,为利用和计算大量数据提供了条件所以,近年来,每一次模型算法的更新,都取得了良好的效果,为深度学习这把火炬增添了燃料,卷积神经网络和深度学习的历史,卷积神经网络提供了一种方法来专业化神经网络,以处理具有清楚的网络结构的数据,以及将这样的模型放大到非常大的尺寸(加深层数).这种方法在二维图像拓扑上的应用是最成功的同时,卷积神经网络比全连接网络计算效率更高,使用他们运行多个实验并调整它们的实现和超参数更容易,更大的网络也更容易训练 为了处理一维序列数据,便有了循环神经网络,以及基于循环神经网络优化而来的lstm,attention机制等,目录 Contents,2. 卷积神经网络 2.1. 卷积神经网络和深度学习的历史 2.2. 卷积神经网络的设计和原理 2.3. 卷积神经网络的神经科学基础,CNN处理图像,卷积神经网络的计算效率提升,参数量:1012 106,CNN处理图像,边缘检测的效率。右边的图像是通过获得原始图像中的每个像素并减去左边相邻像素的值而形成的。这对目标检测是有用的操作。两个图像都是 280 像素的高度。输入图像宽 320 像素,而输出图像宽 319 像素。这个变换可以通过包含两个元素的卷积核来描述,并且需要 319 280 3 = 267, 960 个浮点运算(每个输出像素需要两次乘法和一次加法)。不使用卷积,需要 320 280 319 280 个或者说超过 80 亿个元素的矩阵,这使得卷积对于表示这种变换更有效 40 亿倍。直接运行矩阵乘法的算法将执行超过 160 亿个浮点运算,这使得卷积在计算上大约有 60,000 倍的效率。将小的局部区域上的相同线性变换应用到整个输入上,卷积是描述这种变换的极其有效的方法。照片来源:Paula Goodfellow。,CNN特性权值共享和多卷积核,请在这里输入论文答辩的标题,2016-08-03,权值共享,多通道多卷积核,卷积神经网络之所以计算效率高,对特征提取的效果好,主要是由于卷积神经网络具有以下三个特性:权值共享,多卷积核,池化,CNN多通道和多卷积核,请在这里输入论文答辩的标题,2016-08-03,CS231N http:/cs231n.github.io/convolutional-networks/,CNN中基于权值共享的多卷积核算法,卷积的矩阵转换,请在这里输入论文答辩的标题,2016-08-03,感受野和卷积核是卷积运算的一种特殊设定和直观表示,卷积核和感受野之间的卷积运算使用向量矩阵的形式实现,提高了计算效率,卷积的矩阵运算形式(im2txt),CNN 特性池化,池化过程,卷积神经网络池化有最大池化(max_pool)和平均池化(avg_pool),顾名思义,最大池化取区域内最大值,平均池化取区域内平均值其它池化包括L 2 范数以及依靠据中心像素距离的加权平均池化,CNN 特性池化,为什么要池化? 减少参数的量,提高计算效率 最大池化能显著增强局部特征,平均池化可减少噪声 (最大池化提取轮廓特征,平均池化可模糊图像) 提高局部平移不变性(不考虑空间,时间位置张民) 局部平移不变性是一个很重要的性质,尤其是当我们关心某个特征是否出现而不关心它出现的具体位置时,这对于图像中的目标检测至关重要,同时,在图像识别中,同一类别的图像往往会有细微的差别,局部平移不变性大大提高了图像分类的准确度,CNN 特性局部平移不变性,为什么最大池化能做到? 上图下半部分的输入像素向右平移一个单位,下图对应位置像素值全部改变,若对输入像素做池化处理,当原始像素平移一个单位后,只有一半的像素值改变,CNN 特性局部平移不变性,学习不变性的示例。使用分离的参数学得多个特征,再使用池化单元进行池化,可以学得对输入的某些变换的不变性。这里我们展示了用三个学得的过滤器(卷积核)和一个最大池化单元可以学得对旋转变换的不变性。这三个过滤器都旨在检测手写的数字 5。每个卷积核尝试匹配稍微不同方向的 5。当输入中出现 5 时,相应的卷积核会匹配它并且在探测单元(激活函数)中引起大的激活。然后,无论哪个探测单元被激活,最大池化单元都具有大的激活。我们在这里展示网络如何处理两个不同的输入,导致两个不同的探测单元被激活。然而对池化单元的影响大致相同。空间位置上的最大池化对于平移是天然不变的;这种多通道方法在学习其他变换时是必要的。,目录 Contents,2. 卷积神经网络 2.1.卷积神经网络和深度学习的历史 2.2. 卷积神经网络的设计和原理 2.3. 卷积神经网络的神经科学基础,卷积神经网络的神经科学基础,卷积网络也许是生物学启发人工只能的最为成功的故事虽然卷积网络已经被其它领域指导,但是神经网络的一些关键设计原则来自于神经科学 卷积网络的历史始于David Hubel 和Torsten Wiesel的神经科学实验,为了确定哺乳动物视觉系统如何工作的基本事实,他们观察了猫的脑内神经元如何响应投影在猫前面屏幕上精确位置的图像 他们发现:处于视觉系统较为前面的神经元对非常特定的光模式(例如精确定向的条纹)反应最强烈,但对其他模式几乎完全没有反应,卷积神经网络的神经科学基础,图像是由光到达眼睛并刺激视网膜形成的,视网膜的神经元对图像执行一些简单的预处理,但是基本改变它被表示的方式,然后图像通过视神经和脑部区域,这些区域负责将信号从眼睛传递到位于脑后部的主要视觉皮层,它是大脑对视觉输入开始执行显著高级处理的第一个区域(以下简称V1),卷积网络的设计参考了其对视觉信号处理的三个主要性质: V1具有二维结构来反映视网膜中的图像结构,例如,到达视网膜下半部的光仅影响V1相应的一半卷积网络通过用二维映射定义特征的方式来实现该特性(CNN特性:权值共享和局部池化操作) .V1包含许多简单细胞,简单细胞的活动在某种程度上可以概括为在一个小的空间位置接受域内的图像的线性函数,卷积神经网络不同卷积核的权重与输入的线性求和,模拟了简单细胞对输入信号的处理 V1还包括许多的复杂细胞,这些细胞响应由简单细胞检测的那些特征,但是复杂细胞对于特征位置的微小偏移具有不变性,这启发了网络的池化单元和激活函数,目录 Contents,3. CNN实现(tensorflow) 3.1. 主流CNN模型介绍 3.2.使用tensorflow搭建CNN 3.3.使用tensorflow实现其它模型,ImageNet Classification with Deep Convolutional Neural Networks,ImageNet LSVRC-2012冠军,1000类,120万高清图像,Top5Error:26.2% 15.3% 结构: 由6000万个参数和650,000个神经元,由五个卷积层和其后的max-pooling层以及三个全连接层,1000-way的softmax层组成.以及开创性的使用“dropout”技术,避免了过拟合 计算开销问题: 采取将网络分布在两个GPU上,在每个GPU中放置一半核(或神经元),还有一个额外的技巧:GPU间的通讯只在某些层进行。,Rethinking the Inception Architecture for Computer Vision,这也是获得ImageNet LSVRC-2014冠军的模型,共22层的网络 文章提出获得高质量模型最保险的做法就是增加模型的深度(层数)或者是其宽度(层核或者神经元数),但是这里一般设计思路的情况下会出现两个缺陷(1.若训练数据集有限,参数太多,容易过拟合;2.网络越大计算复杂度越大,难以应用;3.网络越深,梯度越往后穿越容易消失,难以优化模型)。,Rethinking the Inception Architecture for Computer Vision,googlenet的主要思想就是围绕这两个思路去做的: 1.深度,层数更深,文章采用了22层,googlenet巧妙的在不同深度处增加了两个loss来避免上述提到的梯度消失问题,。 2.宽度,增加了多种核1x1,3x3,5x5,在3x3前,5x5前,max pooling后分别加上了1x1的卷积核起到了降低feature map厚度的作用。以下是googlenet用的inception可以称之为inception v1,如下图所示:,目录 Contents,3. CNN实现(tensorflow) 3.1.主流CNN模型介绍 3.2.使用tensorflow实现CNN 3.3.使用tensorflow实现其它模型,使用tensorflow搭建CNN,TensorFlow 是一个采用数据流图,用于数值计算的开源软件库。节点在图中表示数学操作,图中的线则表示在节点间相互联系的多维数据数组,即张量(tensor)。 什么是数据流图(Data Flow Graph)? 数据流图是一种特定的数据结构的表现方式, 它以数据为中心,由线传输数据,由节点对数 据进行操作,很好的对应了神经网络中的权值 参数和神经元结点,是目前各种神经网络框架 采用的计算方式,tensorflow计算示例,tensorflow数据流图的核心在于数据流图的搭建数据流图搭建完成以后,启动会话(Session),进行计算和训练,目录 Contents,3. CNN实现(tensorflow) 3.1. 主流CNN模型介绍 3.2.使用tensorflow实现CNN 3.3.使用tensorflow实现其它模型,机器写诗,Poetry: 1.赋诗何所问,我心亦不知不知一片月,不是一枝花 2.香径无人处,春风似水流不知何处去,不见古人归 3.清风吹雨夜,一曲一声中一片寒光动,无人夜夜吟,参考资料,1.http:/ufldl.stanford.edu/wiki/index.php/UFLDL教程 stanford,Andrew Ng 2.http:/cs231n.stanford.edu/reports.html 李飞飞 3.http:/www.deeplearningbook.org/ Ian Goodfellow and Yoshua Bengio 4.https:/www.tensorflow.org/ tensorflow官网 5. tensorflow练习,
展开阅读全文
相关资源
相关搜索

当前位置:首页 > 图纸专区 > 课件教案


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!