深度神经网络

上传人:xia****ai 文档编号:243113771 上传时间:2024-09-16 格式:PPT 页数:82 大小:9.70MB
返回 下载 相关 举报
深度神经网络_第1页
第1页 / 共82页
深度神经网络_第2页
第2页 / 共82页
深度神经网络_第3页
第3页 / 共82页
点击查看更多>>
资源描述
Click to edit Master title style,Click to edit Master text styles,Second level,Third level,Fourth level,Fifth level,*,深度神经网络,I,Deep Neural Networks,中国科学院自动化研究所,吴高巍,gaowei.wu,201,6,-1,2,-,6,内容,深度神经网络发展历史、背景,动机Why Deep Learning?,深度学习常用模型,Neural network,Back propagation,1986,解决了一般性学习问题,与生物系统相联系,Nature,历史,Neural network,Back propagation,1986,Nature,历史,x,1,x,2,x,3,w,1,w,2,w,3,Neural network,Back propagation,1986,解决了一般性学习问题,与生物系统相联系,Nature,历史,But it is given up,SVM,Boosting,Decision tree,2006,Neural network,Back propagation,1986,Nature,历史,2006,Deep belief net,Science,Unsupervised & Layer-wised pre-training,Better designs for modeling and training (normalization, nonlinearity, dropout),New development of computer architectures,GPU,Multi-core computer systems,Large scale databases,Big Data !,Neural networks is coming back!,深度学习浪潮,IT Companies are Racing into,Deep Learning,Neural network,Back propagation,1986,Solve general learning problems,Tied with biological system,But it is given up,2006,Deep belief net,Science,deep learning results,Speech,2011,Nature,Object recognition over 1,000,000 images and 1,000 categories (2 GPU),Neural network,Back propagation,1986,2006,Deep belief net,Science,Speech,2011,2012,Nature,A. Krizhevsky, L. Sutskever, and G. E. Hinton, “ImageNet Classification with Deep Convolutional Neural Networks,” NIPS, 2012.,Rank,Name,Error rate,Description,1,U. Toronto,0.15315,Deep learning,2,U. Tokyo,0.26172,Hand-crafted features and learning models.,Bottleneck.,3,U. Oxford,0.26979,4,Xerox/INRIA,0.27058,Neural network,Back propagation,1986,2006,Deep belief net,Science,Speech,2011,2012,ImageNet 2013 image classification challenge,Rank,Name,Error rate,Description,1,NYU,0.11197,Deep learning,2,NUS,0.12535,Deep learning,3,Oxford,0.13555,Deep learning,MSRA, IBM, Adobe, NEC, Clarifai, Berkley, U. Tokyo, UCLA, UIUC, Toronto . Top 20 groups all used deep learning,ImageNet 2013 object detection challenge,Rank,Name,Mean Average Precision,Description,1,UvA-Euvision,0.22581,Hand-crafted features,2,NEC-MU,0.20895,Hand-crafted features,3,NYU,0.19400,Deep learning,Neural network,Back propagation,1986,2006,Deep belief net,Science,Speech,2011,2012,ImageNet 2014 Image classification challenge,Rank,Name,Error rate,Description,1,Google,0.06656,Deep learning,2,Oxford,0.07325,Deep learning,3,MSRA,0.08062,Deep learning,ImageNet 2014,object detection challenge,Rank,Name,Mean Average Precision,Description,1,Google,0.43933,Deep learning,2,CUHK,0.40656,Deep learning,3,DeepInsight,0.40452,Deep learning,4,UvA-Euvision,0.35421,Deep learning,5,Berkley Vision,0.34521,Deep learning,Neural network,Back propagation,1986,2006,Deep belief net,Science,Speech,2011,2012,Google and Baidu announced their deep learning based visual search engines (2013),Google,“on our test set we saw,double the average precision,when compared to other approaches we had tried. We acquired the rights to the technology and went full speed ahead adapting it to run at large scale on Googles computers. We took cutting edge research straight out of an academic research lab and launched it, in just a little over six months.”,Baidu,Neural network,Back propagation,1986,2006,Deep belief net,Science,Speech,2011,2012,Face recognition,2014,Deep learning achieves 99.53% face verification accuracy on Labeled Faces in the Wild (LFW), higher than human performance,Y. Sun, X. Wang, and X. Tang. Deep Learning Face Representation by Joint Identification-Verification. NIPS, 2014.,Y. Sun, X. Wang, and X. Tang. Deeply learned face representations are sparse, selective, and robust. CVPR, 2015.,深度学习浪潮,Deep Learning,深度学习浪潮,时代背景,-,数据爆炸,还存在很多没有良好解决的问题,例如图像识别、语音识别、自然语言理解、天气预测、基因表达、内容推荐等。,深度学习浪潮,时代背景,-,计算性能提升,动机Why Deep Learning?,深度学习,What is Deep Learning?,“Deep learning is a set of algorithms in machine learning that attempt to learn in multiple levels, corresponding to different levels of abstraction. It typically uses artificial neural networks. The levels in these learned statistical models correspond to distinct levels of concepts, where higher-level concepts are defined from lower-level ones, and the same lower-level concepts can help to define many higher-level concepts.” (Oct. 2013.),“Deep learning is a set of algorithms in machine learning that attempt to model high-level abstractions in data by using model architectures composed of multiple non-linear transformations.” (Aug. 2014),传统机器学习,解决这些问题的思路,良好的特征表达,对最终算法的准确性起了非常关键的作用,而且系统主要的计算和测试工作都耗在这一大部分。,但实际中一般都是人工完成的。,特征表达,能不能自动地学习一些特征呢?,能!Deep Learning,生物学启示,人脑视觉机理,“视觉系统的信息处理”:可视皮层是分级的,神经-中枢-大脑的工作过程,或许是一个不断迭代、不断抽象的过程。,关键词:一个是抽象,一个是迭代。,从原始信号,做低级抽象,逐渐向高级抽象迭代。人类的逻辑思维,经常使用高度抽象的概念。,不同水平的抽象,层次化表示,脑的深层结构,why go deep?,深层结构能够有效被表达,对相同的函数需要更少的计算单元,深层结构可产生层次化特征表达,允许非局部扩展,可解释性,多层隐变量允许统计上的组合共享,深层结构有效(vision, audio, NLP等)!,Computer Vision Features,Audio Features,Deep Learning,基本思想,自动地学习特征,假设有一堆输入I(如图像或者文本),我们设计了一个系统S(有n层),通过调整系统中参数,使得它的输出仍然是输入I,那么我们就可以自动地获取得到输入I的一系列层次特征,即S1,, Sn。,对于深度学习来说,其思想就是堆叠多个层,也就是说这一层的输出作为下一层的输入。通过这种方式,就可以实现对输入信息进行分级表达了。,可以略微地放松,“,输出等于输入,”的,限制,深层 vs 浅层神经网络,多隐层的人工神经网络具有优异的特征学习能力,学习得到的特征对数据有更本质的刻画,从而有利于可视化或分类,深层网络结构中,高层可以综合应用低层信息,低层关注“局部”,高层关注“全局”、更具有语义化,深度神经网络在训练上的难度,可以通过“逐层初始化”(,layer-wise pre-training,)来有效克服。,为自适应地学习非线性处理过程提供了一种可能的简洁、普适的结构模型,深层,vs,浅层神经网络,“,深度模型”是手段,“特征学习”是目的。,强调了模型结构的深度,通常有,5,层、,6,层,甚至,10,多层的隐层节点;,明确突出了特征学习的重要性,也就是说,通过逐层特征变换,将样本在原空间的特征表示变换到一个新特征空间,从而使分类或预测更加容易。,与人工规则构造特征的方法相比,利用大数据来学习特征,更能够刻画数据的丰富内在信息。,BP算法的问题,需要带标签训练数据,几乎所有的数据是无标签的,人脑可以从无标签数据中学习,局部极小,对深层网络远离了最优解,学习时间不适合大数据,梯度消失,Below top few layers, correction signal is minimal,克服BP的限制,梯度方法对输入的结构建模,建立产生输入的生成式模型,调整参数使得生成式模型的概率最大,Learn p(image) not p(label | image),What kind of generative model should we learn?,Deep learning,训练,自下,向,上,的,非监督学习,(greedy layer-wise training),自顶向下的监督学习,就是通过带标签的数据去训练,误差自顶向下传输,对网络进行微调,微调特征(中间层),使得与问题更相关。,Deep Learning,的常用模型,AutoEncoder,自动编码器,AutoEncoder,自动编码器,Deep Learning,最简单的一种方法,利用人工神经网络本身的层次结构特点,如果给定一个神经网络,,假设其输出与输入是相同的,然后训练调整其参数,得到每一层中的权重,。,自然地,就得到了输入I的几种不同表示(每一层代表一种表示),这些表示就是特征。,自动编码器就是一种,尽可能复现输入信号的神经网络,。,为了实现这种复现,自动编码器就必须捕捉可以代表输入数据的最重要的因素,就像PCA那样,找到可以代表原信息的主要成分,AutoEncoder,自动编码器,学习过程,无标签数据,用非监督学习学习特征,在之前的前向神经网络中,如左图,输入的样本是有标签的,即(,input, target,),这样,根据当前输出和,target,(,label,)之间的差去改变前面各层的参数,直到收敛,。,但现在我们只有无标签数据,也就是右边的图。那么这个误差怎么得到呢?,AutoEncoder,自动编码器,将input输入一个encoder编码器,就会得到一个code,这个code也就是输入的一个表示,那么我们怎么知道这个code表示的就是input呢?,增,加一个decoder解码器,decoder,输出的信息,vs,开始的输入信号input,通过调整encoder和decoder的参数,使得重构误差最小,这,样,就得到输入input信号的一个表示了,也就是编码code。,因为是无标签数据,所以误差的来源就是直接重构后与原输入相比得到。,AutoEncoder,自动编码器,网络结构,三层结构,输入层,,隐藏层,,输出层,神经元模型,限定神经元的数量,输入层神经元数=输出层神经元数,隐层神经元数量输入层神经元数量,意义:迫使隐藏层节点学习得到输入数据的压缩表示方法,AutoEncoder,自动编码器,利用类似神经网络的双隐层的方式,简单粗暴地提取了样本的特征,。,Tied Weights,(Vincent,2010),W,=W,T,只,训练,单组W就可以,若W,-1,=W,T,的话,W就是个正交矩阵了,即W是可以训成近似正交阵的。,AutoEncoder,自动编码器,Deep结构,逐层训练,自编码器“栈化”,通过编码器产生特征,然后训练下一层。,得到第一层的code,重构误差最小让我们相信这个code就是原输入信号的良好表达了,或者牵强点说,它和原信号是一模一样的(表达不一样,反映的是一个东西)。,那第二层和第一层的训练方式就没有差别了,将第一层输出的code当成第二层的输入信号,同样最小化重构误差,就会得到第二层的参数,并且得到第二层输入的code,也就是原输入信息的第二个表达了。,其他层,也以,同样的方法,进,行。,AutoEncoder,自动编码器,监督学习,Deep结构,每一层都会得到原始输入的不同层次的表达。,有监督微调,为了实现分类,可以在AutoEncoder的最顶的编码层添加一个分类器(例如Logistic回归、SVM等),然后通过标准的多层神经网络的监督训练方法(梯度下降法)去训练。,AutoEncoder,自动编码器,监督学习,最后层的特征,code,输入到分类器,中,,,基于,有标签样本,通过监督学习,对网络,进行微调,1、,只调整分类器,2、,通过有标签样本,,微调整个系统,:(如果有足够多的数据,,end-to-end learning,端对端学习),AutoEncoder,扩展,Sparse AutoEncoder,稀疏自动编码器,限制得到的表达code尽量稀疏,Denoising AutoEncoders,降噪自动编码器,数据存在噪声,Sparse AutoEncoder,稀疏自动编码器,限制得到的表达,code,尽量稀疏,在,AutoEncoder,的基础上加上,L1,的,Regularity,限制,人脑好像也是这样的,,某个输入只是刺激某些神经元,其他的大部分的神经元是受到抑制的,Denoising AutoEncoders,降噪自动编码器,若,训练数据,中存在,噪声,自动编码器必须学习去除这种噪声而获得真正的没有被噪声污染过的输入。,迫使编码器去学习输入信号的更加鲁棒的表达。,就是以一定概率分布(通常使用二项分布)去擦除原始input矩阵,即每个值都随机置0, 这样看起来部分数据的部分特征是丢失了。,以这丢失的数据x,去计算y,计算z,并将z与原始x做误差迭代,这样,网络就学习了这个破损(Corruputed)的数据。,Denoising AE,降噪自动编码器,破损数据的,作用,通过与非破损数据训练的对比,破损数据训练出来的Weight噪声比较小。,破损数据一定程度上减轻了训练数据与测试数据的代沟。,这样胡乱擦除原始input真的很科学?真的没问题?,Vincent又从大脑认知角度给了解释:人类具有认知被阻挡的破损图像能力,此源于我们高等的联想记忆感受机能。我们能以多种形式去记忆(比如图像、声音),所以即便是数据破损丢失,我们也能回想起来。,两隐层自编码网络,MNIST,手写数字识别,训练一个包含两个隐含层的栈式自编码网络,用来进行,MNIST,手写数字分类,用原始输入,x(k),训练第一个自编码器,学习得到原始输入的一阶特征表示,h(1)(k),http:/ufldl.stanford.edu/wiki/index.php/,栈式自编码算法,两隐层自编码网络,MNIST,手写数字识别,把上一层的一阶特征作为另一个稀疏自编码器的输入,使用它们来学习二阶特征,h(2)(k),两隐层自编码网络,MNIST,手写数字识别,将二阶特征作为,softmax,分类器的输入,训练得到一个能将二阶特征映射到数字标签的模型,两隐层自编码网络,MNIST,手写数字识别,将这三层结合起来构成一个栈式自编码网络,通过反向传播算法,(BP),同时调整所有层的参数以改善学习结果,(,称为整体细调,fine-tuning),栈式自编码器神经网络,栈式自编码神经网络具有强大的表达能力及深度神经网络的所有优点。,通常能够获取到输入的“层次型分组”或者“部分,-,整体分解”结构。,学习方式:前层的输出作为下一层输入的方式依次训练。,如果网络的输入数据是图像,网络的第一层会学习如何去识别边,第二层一般会学习如何去组合边,从而构成轮廓、角等。更高层会学习如何去组合更形象且有意义的特征。,如果输入数据集包含人脸图像,更高层会学习如何识别或组合眼睛、鼻子、嘴等人脸器官。,Deep Learning,的常用模型,Deep Belief Networks(DBN),发展历程,Hopfield network,Boltzman machine,Restricted Boltzman machine,DBN,Hopfield Network,结构,单层全互连、对称权值的反馈网络,状态:-1(0),+1,网络演化,Hopfield网络按动力学方式运行。,其工作过程为状态的演化过程,即从初始状态按能量减小的方向进行演化,直到达到稳定状态。稳定状态即为网络的输出,52,二值随机神经元 (Bernoulli variables),These have a state of 1 or 0.,The probability of turning on is determined by the weighted input from other units (plus a bias),0,0,1,波尔兹曼机 Boltzmann Machine,结构类似于Hopfield 网络,但它是具有隐单元的反馈互联网络,遵循波尔兹曼分布,学习数据的固有内在表示,BM,基本原理,1.,Hopfield网络的神经元的结构功能及其在网络中的地位是一样的。,但BM中一部分神经元与外部相连,可以起到网络的输入、输出功能,或者严格地说可以受到外部条件的约束。,另一部分神经元则不与外部相连,因而属于隐单元,2.,每个神经元只取,1,或,0,这两种状态:,状态,1,代表该神经元处于接通状态,状态,0,代表该神经元处于断开状态,w,ji,= w,ij, w,ii,=0,网络结构复杂、训练代价大、局部极小,受限波尔兹曼机,Restricted Boltzmann Machines,Restricted Boltzmann Machine(RBM),通过输入数据集学习概率分布的随机生成神经网络,RBM,结构:,一个可见层,一个隐层,层内无连接,二层图:,一层是可视层,即输入数据层,(v),一层是隐藏层,(h),所有的节点都是二值变量,RBM,中,隐单元在给定可视单元情况下,条件独立,55,受限波尔兹曼机,RBM,的参数 ,均为实数,,W,ij,表示可见单元,i,和隐单元,j,之间的连接权重,,b,i,和,a,j,分别表示可见单元,i,和隐单元,j,的偏置。,定义联合组态(,jointconfiguration,)能量:,当参数确定时,基于该能量函数,得到,(v,h),的联合概率分布,受限波尔兹曼机,受限波尔兹曼机,学习目标:极大似然,给定N个样本,RBM,极大似然,v 为观测变量,h 为隐变量,其能量函数为:E(v, h; ),概率值:,p(v,h), p(v), p(h), p(v|h), p(h|v),RBM,极大似然,RBM,CD 算法思想,(Hinton, 2002),Contrastive Divergence,观测分布,真实分布,RBM,具体参数W, a, b,RBM 的能量,:E(v,h) = v,T,Wh b,T,v a,T,h,概率形式,RBM,具体参数,RBM,对于h,j,0;1,v,i,0;1, 可进一步化简:,RBM,通过采样来计算第二项:,CD,-,K算法,再回顾ML算法,目标,RBM,算法流程(CD-1),:,输入样本为v,1,v,2, v,n,,设观测变量v, 隐变量h,将对各参数的偏导数初始化为,w,ij,=0, a,j,=0, b,i,=0;,For k =1, N:,v(0) v,n,For j = 1,.,m, do sample:,For i=1,.,n, do sample:,计算梯度,最后平均,(样本数),(隐结点数),(维数),RBM,CD-1算法,RBM,图解,RBM,训练技巧(结构已定),将数据分成,Batch,在每个,batch,内并行计算,将,CD-,算法折衷成,CD-1,算法,监控学习过程,防止,overfitting,监控学习率,增加动力机制(选样),增加稀疏机制(联接),G. Hinton. A Practical Guide to Training Restricted Boltzmann Machines, Tech Report, No.UTML TR 2010-003, Department of Computer Science, University of Toronto, Canada,Deep Belief Networks(DBNs),概率生成模型,深层结构多层,非监督的预学习提供了网络好的初始化,maximizing the lower-bound of the log-likelihood of the data,监督微调(fine-tuning),Generative: Up-down algorithm,Discriminative: backpropagation,DBN结构,Hinton et al., 2006,DBN Greedy training,第一步,Construct an RBM with an input layer v and a hidden layer h,Train the RBM,DBN Greedy training,第二步,Stack another hidden,layer on top of the RBM,to form a new RBM,Fix,W,1, sample,h,1,from,Q(h,1,|v),as input. Train,W,2,as RBM.,DBN Greedy training,第三步,Continue to stack layers,on top of the network,train it as previous step,with sample sampled,from,Q(h,2,|h,1,),And so on,Fine-tuning,Training for classification,逐层贪婪训练,RBM specifies P(v,h) from P(v|h) and P(h|v),Implicitly defines P(v) and P(h),Key idea of stacking,Keep P(v|h) from 1st RBM,Replace P(h) by the distribution generated by 2nd level RBM,逐层贪婪训练,Easy approximate inference,P(h,k+1,|h,k,) approximated from the,associated RBM,Approximation because P(h,k+1,),differs between RBM and DBN,Training:,Variational bound justifies greedy,layerwise training of RBMs,DBN识别手写数,字,待识别数字的黑白位图,隐性神经元,识别结果,关闭状态的神经元,开启状态的神经元,Result is right,error rate: DBN 1.2%,Compare with SVM 1.4%,DBN,提取音频特征,DBN,训练一个,5,层的深度网络提取音乐的特征,用于音乐风格的分类,参考文献:,Philippe Hamel and Douglas Eck, LEARNING FEATURES FROM MUSIC AUDIO WITH DEEP BELIEF NETWORKS.,3,个隐藏层,输入的原始数据是经过分帧,加窗之后的信号的频谱,分类器采用的是支持向量机,SVM,对比的方法是,MFCCs,,分类器同样采用,SVM,DBN,提取音频特征,具有不同流派音频的不同表示的,2,维映射,和输入,Inputs,、,MFCCs,相比,,DBN,算法中隐藏层的激活的聚类表达更明确,分类的准确度更高。,小结,深度神经网络发展历史、背景,动机,Why Deep Learning?,深度学习常用模型,References,G. Hinton. A Practical Guide to Training Restricted Boltzmann Machines,Tech Report, No. UTML TR 2010-003, Department of Computer Science,University of Toronto, Canada,G. Hinton and R. Salakhutdinov. Reducing the Dimensionality of Data with,Neural Networks. Science, 2006,Vincent, Pascal, et al. Stacked Denoising Autoencoders: Learning Useful Representations in a Deep Network with a Local Denoising Criterion.,Journal of Machine Learning Research,11.12(2010):3371-3408.,Yoshua Bengio: Learning Deep architectures for AI, Foundations and,Trends in Machine Learning, 2(1), 2009, Hinton, S. Osindero and Y. W. Teh. A fast learning algorithm for deep,belief nets. Neural Computation, 2006,Kevin P. Murphy. Machine Learning: A Probabilistic Perspective. Chapter,28 : Deep Learning. The MIT Press, 2012,Bengioy 的书:http:/www.iro.umontreal.ca/bengioy/DLbook/,Thanks!,
展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 图纸专区 > 小学资料


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!