神经网络和模糊系统

上传人:痛*** 文档编号:245191481 上传时间:2024-10-07 格式:PPT 页数:45 大小:355KB
返回 下载 相关 举报
神经网络和模糊系统_第1页
第1页 / 共45页
神经网络和模糊系统_第2页
第2页 / 共45页
神经网络和模糊系统_第3页
第3页 / 共45页
点击查看更多>>
资源描述
,单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,神经网络和模糊系统,第五章,突触动力学,:有监督的学习,张文革,2006.11,突触动力学,:有监督的学习,本章内容:,一、预备知识,二、有监督的函数估计,三、监督学习就是有效的训练,四、已知类隶属度的监督学习,五、感知器、,MLS,和,BP,算法,一、预备知识(,1,),1,、生物神经元模型,神经元是脑组织的基本单元,人脑是由大约,140,多亿个神经元组成的巨系统。神经元的结构如下图所示:,一、预备知识(,2,),2,、神经元的突触:,突触是两个细胞之间连接的基本单元,每个细胞约有 个突触。突触主要有两种连接方式:,一是一个神经细胞的轴突与另一个神经细胞的树突发生接触;,二是一个神经细胞的轴突与另一个神经细胞的胞体接触。,一、预备知识(,3,),突触有两种类型:,兴奋型和抑制型。,突触的界面具有脉冲,/,电位信号转换功能,它能将沿神经纤维传递的等幅、恒宽、编码的离散脉冲信号,转换为细胞膜可以处理的连续电位信号。,一、预备知识(,4,),3,、突触动力学:,突触能够传递神经冲动。树突从四方收集由其它神经细胞传来的信息,信息流由树突出发,经过细胞体,然后由轴突输出。信息传递在突触处主要是发生化学和电的变化,从而对神经细胞产生一个兴奋或抑制的动力。,一、预备知识(,5,),4,、人工神经网络的分类:,人工神经网络的分类有多种方法,但通常采用如下分类:,按网络结构分为:前馈网络和反馈网络;,按学习方式分为:监督学习和非监督学习,也叫有导师学习和无导师学习。,本章主要论述前馈网络的监督学习算法。,一、预备知识(,6,),5,、什么是学习?,学习就是对信息进行编码,其目的就是通过向有限个例子(训练样本)的学习来找到隐藏在例子背后(即产生这些例子)的规律(如函数形式)。,当样本数据改变系统参数时,系统会对这些改变进行自适应或自组织的学习,在神经网络中表现为突触的改变。,按突触修正假说,神经网络在拓扑结构固定时,其学习归结为连接权的变化。,所以,对固定拓扑的神经网络,学习就是求权值,即突触矩阵。,一、预备知识(,7,),6,、什么是监督?,监督就是对每一个输入,Xi,都,假定,我们已经知道它的期望输出,Yi,这个,Yi,可以理解为监督信号,也叫“教师信号”。,对每一个输入,Xi,及其对其估计的期望输出,Yi,,就构成了一个训练样本。,一、预备知识(,8,),7,、学习的种类:,学习的种类有四种:死记式学习,学习律,自组织的学习和,Hebbian,学习律,相近学习。,由于监督学习主要使用的是 学习律,所以,在此主要介绍 学习律。,一、预备知识(,9,),8,、学习律,这种方法是用已知例子作为教师对网络的权进行学习。其规则是通过神经网络理想输出和实际输出之间的误差来修正网络的权值。在很多神经网络中,都采用了这种学习方法,如,Perceptron,,,Adaline,和,Back-propagation,算法等。,一、预备知识(,10,),9,、有监督的学习,有监督的学习就是根据这若干组训练样本,,对人工神经网络进行训练,利用学习系统的误差(,EJ,,为,期望输出与实际输出之差,),,不断校正学习系统的行为(即突触权值),使误差尽可能地小,从而,估计出神经元函数:,f:xy,。,所以,监督学习的最终任务,就是通过使系统误差尽可能地小,不断地调整突触权值,最终求出神经元函数,f,。,一、预备知识(,11,),10,、监督学习与非监督学习的区别:,在监督学习中,假定我们知道每一输入对应的期望输出,并利用学习系统的误差,不断校正系统的行为;,在非监督学习中,我们不知道学习系统的期望输出。,11,、,前馈神经网络的结构示意图,特点:各神经元接受前一级输入,并输出到下一级,无反馈。输入、输出节点称为可见层,其它中间层称为隐层。,12,、监督学习流图,其关键之处,就是将教师信号加入到了网络中,.,二、有监督的函数估计,(1),在学习之前,神经网络犹如一个黑盒子,我们能做的,就是可以给它加一定的输入,Xi,,再给每个输入,Xi,提供一个期望输出,Yi,,即“教师信号”,从而形成了一系列的样本对(,Xi,Yi,)。,有监督的函数估计,就是通过包含“教师信号”的样本对(,Xi,Yi,),求出神经网络的传输函数,f,的近似表达式。,二、有监督的函数估计,(2),采用的方法,就是利用误差函数,EJ,(期望输出与实际输出的差值),不断调整,ANN,的突触权值,使,EJ,达到最小,从而达到对,ANN,函数的估计。,二、有监督的函数估计,(3),已知随机样本矢量对,通过实验可以测出实际输出,求出,EJ=-,然后通过使,EJ,最小而修改突触权值来求出,f:,其中,F,是要估计的,ANN,函数;,是输入空间;,是输出空间,。,三、监督学习就是有效的训练,有效训练是指,对具有记忆功能的系统,当使用训练样本对其进行学习之后,系统能够记住所学的方法,并能处理类似的问题。,对,ANN,进行有监督的学习就是有记忆功能的系统。也就是说,使用期望输出与实际输出的误差不断校正其突触权值,最终的结果,就是系统具备了一定的功能,训练取得了一定的成效。就像,巴普洛夫条件反射试验一样,。,四、已知类隶属度的监督学习(,1,),就是用已知的模式类的隶属度函数,来调整系统的突触权值,从而达到学习的目的。,比如,在噪声随机竞争学习定律中,由于没有使用类成员信息校正突触矢量,所以是非监督学习。,四、已知类隶属度的监督学习(,2,),噪声随机竞争学习定律为,:,它实际上就是在随机竞争学习中加入了噪声,ni,。其规律为:若第,j,个神经元获胜,则学新忘旧;若第,j,个神经元失败,则不学新也不忘旧。,其不足是:未使用已知模式类,X,的隶属度信息。,如果,使用了类成员信息校正突触矢量,就成了监督学习。,因为是监督学习,有“教师”信号,我们预先就知道其期望分类,所以实行了奖惩机制:若分对,则奖励;分错则惩罚。,四、已知类隶属度的监督学习(,3,),而对应的监督随机竞争学习定律为:,增强函数为:,若,x,属于,Dj,上式中第一项为,+1,,说明是分对了;若,x,不属于,Dj,上式中第二项为,-1,,说明是分错了。奖励正确的模式分类,1,,惩罚错误的模式分类为,1,,从而调整权值,达到学习的目的。,五、感知器学习算法(,1,),1,、感知器拓扑结构,五、感知器学习算法(,2,),2,、感知器学习,网络用误差修正规则(规则)学习,训练样本对为(,),k=1,2,m.,第,k,个模式对应的输入向量,=,(,)为模拟值模式,输出向量,=,(,)为二值模式。网络中,层的,n,个单元对应模式 的,n,个分量,层的,p,个单元对应模式 的,P,个分量,.,所以,感知器最突出的一个特点便是:输入是模拟向量,输出是二值模式。,五、感知器学习算法(,3,),由于 层中每个单元只取值,+1,或,-1,,因此可将它视作输入模式,(k=1,2m),两个可能的分类。在学习开始 时,由各连接权决定的超平面随机地被 放到,N,维空间。随着学习的进行,这个超平面渐渐移动,直到它能将两类模式恰当划分为止。,五、感知器学习算法(,4,),3,、算法过程,从随机的权值开始;,反复应用每个训练样例到感知器,只要它误分样例,就修改感知器的权值;,重复这个过程,直到感知器正确分类所有的训练样例为止。,五、感知器学习算法(,5,),4,、具体算法:,(,1,)初始化连接权。将 层到 层的连接权,i=1,2,n,j=1,2,p,及 层单元阈值,j=1,2,p,赋予,-1,,,+1,间的随机值。,(2),对每一模式对(,),k=1,m,完成下面操作:,A,、将 的值送到 层单元,层单元的输出之加权和作为 层单元的输入,计算 层单元的输出:,五、感知器学习算法(,6,),上式中,j=1p,,,f(x),为双极阶跃函数,B,、计算 层单元希望输出与实际输出间误差,五、感知器学习算法(,7,),C,、调整 层单元与 层单元之间的连接权,式中,i=1n,j=1p,0 1,(3),重复步骤(,2,)直到误差 (,j=1p,且,k=1m,)变得足够小或变为,0,为止。,五、感知器学习算法(,8,),5,、说明:,感知器算法,如果输入模式是线性可分的,学习后能对输入模式正确分类;,如果输入模式本身是线性不可分的,那么学习后的网络不能对输入模式正确分类。,六、,LMS,算法,(1),1,、,LMS,就是最小均方误差算法。它采用的准则函数是均方误差函数。,它通过调整单个神经元的权值,以使误差为最小,其数学基础是误差曲面上的梯度下降。,其学习过程也是根据教师信号计算其均方误差,由均方误差调整突触向量,如此反复,最后达到学习的目的。,六、,LMS,算法,(2),2,、权值调整公式:,其中 为下一次权值向量的取值,,为现在的权向量,为现在的输入向量,为现在的误差,为系数,为输入向量的模,.,七、反向传播网络学习(,1,),1,、定义:反向传播神经网络(,Back-Propagation Networks,)简称,BP,模型。由于在这一神经网络模型中引入了中间隐含神经元层,所以,标准的,BP,模型由三个神经元层次组成,分别为输入层、隐层和输出层。各层次之间的神经元形成全互连接,各层次内的神经元之间没有连接。,七、反向传播网络学习(,2,),2,、,BP,算法是通过使代价函数最小化的过程来完成输入到输出的映射。,代价函数有多种,但通常在,BP,算法中,将代价函数定义为期望输出与实际输出的误差平方和。,在本算法中,将代价函数(期望输出与实际输出的误差平方和)用与其等价的一般化误差来代替,从而减小了运算量。,七、反向传播网络学习(,3,),3,、,BP,算法分成两个阶段,第一阶段:正向传播。,在正向传播过程中,输入信息从输入层经隐层逐层处理,并传向输出层,获得各个单元的实际输出,每一层神经元的状态只影响下一层神经元的状态。,七、反向传播网络学习(,4,),第二阶段:反向传播。,如果在输出层未能得到期望的输出,则转入反向传播,计算出输出层各单元的一般化误差,然后将这些误差信号沿原来的连接通路返回,以获得调整各连接权所需的各单元参考误差,通过修改各层神经元的权值,使得误差信号最小。,七、反向传播网络学习(,5,),4,、,BP,网络拓扑结构,七、反向传播网络学习(,6,),5,、,BP,算法:,(,1,)初始化。将网络中所有权值及阈值赋予(,-1,,,+1,)之间的随机值;,(,2,)对于样本模式对(,)(,k=1m,)进行如下操作:,A,)将 的值送到输入层单元,通过连接权矩阵,V,送到隐层单元,产生隐层单元新的激活值,式中,i=1p,f,为,S,型函数:,七、反向传播网络学习(,7,),B),计算输出层单元的激活值,C),计算输出层单元的,一般化误差,式中,j=1q,为输出层单元,j,的期望输出;,七、反向传播网络学习(,8,),D),计算隐含层单元对于每个 的误差,式中,i=1p;,上式相当于将输出层单元的误差反向传播到隐含层;,E),调整隐含层到输出层的连接权,为学习率,,0 1.,七、反向传播网络学习(,9,),F),调整输入层到隐含层的连接权,式中,h=1n,i=1p,0 1;,G),调整输出单元的阈值,式中,j=1q;,七、反向传播网络学习(,10,),H),调整隐含层单元的阈值,(,3,)重复步骤(,2,),直到对于,k=1,2,m,误差,变得足够小或为,0,为止。,七、反向传播网络学习(,11,),6,、,BP,算法的优点,(,1,),BP,算法是一个很有效的算法,许多问题都可由它来解决。,BP,模型把一组样本的,I/O,问题变为一个非线性优化问题,使用了优化中最普通的梯度下降法,用迭代运算求解权相应于学习记忆问题,加入隐节点使优化问题的可调参数增加,从而可得到更精确的解。,七、反向传播网络学习(,12,),(,2,)对平稳系统,从理论上说通过监督学习可以学到环境的统计特征,这些统计
展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 管理文书 > 施工组织


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!