神经网络和模糊系统ppt课件

上传人:沈*** 文档编号:181124374 上传时间:2023-01-10 格式:PPT 页数:45 大小:388.50KB
返回 下载 相关 举报
神经网络和模糊系统ppt课件_第1页
第1页 / 共45页
神经网络和模糊系统ppt课件_第2页
第2页 / 共45页
神经网络和模糊系统ppt课件_第3页
第3页 / 共45页
点击查看更多>>
资源描述
神经网络和模糊系统神经网络和模糊系统第五章第五章突触动力学突触动力学:有监视的学习:有监视的学习张文革张文革2019.112019.11突触动力学突触动力学:有监视的学习:有监视的学习本章内容:本章内容:一、预备知识一、预备知识 二、有监视的函数估计二、有监视的函数估计 三、监视学习就是有效的训练三、监视学习就是有效的训练 四、知类隶属度的监视学习四、知类隶属度的监视学习 五、感知器、五、感知器、MLS和和BP算法算法一、预备知识一、预备知识11 1、生物神经元模型、生物神经元模型 神经元是脑组织的根本单元,人神经元是脑组织的根本单元,人脑是由大约脑是由大约140140多亿个神经元组成的巨系多亿个神经元组成的巨系统。神经元的构造如以下图所示:统。神经元的构造如以下图所示:一、预备知识一、预备知识22 2、神经元的突触:、神经元的突触:突触是两个细胞之间衔接的根本单元,突触是两个细胞之间衔接的根本单元,每个细胞约有每个细胞约有 个突触。突触主个突触。突触主要有两种衔接方式:要有两种衔接方式:一是一个神经细胞的轴突与另一个神经细一是一个神经细胞的轴突与另一个神经细胞的树突发生接触;胞的树突发生接触;二是一个神经细胞的轴突与另一个神经细二是一个神经细胞的轴突与另一个神经细胞的胞体接触。胞的胞体接触。431010 一、预备知识一、预备知识3突触有两种类型:突触有两种类型:兴奋型和抑制型。兴奋型和抑制型。突触的界面具有脉冲突触的界面具有脉冲/电位信号转换功电位信号转换功能,它能将沿神经纤维传送的等幅、恒能,它能将沿神经纤维传送的等幅、恒宽、编码的离散脉冲信号,转换为细胞宽、编码的离散脉冲信号,转换为细胞膜可以处置的延续电位信号。膜可以处置的延续电位信号。一、预备知识一、预备知识43 3、突触动力学:、突触动力学:突触可以传送神经激动。树突从四方突触可以传送神经激动。树突从四方搜集由其它神经细胞传来的信息,信息搜集由其它神经细胞传来的信息,信息流由树突出发,经过细胞体,然后由轴流由树突出发,经过细胞体,然后由轴突输出。信息传送在突触处主要是发生突输出。信息传送在突触处主要是发生化学和电的变化,从而对神经细胞产生化学和电的变化,从而对神经细胞产生一个兴奋或抑制的动力。一个兴奋或抑制的动力。一、预备知识一、预备知识54 4、人工神经网络的分类:、人工神经网络的分类:人工神经网络的分类有多种方法,但通人工神经网络的分类有多种方法,但通常采用如下分类:常采用如下分类:按网络构造分为:前馈网络和反响网络;按网络构造分为:前馈网络和反响网络;按学习方式分为:监视学习和非监视学习,按学习方式分为:监视学习和非监视学习,也叫有导师学习和无导师学习。也叫有导师学习和无导师学习。本章主要论述前馈网络的监视学习算法。本章主要论述前馈网络的监视学习算法。一、预备知识一、预备知识65、什么是学习?、什么是学习?学习就是对信息进展编码学习就是对信息进展编码,其目的就是经过向有其目的就是经过向有限个例子训练样本的学习来找到隐藏在例子背后限个例子训练样本的学习来找到隐藏在例子背后即产生这些例子的规律如函数方式。即产生这些例子的规律如函数方式。当样本数据改动系统参数时,系统会对这些改动进当样本数据改动系统参数时,系统会对这些改动进展自顺应或自组织的学习,在神经网络中表现为突触展自顺应或自组织的学习,在神经网络中表现为突触的改动。的改动。按突触修正假说,神经网络在拓扑构造固定时,按突触修正假说,神经网络在拓扑构造固定时,其学习归结为衔接权的变化。其学习归结为衔接权的变化。所以,对固定拓扑的神经网络,学习就是求权值,所以,对固定拓扑的神经网络,学习就是求权值,即突触矩阵。即突触矩阵。一、预备知识一、预备知识76 6、什么是监视?、什么是监视?监视就是对每一个输入监视就是对每一个输入Xi,Xi,都假定都假定我们曾经知道它的期望输出我们曾经知道它的期望输出Yi,Yi,这个这个YiYi可以了解为监视信号,也叫可以了解为监视信号,也叫“教师信号教师信号。对每一个输入对每一个输入XiXi及其对其估计的期及其对其估计的期望输出望输出YiYi,就构成了一个训练样本。,就构成了一个训练样本。一、预备知识一、预备知识87 7、学习的种类:、学习的种类:学习的种类有四种:死记式学习,学习的种类有四种:死记式学习,学习律,自组织的学习和学习律,自组织的学习和HebbianHebbian学习律,相学习律,相近学习。近学习。由于监视学习主要运用的是由于监视学习主要运用的是 学习律,学习律,所以,在此主要引见所以,在此主要引见 学习律。学习律。一、预备知识一、预备知识98 8、学习律学习律 这种方法是用知例子作为教师对网络的权这种方法是用知例子作为教师对网络的权进展学习。其规那么是经过神经网络理想输出进展学习。其规那么是经过神经网络理想输出和实践输出之间的误差来修正网络的权值。在和实践输出之间的误差来修正网络的权值。在很多神经网络中,都采用了这种学习方法,如很多神经网络中,都采用了这种学习方法,如PerceptronPerceptron,Adaline Adaline和和Back-propagationBack-propagation算法等。算法等。一、预备知识一、预备知识109 9、有监视的学习、有监视的学习 有监视的学习就是根据这假设干组训有监视的学习就是根据这假设干组训练样本练样本,对人工神经网络进展训练,利用学习系,对人工神经网络进展训练,利用学习系统的误差统的误差 EJ EJ,为期望输出与实践,为期望输出与实践输出之差,不断校正学习系统的行为输出之差,不断校正学习系统的行为即突触权值,使误差尽能够地小,即突触权值,使误差尽能够地小,从而估计出神经元函数:从而估计出神经元函数:f:xyf:xy。所以,监视学习的最终义务,就是所以,监视学习的最终义务,就是经过使系统误差尽能够地小,不断地调经过使系统误差尽能够地小,不断地调整突触权值,最终求出神经元函数整突触权值,最终求出神经元函数f f。)y,x(ii一、预备知识一、预备知识111010、监视学习与非监视学习的区别:、监视学习与非监视学习的区别:在监视学习中,假定我们知道每一输在监视学习中,假定我们知道每一输入对应的期望输出,并利用学习系统的入对应的期望输出,并利用学习系统的误差,不断校正系统的行为;误差,不断校正系统的行为;在非监视学习中,我们不知道学习在非监视学习中,我们不知道学习系统的期望输出。系统的期望输出。11、前馈神经网络的构造表示图 特点:各神经元接受前一级输入,并输出特点:各神经元接受前一级输入,并输出到下一级,无反响。输入、输出节点称为可见到下一级,无反响。输入、输出节点称为可见层,其它中间层称为隐层。层,其它中间层称为隐层。输出隐层输入节点计算单元1212、监视学习流图、监视学习流图 其关键之处,就是将教师信号参与到了网络中其关键之处,就是将教师信号参与到了网络中.环境教师学习系统实际响应误差信号应有响应描述环境状态的信号+-二、有监视的函数估计二、有监视的函数估计(1)在学习之前,神经网络犹如一个黑盒子,在学习之前,神经网络犹如一个黑盒子,我们能做的,就是可以给它加一定的输入我们能做的,就是可以给它加一定的输入 XiXi,再给每个输入,再给每个输入XiXi提供一个期望输出提供一个期望输出YiYi,即即“教师信号,从而构成了一系列的样本教师信号,从而构成了一系列的样本对对Xi,YiXi,Yi。有监视的函数估计,就是经过包含有监视的函数估计,就是经过包含“教教师信号的样本对师信号的样本对Xi,YiXi,Yi,求出神经网络求出神经网络的传输函数的传输函数 f f 的近似表达式。的近似表达式。二、有监视的函数估计二、有监视的函数估计(2)采用的方法,就是利用误差函数采用的方法,就是利用误差函数EJEJ期望输出与实践输出的差值,不断调整期望输出与实践输出的差值,不断调整ANNANN的突触权值,使的突触权值,使EJEJ到达最小,从而到到达最小,从而到达对达对ANNANN函数的估计。函数的估计。二、有监视的函数估计二、有监视的函数估计(3)知随机样本矢量对知随机样本矢量对经过实验可以测出实践输出经过实验可以测出实践输出 求出求出EJ=-EJ=-然后经过使然后经过使EJEJ最小而修正突触权值来求出最小而修正突触权值来求出f:f:其中其中F F是要估计的是要估计的ANNANN函数;函数;是输入空间;是输入空间;是输出空间。是输出空间。11,),(,)mmx yxy(yi yi yi:fxynixxRpiyyR三、监视学习就是有效的训练三、监视学习就是有效的训练 有效训练是指,对具有记忆功能的系统,当运用训练样本对其进展学习之后,系统可以记住所学的方法,并能处置类似的问题。对ANN进展有监视的学习就是有记忆功能的系统。也就是说,运用期望输出与实践输出的误差不断校正其突触权值,最终的结果,就是系统具备了一定的功能,训练获得了一定的效果。就像巴普洛夫条件反射实验一样。四、知类隶属度的监视学习四、知类隶属度的监视学习1 就是用知的方式类的隶属度函数,来调整系统的突触权值,从而到达学习的目的。比如,在噪声随机竞争学习定律中,由于没有运用类成员信息校正突触矢量,所以是非监视学习。四、知类隶属度的监视学习四、知类隶属度的监视学习2噪声随机竞争学习定律为噪声随机竞争学习定律为:它实践上就是在随机竞争学习中参与了噪声它实践上就是在随机竞争学习中参与了噪声ni。其。其规律为:假设第规律为:假设第j个神经元获胜,那么学新忘旧;假个神经元获胜,那么学新忘旧;假设第设第j个神经元失败,那么不学新也不忘旧。个神经元失败,那么不学新也不忘旧。其缺乏是:未运用知方式类其缺乏是:未运用知方式类X的隶属度信息。的隶属度信息。假设运用了类成员信息校正突触矢量,就成了监假设运用了类成员信息校正突触矢量,就成了监视学习。由于是监视学习,有视学习。由于是监视学习,有“教师信号,我们预教师信号,我们预先就知道其期望分类,所以实行了奖惩机制:假设分先就知道其期望分类,所以实行了奖惩机制:假设分对,那么奖励;分错那么惩罚。对,那么奖励;分错那么惩罚。()()jjijjmSySxmn四、知类隶属度的监视学习四、知类隶属度的监视学习3 而对应的监视随机竞争学习定律为:加强函数为:假设x属于Dj,上式中第一项为+1,阐明是分对了;假设x不属于Dj,上式中第二项为-1,阐明是分错了。奖励正确的方式分类1,惩罚错误的方式分类为1,从而调整权值,到达学习的目的。()()jjjjjjmr x SyxmnjijDDijrII五、感知器学习算法五、感知器学习算法11 1、感知器拓扑构造、感知器拓扑构造 bpbjb1a1aianak1aknakibk1bkjbkp 11 1n 1i j1 nj npLALBW五、感知器学习算法五、感知器学习算法22、感知器学习、感知器学习 网络用误差修正规那么网络用误差修正规那么 规那么学习,训练样规那么学习,训练样本对为本对为 ,k=1,2,m.第第k个方式对应的个方式对应的输入向量输入向量 =,为模拟值为模拟值方式,输出向量方式,输出向量 =,为二为二值方式。网络中,值方式。网络中,层的层的n个单元对应方式个单元对应方式 的的n个分量个分量,层的层的p个单元对应方式个单元对应方式 的的P个分量个分量.所以,感知器最突出的一个特点便是:输入是所以,感知器最突出的一个特点便是:输入是模拟向量,输出是二值方式。模拟向量,输出是二值方式。AkBkAkak1ak2aknBkbk1bk2bkpLAAkLBBk五、感知器学习算法五、感知器学习算法3 由于 层中每个单元只取值+1或-1,因此可将它视作输入方式 (k=1,2m)两个能够的分类。在学习开场 时,由各衔接权决议的超平面随机地被 放到N维空间。随着学习的进展,这个超平面渐渐挪动,直到它能将两类方式恰当划分为止。AkLB五、感知器学习算法五、感知器学习算法43 3、算法过程、算法过程 从随机的权值开场;从随机的权值开场;反复运用每个训练样例到感知器,反复运用每个训练样例到感知器,只需它误分样例,就修正感知器的权值;只需它误分样例,就修正感知器的权值;反复这个过程,直到感知器正确分反复这个过程,直到感知器正确分类一切的训练样例为止。类一切的训练样例为止。五、感知器学习算法五、感知器学习算法54 4、详细算法:、详细算法:1 1初始化衔接权。将初始化衔接权。将 层到层到 层的衔接权层的衔接权 ,i=1,2,n,j=1,2,pi=1,2,n,j=1,2,p及及 层单元阈值层单元阈值 j=1,2,p j=1,2,p赋予赋予-1-1,+1+1间的随机值。间的随机值。(2)(2)对每一方式对对每一方式对 ,k=1,m,k=1,m,完成下面操作:完成下面操作:A A、将、将 的值送到的值送到 层单元,层单元,层单元的输出之加层单元的输出之加权和作为权和作为 层单元的输入,计算层单元的输入,计算 层单元的输出:层单元的输出:LALBLB ij jAkBkAkLALALBLB)jin1iij(fjab 五、感知器学习算法五、感知器学习算法6上式中上式中j=1p,f(x)为双极阶跃函数为双极阶跃函数 B、计算、计算 层单元希望输出与实践输出间误差层单元希望输出与实践输出间误差 1010()xxfxLB,1.kjjjjpdbb五、感知器学习算法五、感知器学习算法7C C、调整、调整 层单元与层单元与 层单元之间的衔接权层单元之间的衔接权式中式中i=1n,j=1p,0 1i=1n,j=1p,0 1(3)(3)反复步骤反复步骤2 2直到误差直到误差 j=1pj=1p且且k=1mk=1m变得足够小或变为变得足够小或变为0 0为止。为止。ijija dLALBjd五、感知器学习算法五、感知器学习算法85 5、阐明:、阐明:感知器算法,假设输入方式是线性感知器算法,假设输入方式是线性可分的,学习后能对输入方式正确分类;可分的,学习后能对输入方式正确分类;假设输入方式本身是线性不可分的,假设输入方式本身是线性不可分的,那么学习后的网络不能对输入方式正确那么学习后的网络不能对输入方式正确分类。分类。六、六、LMSLMS算法算法(1)(1)1 1、LMSLMS就是最小均方误差算法。它就是最小均方误差算法。它采用的准那么函数是均方误差函数。采用的准那么函数是均方误差函数。它经过调整单个神经元的权值,以它经过调整单个神经元的权值,以使误差为最小,其数学根底是误差曲面使误差为最小,其数学根底是误差曲面上的梯度下降。上的梯度下降。其学习过程也是根据教师信号计算其学习过程也是根据教师信号计算其均方误差,由均方误差调整突触向量,其均方误差,由均方误差调整突触向量,如此反复,最后到达学习的目的。如此反复,最后到达学习的目的。六、六、LMSLMS算法算法(2)(2)2 2、权值调整公式:、权值调整公式:其中其中 为下一次权值向量的取值,为下一次权值向量的取值,为如为如今的权向量,今的权向量,为如今的输入向量,为如今的输入向量,为为如今的误差,如今的误差,为系数,为系数,为输入向量的模为输入向量的模.2101KkkKaakXX0KKKyyK1KKXKKX七、反向传播网络学习七、反向传播网络学习1 1 1、定义:反向传播神经网络、定义:反向传播神经网络Back-Propagation NetworksBack-Propagation Networks简称简称BPBP模型。由于在这一神经网络模型中引入模型。由于在这一神经网络模型中引入了中间隐含神经元层,所以,规范的了中间隐含神经元层,所以,规范的BPBP模型由三个神经元层次组成,分别为输模型由三个神经元层次组成,分别为输入层、隐层和输出层。各层次之间的神入层、隐层和输出层。各层次之间的神经元构成全互衔接,各层次内的神经元经元构成全互衔接,各层次内的神经元之间没有衔接。之间没有衔接。七、反向传播网络学习七、反向传播网络学习2 2、BP算法是经过使代价函数最小化的过程来完成输入到输出的映射。代价函数有多种,但通常在BP算法中,将代价函数定义为期望输出与实践输出的误差平方和。在本算法中,将代价函数期望输出与实践输出的误差平方和用与其等价的普通化误差来替代,从而减小了运算量。七、反向传播网络学习七、反向传播网络学习3 3 3、BPBP算法分成两个阶段算法分成两个阶段 第一阶段:正向传播。第一阶段:正向传播。在正向传播过程中,输入信息从输在正向传播过程中,输入信息从输入层经隐层逐层处置,并传向输出层,入层经隐层逐层处置,并传向输出层,获得各个单元的实践输出,每一层神经获得各个单元的实践输出,每一层神经元的形状只影响下一层神经元的形状。元的形状只影响下一层神经元的形状。七、反向传播网络学习七、反向传播网络学习4 第二阶段:反向传播。第二阶段:反向传播。假设在输出层未能得到期望的输出,假设在输出层未能得到期望的输出,那么转入反向传播,计算出输出层各单那么转入反向传播,计算出输出层各单元的普通化误差,然后将这些误差信号元的普通化误差,然后将这些误差信号沿原来的衔接通路前往,以获得调整各沿原来的衔接通路前往,以获得调整各衔接权所需的各单元参考误差,经过修衔接权所需的各单元参考误差,经过修正各层神经元的权值,使得误差信号最正各层神经元的权值,使得误差信号最小。小。七、反向传播网络学习七、反向传播网络学习5 4 4、BPBP网络拓扑构造网络拓扑构造 bpbib1a1ahanak1aknakibk1bkjbkp 11 1n pqc1c1cqcjv11vnpv1h七、反向传播网络学习七、反向传播网络学习65 5、BPBP算法:算法:1 1初始化。将网络中一切权值及阈值赋予初始化。将网络中一切权值及阈值赋予-1-1,+1+1之间的随机值;之间的随机值;2 2对于样本方式对对于样本方式对 ,k=1mk=1m进展如下操作:进展如下操作:A A将将 的值送到输入层单元,经过衔接权矩的值送到输入层单元,经过衔接权矩阵阵V V送到隐层单元,产生隐层单元新的激活值送到隐层单元,产生隐层单元新的激活值 式中式中i=1p,i=1p,f f为为S S型函数:型函数:KAKCKA1nih ihihfbva 11xf xe七、反向传播网络学习七、反向传播网络学习7 B)计算输出层单元的激活值 C)计算输出层单元的普通化误差 式中j=1q,为输出层单元j的期望输出;11.pjjijjifjqCbr1kjjjjjdcccckjc七、反向传播网络学习七、反向传播网络学习8 D)计算隐含层单元对于每个计算隐含层单元对于每个 的误差的误差 式中式中i=1p;上式相当于将输出层单元的误差反上式相当于将输出层单元的误差反向传播到隐含层;向传播到隐含层;E)调整隐含层到输出层的衔接权调整隐含层到输出层的衔接权 为学习率,为学习率,0 1.jd11pjiiijjjebbd1.,1.ijijipjqb d七、反向传播网络学习七、反向传播网络学习9 F)F)调整输入层到隐含层的衔接权调整输入层到隐含层的衔接权 式中式中h=1n,i=1p,0 1;h=1n,i=1p,0 1;G)G)调整输出单元的阈值调整输出单元的阈值 式中式中j=1q;j=1q;hihjva ejrd七、反向传播网络学习七、反向传播网络学习10 H)调整隐含层单元的阈值 3反复步骤2,直到对于k=1,2,m,误差 变得足够小或为0为止。1.;iieipjd七、反向传播网络学习七、反向传播网络学习116、BP算法的优点算法的优点 1 BP算法是一个很有效的算法,许多算法是一个很有效的算法,许多问题都可由它来处理。问题都可由它来处理。BP模型把一组样本的模型把一组样本的I/O问题变为一个非线性优化问题,运用了优问题变为一个非线性优化问题,运用了优化中最普通的梯度下降法,用迭代运算求解权化中最普通的梯度下降法,用迭代运算求解权相应于学习记忆问题,参与隐节点使优化问题相应于学习记忆问题,参与隐节点使优化问题的可调参数添加,从而可得到更准确的解。的可调参数添加,从而可得到更准确的解。七、反向传播网络学习七、反向传播网络学习12 2对平稳系统,从实际上说经过对平稳系统,从实际上说经过监视学习可以学到环境的统计特征,这监视学习可以学到环境的统计特征,这些统计特征可被学习系统作为阅历记住。些统计特征可被学习系统作为阅历记住。假设环境是非平稳的,通常的监视学习假设环境是非平稳的,通常的监视学习没有才干跟踪这种变化,此时网络需求没有才干跟踪这种变化,此时网络需求一定自顺应才干。一定自顺应才干。七、反向传播网络学习七、反向传播网络学习137 7、BPBP算法的缺陷:算法的缺陷:从数学上看,它是一个非线性优化问题,从数学上看,它是一个非线性优化问题,这不可防止地存在有部分极小问题;学习算法这不可防止地存在有部分极小问题;学习算法的收敛速度很慢,通常要几千步迭代甚至更多;的收敛速度很慢,通常要几千步迭代甚至更多;网络运转还是单向传播,没有反响;对新参与网络运转还是单向传播,没有反响;对新参与的样本要影响到曾经学完的样本,描写每个输的样本要影响到曾经学完的样本,描写每个输入样本的特征的数目也要求必需一样。入样本的特征的数目也要求必需一样。
展开阅读全文
相关资源
相关搜索

最新文档


当前位置:首页 > 办公文档 > 工作计划


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!