BP神经网络matlab教程

上传人:伴*** 文档编号:243308999 上传时间:2024-09-20 格式:PPT 页数:24 大小:731.50KB
返回 下载 相关 举报
BP神经网络matlab教程_第1页
第1页 / 共24页
BP神经网络matlab教程_第2页
第2页 / 共24页
BP神经网络matlab教程_第3页
第3页 / 共24页
点击查看更多>>
资源描述
单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,概述,Rumelhart,,,McClelland,于,1985,年提出了,BP,网络的误差反向后传,BP(Back,Propagation),学习算法,BP,算法基本原理,利用输出后的误差来估计输出层的直接前导层的误差,再用这个误差估计更前一层的误差,如此一层一层的反传下去,就获得了所有其他各层的误差估计。,J. McClelland,David,Rumelhart,2.4.1 BP,神经网络模型,三层,BP,网络,2.4.1 BP,神经网络模型,激活函数,必须处处可导,一般都使用,S,型函数,使用,S,型激活函数时,BP,网络输入与输出关系,输入,输出,2.4.1 BP,神经网络模型,输出的导数,根据,S,型激活函数的图形可知,对神经网络进行训练,应该将,net,的值尽量控制在收敛比较快的范围内,2.4.2 BP,网络的标准学习算法,学习的过程:,神经网络在外界输入样本的刺激下不断改变网络的连接权值,以使网络的输出不断地接近期望的输出。,学习的本质:,对各连接权值的动态调整,学习规则:,权值调整规则,即在学习过程中网络中各神经元的连接权变化所依据的一定的调整规则。,2.4.2 BP,网络的标准学习算法,-,算法思想,学习的类型:有导师学习,核心思想:,将输出误差,以某种形式,通过隐层向输入层逐层反传,学习的过程:,信号的正向传播 误差的反向传播,将误差分摊给各层的所有单元各层单元的误差信号,修正各单元权值,2.4.2 BP,网络的标准学习算法,-,学习过程,正向传播:,输入样本输入层各隐层输出层,判断是否转入反向传播阶段:,若输出层的实际输出与期望的输出(教师信号)不符,误差反传,误差以某种形式在各层表示修正各层单元的权值,网络输出的误差减少到可接受的程度,进行到预先设定的学习次数为止,2.4.2 BP,网络的标准学习算法,网络结构,输入层有,n,个神经元,隐含层有,p,个神经元,输出层有,q,个神经元,变量定义,输入向量,;,隐含层输入向量;,隐含层输出向量,;,输出层输入向量,;,输出层输出向量,;,期望输出向量,;,2.4.2 BP,网络的标准学习算法,输入层与中间层的连接权值,:,隐含层与输出层的连接权值,:,隐含层各神经元的阈值,:,输出层各神经元的阈值,:,样本数据个数,:,激活函数,:,误差函数:,2.4.2 BP,网络的标准学习算法,第一步,网络初始化,给各连接权值分别赋一个区间(,-1,,,1,)内的随机数,设定误差函数,e,,给定计算精度值 和最大学习次数,M,。,第二步,随机选取第 个输入样本及对应期望输出,2.4.2 BP,网络的标准学习算法,第三步,计算隐含层各神经元的输入和输出,2.4.2 BP,网络的标准学习算法,第四步,利用网络期望输出和实际输出,计算误差函数对输出层的各神经元的偏导数 。,2.4.2 BP,网络的标准学习算法,第五步,利用隐含层到输出层的连接权值、输出层的 和隐含层的输出计算误差函数对隐含层各神经元的偏导数 。,2.4.2 BP,网络的标准学习算法,2.4.2 BP,网络的标准学习算法,第六步,利用输出层各神经元的 和隐含层各神经元的输出来修正连接权值 。,2.4.2 BP,网络的标准学习算法,第七步,利用隐含层各神经元的 和输入层各神经元的输入修正连接权。,2.4.2 BP,网络的标准学习算法,第八步,计算全局误差,第九步,判断网络误差是否满足要求。当误差达到预设精度或学习次数大于设定的最大次数,则结束算法。否则,选取下一个学习样本及对应的期望输出,返回到第三步,进入下一轮学习。,2.4.2 BP,网络的标准学习算法,BP,算法直观解释,情况一直观表达,当误差对权值的偏,导数大于零时,权值,调整量为负,实际输,出大于期望输出,,权值向减少方向调整,,使得实际输出与期望,输出的差减少。,w,ho,e,0,,,此时,w,ho,0,2.4.2 BP,网络的标准学习算法,BP,算法直解释,情况二直观表达,当误差对权值的偏导数,小于零时,权值调整量,为正,实际输出少于期,望输出,权值向增大方向,调整,使得实际输出与期,望输出的差减少。,e,0,w,ho,2.4.3 BP,神经网络学习算法的,MATLAB,实现,MATLAB,中,BP,神经网络的重要函数和基本功能,函,数,名,功,能,newff,(),生成一个前馈,BP,网络,tansig,(),双曲正切,S,型,(Tan-Sigmoid),传输函数,logsig,(),对数,S,型,(Log-Sigmoid),传输函数,traingd,(),梯度下降,BP,训练函数,2.4.3 BP,神经网络学习算法的,MATLAB,实现,MATLAB,中,BP,神经网络的重要函数和基本功能,newff,(),功能 建立一个前向,BP,网络,格式,net =,newff(PR,,,S1 S2.SN1,,,TF1 TF2.TFN1,,,BTF,,,BLF,,,PF),说明,net,为创建的新,BP,神经网络;,PR,为网络输入取向量取值范围的矩阵;,S1 S2,SNl,表示网络隐含层和输出层神经元的个数;,TFl,TF2TFN1,表示网络隐含层和输出层的传输函数,默认为,tansig,;,BTF,表示网络的训练函数,默认为,trainlm,;,BLF,表示网络的权值学习函数,默认为,learngdm,;,PF,表示性能数,默认为,mse,。,2.4.3 BP,神经网络学习算法的,MATLAB,实现,MATLAB,中,BP,神经网络的重要函数和基本功能,tansig,(),功能 正切,sigmoid,激活函数,格式,a =,tansig(n,),说明 双曲正切,Sigmoid,函数把神经元的输入范围从,(-,,,+),映射到,(-1,,,1),。它是可导函数,适用于,BP,训练的神经元。,logsig,(),功能 对数,Sigmoid,激活函数,格式,a =,logsig(N,),说明对数,Sigmoid,函数把神经元的输入范围从,(-,,,+),映射到,(0,,,1),。它是可导函数,适用于,BP,训练的神经元。,2.4.3 BP,神经网络学习算法的,MATLAB,实现,例,2-3,,下表为某药品的销售情况,现构建一个如下的三层,BP,神经网络对药品的销售进行预测:输入层有三个结点,隐含层结点数为,5,,隐含层的激活函数为,tansig,;输出层结点数为,1,个,输出层的激活函数为,logsig,,并利用此网络对药品的销售量进行预测,预测方法采用滚动预测方式,即用前三个月的销售量来预测第四个月的销售量,如用,1,、,2,、,3,月的销售量为输入预测第,4,个月的销售量,用,2,、,3,、,4,月的销售量为输入预测第,5,个月的销售量,.,如此反复直至满足预测精度要求为止。,月份,1,2,3,4,5,6,销量,2056,2395,2600,2298,1634,1600,月份,7,8,9,10,11,12,销量,1873,1478,1900,1500,2046,1556,2.4.3 BP,神经网络学习算法的,MATLAB,实现,%,以每三个月的销售量经归一化处理后作为输入取,P1,中最大元素和最小元素分别为,Pmax,=2600,,,Pmin,=1478,,则归一化后,P,的对应元素值为,P=(P1-Pmin)/(Pmax-Pmin),P=0.51520.81731.0000 ;,0.81731.00000.7308;,1.00000.73080.1390;,0.73080.13900.1087;,0.13900.10870.3520;,0.10870.35200.0000;,%,以第四个月的销售量归一化处理后作为目标向量,T=0.7308 0.1390 0.1087 0.3520 0.0000 0.3761;,%,创建一个,BP,神经网络,每一个输入向量的取值范围为,0 ,1,,隐含层有,5,个神经,%,元,输出层有一个神经元,隐含层的激活函数为,tansig,,输出层的激活函数为,%,logsig,,训练函数为梯度下降函数,即,2.3.2,节中所描述的标准学习算法,net=newff(0 1;0,1;0,1,5,1,tansig,logsig,traingd);,net.trainParam.epochs,=15000;,net.trainParam.goal,=0.01;,%,设置学习速率为,0.1,LP.lr,=0.1;,net=,train(net,P,T,);,
展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 图纸专区 > 小学资料


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!