BP神经网络的Matlab语法

上传人:xin****18 文档编号:159261501 上传时间:2022-10-08 格式:DOCX 页数:17 大小:42.29KB
返回 下载 相关 举报
BP神经网络的Matlab语法_第1页
第1页 / 共17页
BP神经网络的Matlab语法_第2页
第2页 / 共17页
BP神经网络的Matlab语法_第3页
第3页 / 共17页
亲,该文档总共17页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述
1.数据预处理在训练神经网络前一般需要对数据进行预处理,一种重要的预处理手段是归一化处理。下面简要介绍归一化处理的原理与方法。(1)什么是归一化?数据归一化,就是将数据映射到0,1或-1,1区间或更小的区间,比如(0.1,0.9)。(2)为什么要归一化处理?输入数据的单位不一样,有些数据的范围可能特别大,导致的结果是神经网络收敛慢、训练时间长。数据范围大的输入在模式分类中的作用可能会偏大,而数据范围小的输入作用就可能会偏小。由于神经网络输出层的激活函数的值域是有限制的,因此需要将网络训练的目标数据映射到激活函数的值域。例如神经网络的输出层若采用S形激活函数,由于S形函数的值域限制在(0,1),也就是说神经网络的输出只能限制在(0,1),所以训练数据的输出就要归一化到0,1区间。S形激活函数在(0,1)区间以外区域很平缓,区分度太小。例如S形函数f(X)在参数a=1时,f(100)与f(5)只相差0.0067。(3)归一化算法一种简单而快速的归一化算法是线性转换算法。线性转换算法常见有两种形式:y=(x-min)/(max-min)其中min为x的最小值,max为x的最大值,输入向量为x,归一化后的输出向量为y。上式将数据归一化到0,1区间,当激活函数采用S形函数时(值域为(0,1)时这条式子适用。y=2*(x-min)/(max-min)-1这条公式将数据归一化到-1,1区间。当激活函数采用双极S形函数(值域为(-1,1)时这条式子适用。(4)Matlab数据归一化处理函数Matlab中归一化处理数据可以采用premnmx,postmnmx,tramnmx这3个函数。premnmx语法:pn,minp,maxp,tn,mint,maxt=premnmx(p,t)参数:pn:p矩阵按行归一化后的矩阵minp,maxp:p矩阵每一行的最小值,最大值tn:t矩阵按行归一化后的矩阵mint,maxt:t矩阵每一行的最小值,最大值作用:将矩阵p,t归一化到-1,1,主要用于归一化处理训练数据集。tramnmx语法:pn=tramnmx(p,minp,maxp)参数:minp,maxp:premnmx函数计算的矩阵的最小,最大值pn:归一化后的矩阵作用:主要用于归一化处理待分类的输入数据。postmnmx语法:p,t=postmnmx(pn,minp,maxp,tn,mint,maxt)参数:minp,maxp:premnmx函数计算的p矩阵每行的最小值,最大值mint,maxt:premnmx函数计算的t矩阵每行的最小值,最大值作用:将矩阵pn,tn映射回归一化处理前的范围。postmnmx函数主要用于将神经网络的输出结果映射回归一化前的数据范围。2.使用Matlab实现神经网络使用Matlab建立前馈神经网络主要会使用到下面3个函数:newff:前馈网络创建函数train:训练一个神经网络sim:使用网络进行仿真下面简要介绍这3个函数的用法。(1) newff函数newff函数语法newff函数参数列表有很多的可选参数,具体可以参考Matlab的帮助文档,这里介绍newff函数的一种简单的形式。语法:net=newff(A,B,C,trainFun)参数:A:个nx2的矩阵,第i行元素为输入信号xi的最小值和最大值;B:一个k维行向量,其元素为网络中各层节点数;C:一个k维字符串行向量,每一分量为对应层神经元的激活函数;trainFun:为学习规则采用的训练算法。表3.1BP网络的常用函数表函数类型函数名称函数用途前向网络创建函数newcf创建级联前向网络Newff创建前向BP网络logsigS型的对数函数传递函数tansigS型的正切函数purelin纯线性函数学习函数learngd基于梯度下降法的学习函数learngdm梯度下降动量学习函数性能函数mse均方误差函数msereg均方误差规范化函数显示函数plotperf绘制网络的性能plotes绘制一个单独神经元的误差曲面plotep绘制权值和阈值在误差曲面上的位置errsurf计算单个神经元的误差曲面3.1.1BP网络创建函数1)newff该函数用于创建一个BP网络。调用格式为:net=newffnet=newff(PR,S1S2.SN1,TF1TF2.TFN1,BTF,BLF,PF)其中,net二newff;用于在对话框中创建一个BP网络。net为创建的新BP神经网络;PR为网络输入向量取值范围的矩阵;S1S2-SNI表示网络隐含层和输出层神经元的个数TFITF2订FN1表示网络隐含层和输出层的传输函数,默认为tansigBTF表示网络的训练函数,默认为trainlm;BLF表示网络的权值学习函数,默认为learngdm;PF表示性能数,默认为mse。如何初始化的:net=initnet);我们可以通过设定网络参数net.initFcn和net.layeri.initFcn这一技巧来初始化个给定的网络。net.initFcn用来决定整个网络的初始化函数。前愦网络的缺省值为initlay,它允许每一层用单独的初始化函数。设定了net.initFcn,那么参数net.layeri.initFcn也要设定用来决定每一层的初始化函数。对前馈网络来说,有两种不同的初始化方式经常被用到:initwb和initnwoinitwb函数根据每一层自己的初始化参数(net.inputWeightsi.j.initFcn)初始化权重矩阵和偏萱。前馈网络的初始化权重通常设为rands,它使权重在-1到1之间随机取值。这种方式经常用在转换函数是线性函数时。initnw通常用于转换函数是曲线函数。它根据Nguyen和WidrowNgWi90为层产生初始权重和偏萱值,使得每层神经元的活动区域能大致平坦的分布在输入空间。它比起单纯的给权重和偏萱随机赋值有以下优点:(1) 诚少神经元的浪费因为所有神经元的活动区域都在输入空间内)。(2) 有更快的训练速度(因为输入空间的每个区域都在活动的神经元范围中)。初始化函数被newff所调用。因此当网络创建时,它根据缺省的参数自动初始化。init不需要单独的调用可是我们可能要重新初始化权重和偏萱或者进行自定义的初始化。例如,我们用newff创建的网络,它缺省用initnw来初始化第一层。如果我们想要用rands重新初始化第一层的权重和偏置,我们用以,下命令:net.layers1.initFcn=initwb;net.inputWeightml,1.initFcn=randm;net.tiiames1,1.initFcn=randsJ;net.biases2,1.initFcn=rands;net=initnet);init-net.initfcn亡t.1已yrsi.initfcn/net.inputweightsi,j.initfcn或者net.layersweightsi,j.initfcn或者亡t.biasesi.initfcn其中net.initfcn只能是initlaynet.layersi.initfcn只能是initnw或者initwbnet.inputweightsi,j.initfcn和nut.lay已rm科已ightsij只能是randm,intitzero?midpoint?randnc,randnr;initsoinpcnet.biasesi.initfcnRBlbrands;intitzero;initcon常用的激活函数常用的激活函数有:a) 线性函数(Lineartransferfunction)f(x)=x该函数的字符串为purelin。b) 对数S形转移函数(Logarithmicsigmoidtransferfunction)该函数的字符串为logsig。c) 双曲正切S形函数(Hyperbolictangentsigmoidtransferfunction)f(sT7V_1(_1也就是上面所提到的双极s形函数。该函数的字符串为tansigMatlab的安装目录下的toolboxnnetnnetnntransfer子目录中有所有激活函数的定义说明。常见的训练函数常见的训练函数有:traingd:梯度下降BP训练函数(Gradientdescentbackpropagation)traingdx:梯度下降自适应学习率训练函数如果考虑增加动量项,可以使用两个训练函数:traingdm和traingdxtraingdm有动量的梯度下降法,设置动量因子的命令如下:net.trainParam.mc=0.9(缺省值为0.9)traingdx有自适应lr的动量梯度下降法,设置动量因子的命令同traingdm训练方法训练函数梯度下降法trahigd有动量的梯度下降法traingdm自适应lr梯度下降法traingda自适应渤量梯度下降法train.呂dx弹性梯度下降法trainrpFletcher-Reeves共觇梯度法traincgfPloak-Ribiere共觇梯度法train匚gpPoweM-Beal巳共觇梯度法traincgb量化共觇梯度法trainee呂拟牛顿算法trainbFfg步正割算法trainossLevenberg-MarquardttrainlmV4网络配置参数一些重要的网络配置参数如下:net.trainparam.goal:神经网络训练的目标误差net.trainparam.show:显示中间结果的周期net.trainparam.epochs:最大迭代次数net.trainParam.lr:学习率net.trainParam.max_fail:验证次数validationnet.trainParam.mc=0.9;动量因子训练参数参数介绍net.trainPdram.epochs最大训练次数(缺省为10)traingd、traingtimtraingda、traitnet.tTdinParam.goal训练要求精度(缺省为0)trained、traingdmtraingda、traitnet.trdinPdraia.lr学习率(缺省为0一01)traingd-traiiigtimtraingda、trailnet.trdinParam.maxfail最大失败次数(缺省为引traingd、traingtimtraingda、traitnet.trdinParam.raingrad最小梯度要求(缺省为1巳-10)trained、traingdmtraingda、traitnet.tTdinParam.show显示训练迭代过程KaN表示不显示,缺省为25)trained、traingdm-traingda、traitnettrainParam匸ime最大训练时间(缺省为inf)traingdxtraingdm、traingda、trailnettrainParammc动量因子(缺省0.9)nettrainParain1r_inc学习率k増长比(缺省为1-05)nettrainParain1r_dec学习率k下降比(缺省为0-7)nettrainParammax_perf_inc表现函数増加最大比(缺省为1-04)nettrainParaindElc_inc权值变化増加量(缺省为1.2)nettrainParamdlu_dEC权值变化诫小量(缺省为0.5)nettrainParamdwltO初始权值变化(缺省为0.07)nettrainParamdeltamax权值变化最大值(缺省为50.0)nettrainParamsEarchFcn维线性扌叟索方法(缺省为srchcha)nettrainParam.sigma医为二次求导对权值调整的影响参数(缺省值5.0.5)的最大值(缺省为lelO)net.trainPsraia.laiubdaH巳55ian矩阵不确定性调节参数(缺省为5.0e-7)net.trainPdraia.menredue控制计算机内存漣度的参量,内存较大设为1,否则设为2(缺省为1)net.trainPsram.iau的初始值(缺省为0.001)net.trainPsram.iaudec的减小率(缺省为0-Dnet.trainPsram.iauinc的増长率(缺省为10)net.trdinParam.mumax(2)train函数网络训练学习函数。语法:net,tr,Y1,E=train(net,X,Y)参数:X:网络实际输入Y:网络应有输出tr:训练跟踪信息Y1:网络实际输出E:误差矩阵(3) sim函数语法:Y=sim(net,X)参数:net:网络X:输入给网络的KxN矩阵,其中K为网络输入个数,N为数据样本数Y:输出矩阵QxN,其中Q为网络输出个数保存网络如果只是需要在工作目录下保到当前训练好的网络,可以在命令窗口输入:savenet为已训练好的网络然后在命令窗口输入:loadnet为已保存的网络加载net=.但一般我们都会在加载完后对网络进行进一步的操作,建议都放在M文件中进行保存网络和调用网络的操作validationchecks是用来防止网络训练过适的,即是训练时网络的验证误差大于训练误差的次数,默认值为6就是大于次数达到6次训练就会停止。网络训练过适时,即使performance还在减小网络性能也不会提高,反而会降低,因此要设定过适次数来提前训练以保证网络性能。%当前输入层权值和阈值inputWeights=net.IW1,1inputbias=net.b1%当前网络层权值和阈值layerWeights=net.LW2,1layerbias=net.b2inputWeights=net.IW1,1inputbias=net.b1%当前输入层权值和阀值layerWeights=net.LW2,1layerbias=net.b2net.IWl,l;输入层到第一层隐层的权值net.bl,l;输入层到第一层隐层的阈值net.LW2,1;第一层隐层到第二层隐层的权值net.b2,1;第一层隐层到第二层隐层的阈值net.LW3,2;第二层隐层到输出层的权值net.b3,2;第二层隐层到输出层的阈值1网络总体结构网络总体结构包括以下属性:(1) numinputs:该属性定义了神经网络的输入个数,属性值可以是0或正整数。需要注意的是,该属性定义了网络输入矢量的总个数,而不是单个输入矢量的维数。(2) numLayers:该属性定义了神经网络的层数,其属性值可以是0或正整数。(3) biasConnect:该属性定义了神经网络的每层是否具有阈值,其属性值为Nx1维的布尔量矩阵,其中N为网络的层数(net.numLayers)。net.biasConnect(i)为1,表示第i层上的神经元具有阈值,为0则表示该层没有阈值.inputConnect:该属性定义了神经网络的输入层,其属性值为NxNi维的布尔量矩阵,其中N为网络的层数,Ni为网络的输入个数(net.numinputs)。net.inputConnect(i,j)为1,表示第i层上的每个神经元都要接收网络的第j个输入矢量,为0则表示不接收该输入。layerConnect:该属性定义了网络各层的连接情况,其属性值为NxN维的布尔量矩阵,其中N为网络的层数。net.layerConnect(i,j)为1,表示第i层与第j层上的神经元相连,为0则表示它们不相连。outputConnect:该属性定义了神经网络的输出层,其属性值为1xN维的布尔量矩阵,其中N为网络的层数。net.outputConnect(i)为1,表示第i层神经元将产生网络的输出,为0则表示该层不产生输出。targetConnect:该属性定义了神经网络的目标层,即网络哪些层的输出具有目标矢量。其属性值为1xN维的布尔量矩阵,其中N为网络的层数。net.targetConnect(i)为1,表示第i层神经元产生的输出具有目标矢量,为0则表示该层输出不具有目标矢量。(8) numOutputs:该属性定义了神经网络输出矢量的个数,属性值为只读变量,其数值为网络中输出层的总数(sum(net.outputConnect)。(9) numTargets:该属性定义了网络目标矢量的个数,属性值为只读变量,其数值为网络中目标层的总数(sum(net.targetConnect)。(10) numinputDelays:该属性定义了神经网络的输入延迟,属性值为只读变量,其数值为网络各输入层输入延迟拍数(net.inputWeightsi,j.delays)中的最大值。(11) numLayerDelays:该属性定义了神经网络的层输出延迟,属性值为只读变量,其数值为各层的神经元之间连接延迟拍数(net.layerWeightsi,j.delays)中的最大值。2子对象结构子对象结构包括以下属性:(1) inputs:该属性定义了神经网络每个输入的属性,其属性值为Nix1维的单元数组,其中Ni为网络输入的个数。(2) layers:该属性定义了神经网络每层神经元的属性,其属性值为Nx1维的单元数组,其中N为网络的层数。(3) outputs:该属性定义了神经网络每个输出的属性,其属性值为Nx1维的单元数组,其中N为网络的层数。(4) targets:该属性定义了每层神经网络目标矢量的属性,其属性值为Nx1维的单元数组,其中N为网络的层数。(5) biases:该属性定义了每层神经网络阈值的属性,其属性值为Nx1维的单元数组,其中N为网络的层数。inputWeights:该属性定义了神经网络每组输入权值的属性,其属性值为NxNi维的单元数组,其中N为网络的层数,Ni为网络的输入个数。layerweights:该属性包括了神经网络各层神经元之间网络权值的属性,其属性值为NxN维的单元数组,其中N为网络的层数。3函数神经网络对象的函数包括以下属性:(1) adaptFcn:该属性定义了网络的自适应调整函数,其属性值为表示自适应函数名称的字符串。(2) initFcn:该属性定义了网络的初始化函数,其属性值为表示网络初始化函数名称的字符串。(3) performFcn:该属性定义了衡量网络输出误差的性能函数,其属性值为表示性能函数名称的字符串。trainFcn:该属性定义了网络的训练函数,其属性值为表示训练函数名称的字符串。4.函数参数神经网络对象的函数参数包括以下属性:(1) adaptParam:该属性定义了网络当前自适应函数的各参数,其属性值为各参数构成的结构体。(2) initParam:该属性定义了网络当前初始化函数的各参数,其属性值为各参数构成的结构体。(3) performParam:该属性定义了网络当前性能函数的各参数,其属性值为各参数构成的结构体。trainParam:该属性定义了网络当前训练函数的各参数,其属性值为各参数构成的结构体。5权值和阈值神经网络对象的权值和阈值包括以下属性:(1) IW:该属性定义了网络输入和各输入层神经元之间的网络权值,属性值为NxNi维的单元数组,其中,N为网络的层数,Ni为网络的输入个数。如果net.inputConnect(i,j)为1,即第i层上的各神经元接收网络的第j个输入,那么在单元net.IWi,j中将存储它们之间的网络权值矩阵,该矩阵的行数为第i层神经元的个数(net.layersi.size),列数为第j个输入的维数(net.inputsj.size)与输入延迟拍数(net.inputWeightsi,j.delays)的乘积。(2) LW:该属性定义了各层神经元之间的网络权值,其属性值为NxN维的单元数组,其中N为网络的层数。如果net.layerConnect(i,j)为1,即第i层与第j层上的神经元相连,那么在单元net.LWi,j中将存储它们之间的网络权值矩阵,该矩阵的行数为第i层上神经元的个数(net.layersi.size),列数为第j层神经元的个数(net.layersj.size)与层输入延迟拍数(net.layerWeightsi,j.delays)的乘积。(3) b:该属性定义了各层神经元的阈值,其属性值为1xN维的单元数组,其中N为网络的层数。如果net.biasConnect(i)为1,即第i层的神经元具有阈值,那么单元net.bi中将存储该层的阈值矢量,矢量维数和第i层的神经元个数(net.layersj.size)相等。6其他数据userdata属性用于存储用户信息。2神经网络的细节结构(子对象属性)将详细介绍网络输入、网络层、输出、目标、权值和阈值等子对象的属性。1.输入(inputs)网络输入net.inputs为Nix1维的单元数组,其中net.inputsi中存储了网络第i个输入的信息。网络的每个输入具有以下属性:(1) size:该属性定义了输入矢量的维数,其属性值可以为0或正整数。(2) range:该属性定义了输入矢量的取值范围,其属性值为Rix2维的矩阵,Ri为输入矢量的维数(net.inputsi.size),该矩阵中的每一行表示输入矢量中各维元素可取的最小值和最大值。(3) userdata:该属性用于存储用户信息。2.层(layers)网络各层net.layers为Nx1维的单元数组,其中net.layersi中存储了网络第i层的信息。网络的每一层具有以下属性:(1) size:该属性定义了每层神经元的个数,其属性值可以为0或正整数。(2) dimensions:该属性定义了每层神经元在多维空间中排列时各维的维数,其属性值为一个行矢量,该矢量中各元素的乘积等于该层神经元的个数(net.layersi.size)。该属性对于自组织映射网络十分重要。(3) topologyFcn:该属性定义了每层神经元在多维空间中分布的拓扑函数,其属性值为表示拓扑函数名称的字符串。positions:该属性定义了每层网络中各神经元的位置坐标,属性值为只读变量,其值由拓扑函数(net.layersi.topologyFcn)和神经元在各维分布的维数(net.layersi.dimensions)来确定。(5) distanceFcn:该属性定义了每层神经元间距的计算函数,其属性值为表示距离函数名称的字符串。(6) distances:该属性定义了每层网络中各神经元之间的距离,属性值为只读变量,其数值由神经元的位置坐标(net.layersi.positions)和距离函数(net.layersi.distanceFcn)来确定。(7) initFcn:该属性定义了每层神经元的初始化函数,其属性值为表示初始化函数名称的字符串。(8) netlnputFcn:该属性定义了每层神经元的输入函数,其属性值为表示输入函数名称的字符串。该函数确定了网络每层的加权输入以何种方式和阈值组合在一起以形成神经元传递函数的输入。(9) transferFcn:该属性定义了每层神经元的传递函数,其属性值为表示传递函数名称的字符串。(10) userdata:该属性用于存储用户信息。3输出(outputs)网络输出net.outputs为Nx1维的单元数组,如果第i层产生网络的一个输出,那么在net.outputsi中将存储该输出量的信息。网络的每一个输出都具有以下属性:(1) size:该属性定义了每一个网络输出的维数,属性值为只读变量,其数值等于该输出层中神经元的个数(net.layersi.size)。(2) userdata:该属性用于存储用户信息4. 目标(targets)目标net.targets为Nx1维的单元数组,如果第i层具有网络的一个目标矢量,那么在net.targetsi中将存储该目标矢量的信息。网络的每一个目标矢量都具有以下属性:(1) size:该属性定义了每一个神经网络目标矢量的维数,属性值为只读变量,其数值等于第i层中神经元的个数(net.layersi.size)。(2) userdata:该属性用于存储用户信息。5. 阈值(biases)阈值net.biases为Nx1维的单元数组,第i个单元net.biasesi中存储了第i层神经元的阈值信息。网络中每一层神经元的阈值都具有以下属性:(1) initFcn:该属性定义了阈值的初始化函数,其属性值为表示阈值初始化函数名称的字符串。(2) learn:该属性定义了阈值在训练过程中是否进行调整,其属性值为0或1。(3) learnFcn:该属性定义了阈值的学习函数,其属性值为表示阈值学习函数名称的字符串。learnParam:该属性定义了阈值学习函数的参数,其属性值为各参数构成的结构体。(5) size:该属性定义了每层神经网络的阈值个数,属性值为只读变量,其数值等于该层神经元的个数(net.layersi.size)。(6) userdata:该属性用于存储用户信息。6. 输入权值(inputweights)网络输入权值net.inputWeights为NxNi维的单元数组,其中net.inputWeightsi,j为网络第j个输入到网络第i层的网络权值的属性。每一组网络输入权值都具有以下属性:(1) delays:该属性定义了网络输入的各延迟拍数,其属性值是由0或正整数构成的行矢量,各输入层实际接收的是由网络输入的各个延迟构成的混合输入。(2) initFcn:该属性定义了输入权值的初始化函数,其属性值为表示权值初始化函数名称的字符串。(3) learn:该属性定义了输入权值在训练过程中是否进行调整,其属性值为0或1。learnFcn:该属性定义了输入权值的学习函数,其属性值为表示权值学习函数名称的字符串。learnParam:该属性定义了权值学习函数的参数,其属性值为各参数构成的结构体。(6)size:该属性定义了每个输入权值矩阵(netWi,j)的大小,其属性值是一个具有两元素的行矢量,并且是只读变量,其中第一个元素等于该层神经元的个数(net.layersi.size),第二个元素等于输入延迟矢量的长度(length(net.inputWeightsi,j.delays)和输入矢量维数(net.inputsj.size)的乘积。userdata:该属性用于存储用户信息。(8)weightFcn:该属性定义了输入权值的加权函数,其属性值为表示加权函数名称的字符串,该函数确定了输入和权值以何种方式组合在一起构成神经元的加权输入量。7各层网络权值(layerWeights)网络各层间的网络权值net.layerWeights为NxN维的单元数组,其中net.layerWeightsi,j为从网络第j层到第i层的网络权值的属性。网络权值具有以下属性:(1) delays:该属性定义了网络第j层的输出送入到网络第i层之前要经过的各延迟拍数,其属性值是由0或正整数构成的行矢量。(2) initFcn:该属性定义了权值的初始化函数,其属性值为表示权值初始化函数名称的字符串。(3) learn:该属性定义了权值在训练过程中是否进行调整,其属性值为0或1。(4) learnFcn:该属性定义了权值的学习函数,其属性值为表示权值学习函数名称的字符串。learnParam:该属性定义了权值学习函数的参数,其属性值为各参数构成的结构体。size:该属性定义了权值矩阵(net.LWi,j)的大小,其属性值是一个具有两元素的行矢量,并且为只读变量,其中第一个元素等于第i层神经元的个数(net.layersi.size),第二个元素等于两层网络之间延迟矢量的长度(length(net.layerWeightsi,j.delays)和第j层神经元个数(net.layersj.size)的乘积。userdata:该属性用于存储用户信息。(8)weightFcn:该属性定义了加权函数,其属性值为表示加权函数名称的字符串。培训职能。trainb-批具有重量与偏见学习规则的培训。trainbfg-的BFGS拟牛顿倒传递。trainbr-贝叶斯规则的BP算法。trainbu-与重量与偏见一批无监督学习规则的培训。trainbuwb-与体重无监督学习规则与偏见一批培训。trainc-循环顺序重量/偏见的培训。traincgb-共轭鲍威尔比尔重新启动梯度反向传播。traincgf-共轭弗莱彻-里夫斯更新梯度反向传播。traincgp-共轭波拉克-Ribiere更新梯度反向传播。traingd-梯度下降反向传播。traingda-具有自适应LR的反向传播梯度下降。traingdm-与动量梯度下降。traingdx-梯度下降瓦特/惯性与自适应LR的反向传播trainlm-采用Levenberg-马奎德倒传递。trainoss-一步割线倒传递。trainr-随机重量/偏见的培训。trainrp-RPROP反向传播。trainru-无监督随机重量/偏见的培训。火车-顺序重量/偏见的培训。trainscg-规模化共轭梯度BP算法。绘图功能。plotconfusion-图分类混淆矩阵。ploterrcorr-误差自相关时间序列图。ploterrhist-绘制误差直方图。plotfit-绘图功能适合。plotinerrcorr-图输入错误的时间序列的互相关。plotperform-小区网络性能。plotregression-线性回归情节。plotresponse-动态网络图的时间序列响应。plotroc-绘制受试者工作特征。plotsomhits-小区自组织图来样打。plotsomnc-小区自组织映射邻居的连接。plotsomnd-小区自组织映射邻居的距离。plotsomplanes-小区自组织映射重量的飞机。plotsompos-小区自组织映射重量立场。plotsomtop-小区自组织映射的拓扑结构。plottrainstate-情节训练状态值。plotwb-图寒春重量和偏差值图。列出其他神经网络实现的功能。nnadapt-适应职能。nnderivative-衍生功能。nndistance-距离函数。nndivision-除功能。nninitlayer-初始化层功能。nninitnetwork-初始化网络功能。nninitweight-初始化权函数。nnlearn-学习功能。nnnetinput-净输入功能。nnperformance-性能的功能。nnprocess-处理功能。nnsearch-线搜索功能。nntopology-拓扑结构的功能。nntransfer-传递函数。nnweight-重量的功能。示例,数据集和其他资源nndemos-神经网络工具箱的示威。nndatasets-神经网络工具箱的数据集。nntextdemos-神经网络设计教科书的示威nntextbook-神经网络设计教科书的资讯。
展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 商业管理 > 商业计划


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!