人工神经网络论文

上传人:仙*** 文档编号:36038171 上传时间:2021-10-29 格式:DOC 页数:25 大小:502KB
返回 下载 相关 举报
人工神经网络论文_第1页
第1页 / 共25页
人工神经网络论文_第2页
第2页 / 共25页
人工神经网络论文_第3页
第3页 / 共25页
点击查看更多>>
资源描述
基于神经网络的地震预测人 工 神 经 网 络学 号: 080081002007 学生所在学院: 研究生学院学 生 姓 名: 李建建任 课 教 师: 聂 文 滨 教师所在学院: 自动化学院2009年11月目 录第一部分: 绪论41.1人工神经网络的定义41.2人工神经网络的基本原理41.3生物神经元41.4人工神经元模型51.5人工神经网络模型61.6.常见神经元响应函数81.7.神经网络基本学习算法8第二部分:反向传播网络102.1 BP网络102.1.1BP网络主要应用:102.1.2BP网络特点102.1.3多层BP网络简介102.2三层BP网络112.2.1三层BP网络结构图112.2.2三层BP网络学习算法112.2.3三层BP网络设计需要考虑的问题11第三部分:自适应竞争神经网络133.1自组织网络133.1.1网络类型133.1.2网络学习规则133.2竞争网络143.2.1网络结构143.2.2竞争网络原理143.2.3网络工作方式153.2.4 网络训练153.2.5竞争网络的局限性15第四部分:地震预报的MATLAB实现154.1基于人工神经网络的地震预测研究背景154.2模型的建立164.3自适应竞争网络对地震等级进行预测174.3.1数据处理174.3.2自适应竞争网络设计174.4BP网络对地震的大小进行预测184.4.1数据处理184.4.2BP网络的设计19第五部分:作业21第一部分: 绪论1.1人工神经网络的定义人工神经网络的定义不是统一的,T.Koholen对人工神经网络的定义“人工神经网络是由 具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应。” 1.2人工神经网络的基本原理人工神经网络(articles neural network,ANN)结构和工作机理基本上以人脑的组织结构(大脑神经元网络)和活动规律为背景的,它反映了人脑的某些基本特征,但并不是要对人脑部分的真实再现,可以说它是某种抽象、简化或模仿。1.3生物神经元神经元是大脑处理信息的基本单元,人脑大约由1011个神经元组成,神经元互相连接成神经网络。神经元以细胞体为主体,由许多向周围延伸的不规则树枝状纤维构成的神经细胞,其形状很像一棵枯树的枝干。主要由细胞体、树突、轴突和突触(Synapse,又称神经键)组成 。图1.1 生物神经元的示意图生物神经元传递信息的过程为多输入、单输出,神经元各组成部分的功能来看,信息的处理与传递主要发生在突触附近,当神经元细胞体通过轴突传到突触前膜的脉冲幅度达到一定强度,即超过其阈值电位后,突触前膜将向突触间隙释放神经传递的化学物质,突触有两种类型,兴奋性突触和抑制性突触。前者产生正突触后电位,后者产生负突触后电位。1.4人工神经元模型 1通用模型P1P2PnW1W2Wna f2求和操作3响应函数y=(s)1.5人工神经网络模型1前向网络 (a) 2从输出到输入有反馈的前向网络 (b)3用来存储某种模式序列,层内互连前向网络 (c)4限制层内同时动作的神经元;分组功能相互结合型网络 (d)1.6.常见神经元响应函数a)阈值单元(s)= (b)线性单元y=(s)=s(c)(d)非线性单元:Sigmoid函数 1.7.神经网络基本学习算法1.7.1有教师学习(监督学习)神经网络(学习系统)误差分析误差信号e t期望输出P输入a 期望输出1.7.2无教师学习(无监督学习)神经网络(学习系统)P输入a 期望输出1.7.3强化学习(再励学习)神经网络(学习系统)外部环境评价信息P输入a 期望输出 第二部分:反向传播网络2.1 BP网络反向传播网络(Back-Propagation Network,简称BP网络)是将W-H学习规则一般化,对非线性可微分函数进行权值训练的多层网络 。权值的调整采用反向传播(Back-propagation)的学习算法,它是一种多层前向反馈神经网络,其神经元的变换函数是S型函数。输出量为0到1之间的连续量,它可实现从输入到输出的任意的非线性映射。2.1.1BP网络主要应用:(1)函数逼近:用输入矢量和相应的输出矢量训练一个网络逼近一个函数(2)模式识别和分类:用一个特定的输出矢量将它与输入矢量联系起来;把输入矢量以所定义的合适方式进行分类;(3)数据压缩:减少输出矢量维数以便于传输或存储(4)具有将强泛化性能:使网络平滑地学习函数,使网络能够合理地响应被训练以外的输入 泛化性能只对被训练的输入输出对最大值范围内的数据有效,即网络具有内插值特性,不具有外插值性。超出最大训练值的输入必将产生大的输出误差2.1.2BP网络特点(1)输入和输出是并行的模拟量(2)网络的输入输出关系是各层连接的权因子决定,没有固定的算法(3)权因子通过学习信号调节。学习越多,网络越聪明(4)隐含层越多,网络输出精度越高,且个别权因子的损坏不会对网络输出产生大的影响只有当希望对网络的输出进行限制,如限制在0和1之间,那么在输出层应当包含S型激活函数。在一般情况下,均是在隐含层采用S型激活函数,而输出层采用线性激活函数。2.1.3多层BP网络简介多层BP网络是一种具有三层或三层以上的多层神经网络,每一层都由若干个神经元组成,如图 2-1所示,它的左、右各层之间各个神经元实现全连接,即左层的每个神经元与右层的每个神经元都由连接,而上下神经元无连接。ri1ri2rimO1O2Om2-1多层BP网络BP网络按有教师学习方式进行训练,当一对学习模式提供给网络以后,其神经元的激活值将从输入层经中间层向输出层传播,在输出层的各神经元输出对应于输入模式的网络响应。然后,按减少希望输出与实际输出误差的原则,从输出层经中间层,最后回到输入层逐层修正个连接权。由于这种修正过程是从输出到输入逐层进行的,所以称它为“误差逆传播算法”。随着这种误差逆传播训练的不断进行,网络对输入模式响应的正确率也将不断提高。由于BP网络有处于中间位置的隐含层,并有相应的学习规则可循,可训练这种网络,使其具有对非线性模式的识别能力。图 2-2用于多指标综合评价的三层BP神经网络2.2三层BP网络2.2.1三层BP网络结构图图 2-2三层BP网络结构图2.2.2三层BP网络学习算法为了使BP网络具有某种功能,完成某项任务,必须调整层间连接权值和节点阈值,使所有样品的实际输出和期望输出之间的误差稳定在一个较小的值以内。在训练BP网络算法中,误差反向传播算法是最有效最常用的一种方法。BP网的学习过程主要有以下四个部分组成。1) 输入模式顺传播(输入模式由输入层经中间层向输出层传播计算)。2) 输出误差逆传播(输出的误差由输出层经中间层传向输入层)。3) 循环记忆训练(模式顺传播与误差逆传播的计算过程反复交替循环进行)。4) 学习结果判别(判定全局误差是否趋向极小值)。2.2.3三层BP网络设计需要考虑的问题在进行BP网络的设计时,应从网络的层数、每层中的神经元数、初始值及学习速率等几个方面考虑。1) 网络的层数已经证明:三层BP网络可以实现多维单位立方体Rm到Rn 的映射,即能够逼近任何有理函数。这实际上给了一个设计BP网络的基本原则。增加层数可以更进一步降低误差,提高精度,但同时也使网络复杂化,从而增加网络权值的训练时间。而误差精度的提高实际上可以通过增加隐含层的神经元数目来获得,其训练结果也比增加层数更容易观察和调整。所以一般情况下,应优先考虑增加隐含层的神经元个数。2) 隐含层的神经元数网络训练精度的提高,可以通过采用一个隐含层而增加神经元数的方法来获得。这在结构的实现上要比增加更多的隐含层简单的多。在具体设计时,比较实际的做法是隐含层取输入层的两倍,然后适当地加上一点余量。评价一个网络设计的好坏,首先是它的精度,再是它的训练时间。时间包含两层含义:一层是循环次数,二是每一次循环所花的时间。3) 初值权值的选取由于系统是非线性的,初始值的选取对于学习是否达到局部最小,是否能够收敛以及训练时间的长短有很大关系。初始值过大、过小都会影响学习速度,因此权值的初始值应选为均匀分布的小数经验值,一般取初始权值在(-1,1)之间的随机数,也有选取在-2.4/F, 2.4/F之间的随机数的,其中F为输入特征个数。为避免每一步权值的调整方向是同向的,应将初始值设为随机数。4) 学习速率学习速率决定每一次循环中所产生的权值变化量。快的学习速率可能导致系统的不稳定。但慢的学习速率导致较长的训练时间,可能收敛很满,不过能保证网络的误差值跳出误差表面的低谷而最终趋于最小误差值。所以在一般情况下,倾向于选择较慢的学习速率以保证系统的稳定性。学习速率的选择范围在0.01-0.8之间。如同初始权值的选取过程一样,在一个神经网络的设计中,网络要经过几个不同的学习速率的训练,通过观察每一次训练后的误差平方和e2 的下降速率来判断所选定的学习速率是否合适,若e2下降很快,则说明学习速率合适,若e2出现振荡现象,则说明学习速率过快。对于每一个具体网络都存在一个合适的学习速率,但对于较复杂网络,在误差曲面的不同部位可能需要不同的学习速率。为了减少寻找学习速率的训练次数和训练时间,比较合适的方法是采用变化的自适应学习速率,使网络的训练在不同的阶段自动设置不同的学习速率。一般说,学习速率越快,收敛越快,但容易振荡;而学习速率越慢,收敛越慢。5) 期望误差的选取在网络的训练过程中,期望误差值也应当通过对比训练后确定一个合适的值。所谓“合适”,是相对所需要的隐含层的节点数来确定,因为较小的期望误差要靠增加隐含层的节点以及训练时间来获得。一般情况下,作为对比,可以同时对两个不同期望误差的网络进行训练,最后通过综合因素的考虑来确定采用其中一个网络。尽管含有隐含层的神经网络能实现任意连续函数的逼近,但在训练过程中如果一些参数选取合适,可以加快神经网络的训练,缩短神经网络的训练时间和取得满意的训练结果。对训练过程影响较大的是权系数的初值、学习速率等。1) 调整量与误差成正比,即误差越大,调整的幅度就越大。2) 调整量与输入值的大小成正比,由于输入值越大,在这次学习过程中就显得越活跃,所以与其相连的权值的调整幅度就应该越大。3) 调整量与学习系数成正比。通常学习系数在0.01-0.8之间,为使整个学习过程加快,又不引起振荡,可采用变学习率的方法,即在学习初期取较大的学习系数,随着学习过程的进行会逐渐减少其值。第三部分:自适应竞争神经网络3.1自组织网络自组织神经网络可以自动向环境学习,不需要教师指导;而前面所讲到的前向网络、反馈网络均需要教师指导学习与BP网络相比,这种自组织自适应的学习能力进一步拓宽了人工神经网络在模式识别、分类方面的应用思想基础生物的神经网络中,如人的视网膜中,存在着一种“侧抑制”现象,即一个神经细胞兴奋后,通过它的分支会对周围其他神经细胞产生抑制借鉴上述思想,自组织网络能够对输入模式进行自组织训练和判断,并将输入模式分为不同的类型。3.1.1网络类型1.需要训练的网络(1)自组织竞争网络适用与具有典型聚类特性的大量数据的辨识(2)Kohunen网络训练学习后使网络权值分布与输入样本概率密度分布相似可以作为样本特征检测仪,在样本排序、样本分类及样本检测方面有广泛应用(3)对传网络(Counter Propagation Network)在功能上用作统计最优化和概率密度函数分析可用于图像处理和统计分析(4)神经认知机2.不需要训练(1)自适应共振理论(ART)分类的类型数目可自适应增加。3.1.2网络学习规则1.格劳斯贝格(SGrossberg)提出了两种类型的神经元模型:内星与外星,用以来解释人类及动物的学习现象(1)内星可以被训练来识别矢量(2)外星可以被训练来产生矢量2.基本学习规则(1)内星学习规则可以通过内星及其学习规则可训练某一神经元节点只响应特定的输入矢量P,它借助于调节网络权矢量W近似于输入矢量P来实现的。单内星中对权值修正的格劳斯贝格内星学习规则为:内星神经元联接强度的变化w1j与输出成正比的。如果内星输出a被某一外部方式而维护高值时,通过不断反复地学习,趋使w1j逐渐减少,直至最终达到w1jpj,从而使内星权矢量学习了输入矢量P,达到了用内星来识别一个矢量的目的另一方面,如果内星输出保持为低值时,网络权矢量被学习的可能性较小,甚至不能被学习(2)外星学习规则外星网络的激活函数是线性函数。它被用来学习回忆一个矢量,其网络输入P也可以是另一个神经元模型的输出。外星被训练来在一层s个线性神经元的输出端产生一个特别的矢量A对于一个外星,其学习规则为:与内星不同,外星联接强度的变化w是与输入矢量P成正比的当输入矢量被保持高值,比如接近1时,每个权值wij将趋于输出ai值,若pj1,则外星使权值产生输出矢量,当输入矢量pj为0时,网络权值得不到任何学习与修正。(3)科荷伦学习规则科荷伦学习规则是由内星规则发展而来的.科荷伦规则为:wij=lr*(pj-wij),科荷伦学习规则实际上是内星学习规则的一个特例,但它比采用内星规则进行网络设计要节省更多的学习,因而常常用来替代内星学习规则。3.2竞争网络3.2.1网络结构竞争网络由单层神经元网络组成,其输入节点与输出节点之间为全互联结。因为网络在学习中的竞争特性也表现在输出层上,所以在竞争网络中把输出层又称为竞争层,而与输入节点相连的权值及其输入合称为输入层。图3-1为竞争网络的结构图。3-1竞争网络的结构图3.2.2竞争网络原理 设网络的输入矢量为:Pp1 p2 pr,T对应网络的输出矢量为:Aa1 a2 asT由于竞争网络中含有两种权值,所以其激活函数的加权输入和也分为两部分:来自输入节点的加权输入和N与来自竞争层内互相抑制的加权输入和G。对于第i个神经元有来自输入节点的加权输入和为ni=来自竞争层内互相抑制的加权输入和为对于第i个输出神经元,假设竞争获胜,则有ak=1,k=i,从而ak=0,k=1,2,s,ki, 如果竞争后第i个节点“输”了,而“赢”的节点为l,则有ak=1,k=l,从而ak=0,k=1,2,s,kl, 3.2.3网络工作方式输入矢量经过网络前向传递,网络竞争,激活函数为硬限制二值函数,竞争网络的激活函数使加权输入和为最大的节点赢得输出为1,而其他神经元的输出皆为0。权值调整(可以处于训练与工作期间)竞争网络在经过竞争而求得获胜节点后,则对与获胜节点相连的权值进行调整。调整权值的目的是为了使权值与其输入矢量之间的差别越来越小,从而使训练后的竞争网络的权值能够代表对应输入矢量的特征。3.2.4 网络训练竞争网络修正权值的公式为wij=lr*(pj-wij) 式中lr为学习速率,且0lr1,一般的取值范围为0.01-0.3,pj为经过归一化处理后的输入。层中每个最接近输入矢量的神经元,通过每次权值调整而使权值矢量逐渐趋于这些输入矢量。从而竞争网络通过学习而识别了在网络输入端所出现的矢量,并将其分为某一类。竞争网络的学习和训练过程,实际上是对输入矢量的划分聚类过程,使得获胜节点与输入矢量之间的权矢量代表获胜输入矢量,竞争网络的输入层节点r由已知输入矢量决定的。但竞争层的神经元数s由设计者确定,一般情况下,可根据输入矢量的维数及估计,再适当地增加些数目来确定。3.2.5竞争网络的局限性(1)竞争网络比较适合用于具有大批相似数组的分类问题,竞争学习网络的局限性,竞争网络适用于当具有典型聚类特性的大量数据的辨识。(2)当遇到大量的具有概率分布的输入矢量时,竞争网络就无能为力了,这时可采用科荷伦网络来解决此类问题。第四部分:地震预报的MATLAB实现4.1基于人工神经网络的地震预测研究背景地震预测是地理问题研究领域中的一个重要的课题,准确的地震预测可以帮助人们及时采取有效的措施,降低人员伤亡好经济损失,引发地震的相关因素很多,器产生机理的复杂性,孕育过程的非线性好认识问题的困难性使得人们很难建立较完善的物理理论模型。对于有关的物理参数加以精确的描述,只能借助一些观测到得相关现象进行分析,总结好推理。 由于地震活动时间、空间上的随机性和复杂性,地震研究仍是当今一大科学难题。对地震灾害的评价和预测工作还停留在经验性阶段,其过程实质上是对以往震例分析总结和外推应用的过程。上世纪80年代提出的人工神经网络(Artificial Neural Network缩写为ANN)是在物理机制上模拟人脑信息处理机制的信息系统,它不但具有处理数值数据的一般计算能力,而目还具有处理知识的思维、学习、记忆能力。它采用类似于“黑箱”的方法,通过学习和记忆找出输入输出变量之间的非线性关系。把这种人工神经网络应用于具有极大模糊性和复杂性的地震灾害预测研究中有很大的优越性。本文中利用大量地震数据,建立了非线性人工神经网络。经过网络训练,获得了潜在地震灾害预测系统。同时,通过模拟预测,分析了人工神经网络在潜在地震灾害预测中的可能性和有效性。相对于传统的预报方法,神经网络在处理这方面的问题中有独特的优势,主要表现在以下几个方面:(1) 容错能力强。由于神经网络的知识信息采用分布式存储,个别元件损坏不会引起输出错误,是就使得预测过程中容错能力很强,可靠性高。(2) 预测速度快。训练好的网络在对未知样本进行预测时仅需要少量的加法好乘法,使得其运算速度明显快于其他方法。(3) 避开了特殊因素与判别目标的复杂关系描述,特别是公式的表述。网络可以自己学习好记忆各输入和输出量之间的关系。4.2模型的建立以我国某城市以及其邻近地区,自1997年到2009年地震常发地区的地震资料作为样本来源,实现基于神经网络的地震预测。根据这些地震资料,提取出11个预报因子和实际发生的最大地震级M作为输入和目标向量。预报因子为:1) 次数最多的地震级2) b值3) 平均地震级数4) 平均纬度5) 平均纬度偏差6) 平均经度7) 平均经度偏差8) ML大于115的地震次数9) 相邻两年的地震次数差,当绝对值超过均值的一个数量级时,先除以10再取整10) 相邻的两年最大地震的地震级数差,当其为负数时作乘以0.1处理11) 最大地震震级表1地震活动指标年值年份次数最多的震级b值平均震级纬度偏差经度偏差平均纬度平均经度次数次数差震级差最大震级19970.31250.450.49020.76390.930.46430.17650.04730.50.13.919980.31250.490.33330.86110.57000.858112.2.46.3199900.650.76471.00000.960.17860.05880.24620.030.283.5200100.600.01960.88890.940.32140.17650.10810.20.43.920020.18750.500.31370.59720.800.17860.35290.14191.01.15.0200300.6200.81940.961.00000.235300.20.153.520041.00000.361.000000.530.17861.00001.000015.02.86.320050.50000.430.56860.15280.70.14290.94121.000000.224.120060.18750.420.64710.79171.120.28570.58820.04050.021.05.120070.50000.430.60780.65280.890.32140.64710.040500.35.420080.31250.430.60780.83331.050.42860.58820.08781.000.144.020090.31610.450.50000.78531.000.44240.18250.05010.40.124.14.3自适应竞争网络对地震等级进行预测4.3.1数据处理(1)输入量P=0.3125 0.3125 0 0 0.1875 0 1.0000 0.5000 0.1875 0.5000 ;% 次数最多的地震级 0.45 0.49 0.65 0.60 0.50 0.62 0.36 0.43 0.42 0.43 ;% b值 0.4902 0.3333 0.7647 0.0196 0.3137 0 1.0000 0.5686 0.6471 0.6078 ;% 平均地震级数 0.7639 0.8611 1.0000 0.8889 0.5972 0.8194 0 0.1528 0.7917 0.6528 ;% 平均纬度 0.93 0.57 0.96 0.94 0.80 0.96 0.53 0.70 1.12 0.89;% 平均纬度偏差 0.4643 0 0.1786 0.3214 0.1786 1.0000 0.1786 0.1429 0.2857 0.3214;% 平均经度 0.1765 0 0.0588 0.1765 0.3529 0.2353 1.0000 0.9412 0.5882 0.6471;% 平均经度偏差 0.0473 0.8581 0.2462 0.1081 0.1419 0 1.0000 1.0000 0.0405 0.0405;% ML大于115的地震数 0.5 12 0.03 0.2 1.0 0.2 15 0 0.02 0;% 相邻两年的地震次数差。 0.1 2.4 0.28 0.4 1.1 0.15 2.8 0.22 1.0 0.30;% 相邻的两年最大地震的地震级数差。 3.9 6.3 3.5 3.9 5.0 3.5 6.3 4.1 5.1 5.4; % 最大地震震级(2)数据进行归一化for i=1:size(P,2) odpa(i,:)=(P(i,:)-min(P(i,:)/(max(P(i,:)-min(P(i,:); endP=odpa;%odpa只是一个中间变量4.3.2自适应竞争网络设计(1)建立自适应竞争经网络%创建竞争性网络,竞争层神经元个数为3,学习速率为0.1 net2=newc(minmax(odp),3,0.1);(2)初始化% 对网络进行初始化net2=init(net2);(3)网络训练net2.trainParam.epochs=100;net2.trainParam.show=50;net2.trainParam.goal=0.001;%对网络进行训练net2=train(net2,odp);(4)网络测试%对网络进行测试ytso=sim(net2,odtest);预测结果ytso =3 3;(5)预测分析根据实际数据,我们可以把地震划分级别。比喻本文,第一类对应为“一般级别”,第二类对应为“中等级别”,第三类对应为“严重级别。需要特别说明的是,不是每次级别对应都与上面相同。应为初始化的不同,可能出现其他对应情况。4.4BP网络对地震的大小进行预测4.4.1数据处理(1)输入量P=0.3125 0.3125 0 0 0.1875 0 1.0000 0.5000 0.1875 0.5000 ;% 次数最多的地震级 0.45 0.49 0.65 0.60 0.50 0.62 0.36 0.43 0.42 0.43 ;% b值 0.4902 0.3333 0.7647 0.0196 0.3137 0 1.0000 0.5686 0.6471 0.6078 ;% 平均地震级数 0.7639 0.8611 1.0000 0.8889 0.5972 0.8194 0 0.1528 0.7917 0.6528 ;% 平均纬度 0.93 0.57 0.96 0.94 0.80 0.96 0.53 0.70 1.12 0.89;% 平均纬度偏差 0.4643 0 0.1786 0.3214 0.1786 1.0000 0.1786 0.1429 0.2857 0.3214;% 平均经度 0.1765 0 0.0588 0.1765 0.3529 0.2353 1.0000 0.9412 0.5882 0.6471;% 平均经度偏差 0.0473 0.8581 0.2462 0.1081 0.1419 0 1.0000 1.0000 0.0405 0.0405;% ML大于115的地震数 0.5 12 0.03 0.2 1.0 0.2 15 0 0.02 0;% 相邻两年的地震次数差。 0.1 2.4 0.28 0.4 1.1 0.15 2.8 0.22 1.0 0.30;% 相邻的两年最大地震的地震级数差。 ;(2)输出量T=3.9 6.3 3.5 3.9 5.0 3.5 6.3 4.1 5.1 5.4 % 最大地震震级(3)数据进行归一化本文中只对最大震级这一项数据进行归一化。odpa=表1中的数值for i=1:11 odpa(i,:)=(odpa(i,:)-min(odpa(i,:)/(max(odpa(i,:)-min(odpa(i,:); end odp=odpa;也可以直接对表一中的最大震级这一项数据进行归一化。4.4.2BP网络的设计(1)隐含层的确定输入神经元的个数M=11,输出神经元的个数n=1;则隐含层数为:(2)建立BP神经网络net=newff(minmax(P),5 1,tansig,logsig,traingdx);%该函数一梯度下降法进行学习,并且学习的速率是自适应的。(3)网络训练net.trainParam.epochs=1000;% 最训练次数(默认值100)net.trainParam.goal=1e-4;% 训练误差性能指标(MES)(默认值0)net.trainParam.lr=0.03;% 学习效率(默认值0.15)net.trainParam.max_fail=5;% 最大确认失败数(默认值5)net.trainParam.min_grad=1e-10;% 最小执行梯度(默认值1e-10)net.trainParam.show=100;% 显示循环间隔数(默认值25)net.trainParam.time=inf;% 最大训练时间(默认值inf)net=train(net,P,T);(4) 训练结果TRAINGDX, Epoch 0/1000, MSE 0.382363/0.0001, Gradient 0.271082/1e-010TRAINGDX, Epoch 100/1000, MSE 0.0405982/0.0001, Gradient 0.0147038/1e-010TRAINGDX, Epoch 200/1000, MSE 0.000489786/0.0001, Gradient 0.00201792/1e-010TRAINGDX, Epoch 300/1000, MSE 0.000158661/0.0001, Gradient 0.000794457/1e-010TRAINGDX, Epoch 400/1000, MSE 0.000101621/0.0001, Gradient 0.000515355/1e-010TRAINGDX, Epoch 413/1000, MSE 9.99122e-005/0.0001, Gradient 0.000283869/1e-010TRAINGDX, Performance goal met.(5) 训练误差曲线图(7)网络训练的结果 Rtest=4.2577 4.1719;(8)预测结果分析 向内预测,误差很小,向外预测,有一定的误差,但在允许的范围内。第五部分:作业1. 试分析下列离散神经网络的功能。(感知器部分)输入信息矢量取值1或-1,突触连接强度,一种偏置加权系数为,试讨论时网络实现功能。 解:当0=n-1,网络实现的功能是:使输入矢量转化成1输出;当0=1-n,网络实现的功能是:使输入矢量转化成0输出;当0=0, 网络实现的功能是:使输入矢量不做转化输出。2. 某传感器,将四个物体分为2类,其中一类物体对应的目标值为1,另一类物体对应目标值为0.请画出感知器结构图,并用matlab等语言编程序求出合适的权系数Wji。,。画出分界线及各点位置。(感知器部分)解:(1)感知器结构图(2)权系数WjiW=-2.1 -0.5;B=0;(3)分界线及各点位置3. 多神经元传感器的设计。求合适权系数,神经网络的结构图,画出分界线及各点位置。(感知器部分)解:(1)当初始化为 W0 = -0.5481 0.5207; 0.1596 0.0596B0 = 0.2811; -0.5819则合适的权系数为:W = -3.4481 4.2207; -0.8404 -1.8404B = -0.7189 1.4181(2) 神经网络的结构图 (3) 分界线及各点位置4. 利用BP网预测城市用水量。BP网结构:输出神经元个数M3,输入分量个数n4,则隐含层神经元个数,现给出训练样本 (BP网部分)t40.73110.73120.73220.73430.73220.73430.745850.73120.73220.73430.74580.73430.74580.763560.73220.73430.74580.76350.74580.76350.791170.73430.74580.76350.79110.76350.79110.792280.74580.76350.79110.79220.79110.79220.8014当时训练结束。年份19871988198919901991原始值236.48236.64237.85240.37237.80问题1:matlab画出该算法的收敛曲线。2:经过多少次训练结束。解:(1) 收敛曲线(2)训练了145次结束。5. 对于n=3的离散Hopfield网络,输入样本模式为,=1,试判断这三个输入模式是否为网络的吸引子。(霍尔菲尔网部分)解:由题意得:记忆矢量为X=x1 x2 x3= 1 -1 1; 1 -1 -1; -1 1 1;根据DHNN的海布学习规则: 在本题中因为=1,q=n=3,T=X则权值设计公式变为: 验证:将目标矢量作为输入矢量带入网络中可以得到:A1=sgn(Wx1)=x1A2=sgn(Wx2)=x2A3=sgn(Wx3)= 所以三个输入模式不是为网络的吸引子。第 25 页WB24X141+ f()T感知器结构图14p1p21a1a2网络结构图P1P2PnW1W2Wna f图 2-1人工神经元模型
展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > 工作计划


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!