matlab神经网络实例(超级简单)(共6页)

上传人:n85ho7****4h85bh 文档编号:51675679 上传时间:2022-01-28 格式:DOC 页数:6 大小:130.50KB
返回 下载 相关 举报
matlab神经网络实例(超级简单)(共6页)_第1页
第1页 / 共6页
matlab神经网络实例(超级简单)(共6页)_第2页
第2页 / 共6页
matlab神经网络实例(超级简单)(共6页)_第3页
第3页 / 共6页
点击查看更多>>
资源描述
精选优质文档-倾情为你奉上介绍神经网络算法在机械结构优化中的应用的例子(大家要学习的时候只需要把输入输出变量更改为你自己的数据既可以了,如果看完了还有问题的话可以加我微博“极南师兄”给我留言,与大家共同进步)。把一个结构的8个尺寸参数设计为变量,如上图所示,对应的质量,温差,面积作为输出。用神经网络拟合变量与输出的数学模型,首相必须要有数据来源,这里我用复合中心设计法则构造设计点,根据规则,八个变量将构造出81个设计点。然后在ansys workbench中进行81次仿真(先在proe建模并设置变量,将模型导入wokbench中进行相应的设置,那么就会自动的完成81次仿真,将结果导出来exceel文件)Matlab程序如下P=202.5614.9 16.5614.9 16.5152.5614.9 16.5614.9 16.5252.5614.9 16.5614.9 16.5201614.9 16.5614.9 16.5204614.9 16.5614.9 16.5202.5214.9 16.5614.9 16.5202.51014.9 16.5614.9 16.5202.561016.5 614.9 16.5202.5619.816.5614.916.5202.5614.910614.916.5202.5614.923614.916.5202.5614.916.5214.916.5202.5614.916.51014.916.5202.5614.916.561016.5202.5614.916.5619.816.5202.5614.916.5614.910202.5614.916.5614.92317.1.4.12.13.4.12.19.22.1.4.12.13.4.12.13.17.3.4.12.13.4.17.19.22.3.4.12.13.4.17.13.17.1.7.12.13.4.17.19.22.1.7.12.13.4.17.13.17.3.7.12.13.4.12.19.22.3.7.12.13.4.12.13.17.1.4.17.13.4.17.13.22.1.4.17.13.4.17.19.17.3.4.17.13.4.12.13.22.3.4.17.13.4.12.19.17.1.7.17.13.4.12.13.22.1.7.17.13.4.12.19.17.3.7.17.13.4.17.13.22.3.7.17.13.4.17.19.17.1.4.12.19.4.17.13.22.1.4.12.19.4.17.19.17.3.4.12.19.4.12.13.22.3.4.12.19.4.12.19.17.1.7.12.19.4.12.13.22.1.7.12.19.4.12.19.17.3.7.12.19.4.17.13.22.3.7.12.19.4.17.19.17.1.4.17.19.4.12.19.22.1.4.17.19.4.12.13.17.3.4.17.19.4.17.19.22.3.4.17.19.4.17.13.17.1.7.17.19.4.17.19.22.1.7.17.19.4.17.13.17.3.7.17.19.4.12.19.22.3.7.17.19.4.12.13.17.1.4.12.13.7.17.13.22.1.4.12.13.7.17.19.17.3.4.12.13.7.12.13.22.3.4.12.13.7.12.19.17.1.7.12.13.7.12.13.22.1.7.12.13.7.12.19.17.3.7.12.13.7.17.13.22.3.7.12.13.7.17.19.17.1.4.17.13.7.12.19.22.1.4.17.13.7.12.13.17.3.4.17.13.7.17.19.22.3.4.17.13.7.17.13.17.1.7.17.13.7.17.19.22.1.7.17.13.7.17.13.17.3.7.17.13.7.12.19.22.3.7.17.13.7.12.13.17.1.4.12.19.7.12.19.22.1.4.12.19.7.12.13.17.3.4.12.19.7.17.19.22.3.4.12.19.7.17.13.17.1.7.12.19.7.17.19.22.1.7.12.19.7.17.13.17.3.7.12.19.7.12.19.22.3.7.12.19.7.12.13.17.1.4.17.19.7.17.13.22.1.4.17.19.7.17.19.17.3.4.17.19.7.12.13.22.3.4.17.19.7.12.19.17.1.7.17.19.7.12.13.22.1.7.17.19.7.12.19.17.3.7.17.19.7.17.13.22.3.7.17.19.7.17.19.;%注意因为本人做了81组仿真试验,这里的矩阵后面有转置符号,在神经网络模型中,输入P的是8X81的矩阵(把程序复制过来之后格式没对齐,大家自己调整一下啦),对应的下面的输出T的是3x81的矩阵。 T=150.7492.2849913.466165.1482.640219.6525138.0611.9297617.2795149.4462.2570413.766151.6422.3129313.166147.1462.2294714.062154.1312.340512.87144.1642.257613.76155.8892.3123713.172150.6462.2849913.466150.6212.2849913.466147.0912.2294714.062154.1662.340512.87144.2892.257613.76155.5532.3123713.172150.6532.2849913.466150.7042.2849913.466148.4242.3760912.4879134.9522.0191716.3197154.2642.4186512.0311141.2072.0686415.7885156.4922.4405111.7964142.6712.0835815.6282152.4732.4466411.7306138.3292.0966315.488159.6962.4125212.0969145.9472.0555915.9287155.4012.4186512.0311141.732.0686415.7885157.4082.4585811.6024144.12.1016615.4341163.4832.5011411.1455150.4832.1511414.9029154.1112.394312.2924140.4182.0373816.1242149.2532.4004412.2266135.9972.0504315.984151.5182.422311.9919137.2572.0653715.8237158.052.4648511.535143.7392.1148515.2925153.6412.394312.2924140.7232.0373816.1242158.9562.4368611.8355146.9332.0868515.593160.7312.476811.4068149.3152.1198715.2386156.8422.4829311.341145.172.1329215.0984156.9422.4585811.6024143.9482.1016615.4341152.5032.4466411.7306138.4862.0966315.488154.842.468511.4959139.7952.1115715.3276161.5742.5291410.845147.5022.1791314.6024156.9752.4405111.7964143.062.0835815.6282162.6882.5011411.1455150.4832.1511414.9029164.5882.5410810.7168153.0242.1841514.5485160.9082.5291410.845147.7942.1791314.6024151.4372.422311.9919137.3862.0653715.8237156.9792.4829311.341144.9152.1329215.0984159.1672.5047911.1063146.2292.1478614.9381155.6992.4928511.2345140.7672.1428414.992161.7822.476811.4068149.1242.1198715.2386157.8192.4648511.535143.82.1148515.2925159.5532.5047911.1063146.1862.1478614.9381166.5122.5654210.4554153.8962.2154214.2129; % T 为目标矢量PP,ps=mapminmax(P,-1,1); %把P归一化处理变为pp,在范围(-1,1)内%把T归一化处理变TT,在范围(-1,1)内,归一化主要是为了消除不通量岗对结果的影响TT,ps=mapminmax(T,-1,1); % 创建三层前向神经网络,隐层神经元为15输出层神经元为3net=newff(minmax(PP),15,3,tansig,purelin,traingdm) % -% 训练函数:traingdm,功能:以动量BP算法修正神经网络的权值和阈值。% 它的相关特性包括:% epochs:训练的次数,默认:100% goal:误差性能目标值,默认:0% lr:学习率,默认:0.01% max_fail:确认样本进行仿真时,最大的失败次数,默认:5% mc:动量因子,默认:0.9% min_grad:最小梯度值,默认:1e-10% show:显示的间隔次数,默认:25% time:训练的最长时间,默认:inf% -inputWeights=net.IW1,1 %当前输入层权值和阈值inputbias=net.b1 % 当前网络层权值和阈值 layerWeights=net.LW2,1 layerbias=net.b2 % 设置网络的训练参数 net.trainParam.show = 2; net.trainParam.lr = 0.05; net.trainParam.mc = 0.9; net.trainParam.epochs =10000; net.trainParam.goal = 1e-3; % 调用 TRAINGDM 算法训练 BP 网络 (在构建net中有说明)net,tr=train(net,PP,TT); A = sim(net,PP) ; % 对 BP 网络进行仿真, A=mapminmax(reverse,A,ps) ; % 对A矩阵进行反归一化处理()% 计算仿真误差 E = T - A MSE=mse(E) echo off按上面的运行之后结果如图所示。如果输出值与目标值完全相等则R=1,这里已经非常接近了,说明效果拟合效果还是可以的,右图是训练过程的平方和误差变化,达到我们指定的误差0.001时候,训练停止。专心-专注-专业
展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > 教学培训


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!