人工神经网络第三0部分线性自适应

上传人:e****s 文档编号:242601243 上传时间:2024-08-29 格式:PPT 页数:15 大小:486KB
返回 下载 相关 举报
人工神经网络第三0部分线性自适应_第1页
第1页 / 共15页
人工神经网络第三0部分线性自适应_第2页
第2页 / 共15页
人工神经网络第三0部分线性自适应_第3页
第3页 / 共15页
点击查看更多>>
资源描述
单击此处编辑母版标题样式,*,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,4 线性神经网络,Linear Neural Network,自适应线性神经元ADALINEADAptive LInear NEuron是在1960年由斯坦福大学教授B.Widrow和M.Hoff提出的,它是线性神经网络最早的典型代表,其学习算法称之为LMSLeast Mean Square-最小均方误差算法或WH学习规那么。 单层ADALINE网络和感知器网络一样,只能解决线性可分的问题,但其LMS学习规那么却比感知器的学习规那么的性能要强得多,一是增加了网络的抗噪能力,二是比感知器学习算法具有更广泛的实际用途,特别是在数字信号处理方面,比方,实现高性能的自适应滤波器。,但LMS算法只适于单层网络的训练,当需要进行多层网络的设计时,需要寻找新的学习算法,如BP算法。,线性神经网络模型,线性神经元模型,线性神经网络模型,线性神经网络层的输出为:,线性神经网络层的输出可以取任意值,克服了感知器神经网络的输出只能取0或1的缺乏。另外,一般感知器神经网络是单层的,而线性神经元网络可以是多层的。但线性网络和感知器神经网络一样只能求解线性问题。,ADALINE,ADALINE是一个自适应可调的网络,适用于信号处理中的自适应滤波、预测和模型识别。自适应线性神经元模型如下图,它有两个输出量,a是模拟输出量,q是数字输出量;实际应用时,往往还将目标响应t与模拟输出量a的误差e = t - a作为输出。,线性神经网络的学习,线性神经网络可以不经过训练直接求出网络的权值和阈值,如果网络有多个零误差解,那么取最小的一组权值和阈值;如果网络不存在零误差解,那么取网络的误差平方和最小的一组权值和阈值。因为线性系统有惟一的误差最小值,在这种情况下,根据给定的一组输入向量和目标向量,可以计算出实际输出向量和目标向量的误差最小值。,另外, 如果求解的问题不能直接求出网络权值和阈值,线性神经网络及自适应线性神经网络可采用使均方误差最小的学习规那么,即LMSLeast Mean Squares算法,或称之为WHWidrow-Hoff学习规那么来调整网络的权值和阈值,它是一种沿误差的最陡下降方向对前一步权值向量进行修正的。,对于,Q,个训练样本,:,Widrow-Hoff学习规那么的根本思想是要寻找最正确的W、b,使各神经元输出的均方误差最小。神经元的均方误差为:,线性神经网络的学习,Q 训练样本数;,a 神经元输出的实际值;,t 神经元输出的期望目标值。,为了寻找最正确的W,b使每个神经元输出的均方误差最小,以x代表W或b,求mse对x的偏导:,令其等于0,那么可以求出mse的极值点,当然,极值点可以是极大值,也可以是极小值,但mse只能是正值,即mse-xj 曲面一定是凹向上的,所以极值点必为极小值。,线性神经网络的学习,但按上式计算很麻烦,尤其当输入向量的维数,R,很高时,所以,通常采用搜索优化法,即假设获得第,k,次训练得到的权值或阈值,然后找出,mse,-x,曲面上在该点的最陡下降方向,再沿此方向对权值进行修正。,线性神经网络的LMS学习规那么,是建立在均方误差(函数)最小化的根底上的,其学习过程表现为误差曲面上的梯度下降。同时,由于误差相对于权值(维数)构成的抛物面只有一个极小值点,因此LMS算法可以保证误差函数最小,但这需要无限次学习,所以实际应用中有限次的学习结果只能得到近似解,只有当输入模式线性无关时,LMS算法才可以使误差函数为零 .,线性神经网络的学习,线性神经网络与感知器大体一致,只是创立神经网络的函数不同,另外,线性神经网络还可以用设计函数进行创立,不需要进行训练。,线性神经网络的,MATLAB,仿真程序设计,以newlin创立线性神经网络,以train训练所创立的网络,或以adapt自适应调整权值和阈值。假设以newlind设计线性神经网络,那么不需要进行训练。,以sim对训练后的网络进行仿真,有一点要特别注意,在有些应用中,自适应线性神经网络的输出不是取自线性神经元的输出,而是目标响应t与模拟输出量a的误差e = t - a。,例4.1 以单层线性网络模拟与函数。,P62,例4.2 以自适应线性网络实现噪声对消。,P64 ,例4.3 线性神经网络用于信号预测。,P65,Simulation,Simulation,Simulation,参考书目:,1 王伟. 人工神经网络原理入门与应用. 北京:北京航空航天大学出版社,1995.,2 张立明. 人工神经网络的模型及其应用. 上海:复旦大学出版社出版,1993.,考试安排:,1 时间:下周二下午2:004:00, 4:006:00;,2 地点:计算中心微机5、微机6;,3 复习:本周四答疑、复习。,作业提交:,1 关于算法的作业提交清单,以班为单位,班长负责集中拷贝在一个目录下,下周四上课时间分别运行;,2 每一个作业的文件名定为:姓名+学号+班级+算法名;,3 作业是可选的,可以不做,但是没有相应的分数。,作业一(任意选一种组合):,1 题目背景:,1. 野人与传教士问题;,2. 梵塔问题;,3. 八数码问题。,2 使用算法:,1. 深(宽)度优先搜索;,2. 动态规划法;,3. 启发式算法。,作业二(任选一题):,(1) 正交输入模式集 目标输出,P,1,: 1 0 0 0 1,P,2,: 0 1 0 02,P,3,: 0 0 1 0 1,P,4,: 0 0 0 1 4,d,b,c,a,e,W,3,W,2,W,1,W,4,网络学习规那么采用hebb规那么:wij =aj ti,初始权重:W1 = W2 = W3 = W4 = 0,学 习 率: = 0.5,判断网络学习的准确程度,利用目标值与实际输出误差指标函数:E = Sqrt(tie-aie)2),(2) 非正交输入模式集 目标输出,P,1,: 1 0 1 0 2,P,2,: 1 0 0 1 5,P,3,: 0 1 1 1 5,P,4,: 1 1 1 0 2,d,b,c,a,e,W,3,W,2,W,1,W,4,网络学习规那么采用Delt规那么:wij =(tiai)aj,随机置初始权重:W1 = W2 = W3 = W4 = 0,置一个较小的学习率: = 0.5,判断网络学习的准确程度,利用目标值与实际输出误差指标函数:E = Sqrt(tie-aie)2),
展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 商业管理 > 商业计划


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!