《神经网络学习》PPT课件.ppt

上传人:good****022 文档编号:120777478 上传时间:2022-07-18 格式:PPT 页数:51 大小:1.27MB
返回 下载 相关 举报
《神经网络学习》PPT课件.ppt_第1页
第1页 / 共51页
《神经网络学习》PPT课件.ppt_第2页
第2页 / 共51页
《神经网络学习》PPT课件.ppt_第3页
第3页 / 共51页
点击查看更多>>
资源描述
第6.6节 神经网络学习,王庆江 计算机科学与技术系 ,2008-2009学年第1学期,神经网络学习,摘自Talking Nets: An Oral History of Neural Networks封面,2008-2009学年第1学期,神经网络学习,6.6.1 神经网络基础,公元前400年左右,柏拉图和亚里士多德就曾对人类认知、记忆、思维进行过研究; 19世纪末,出现了神经元学说;美国生物学家W. James在Physiology一书中提到,“人脑中两个基本单元靠得较近时,一个单元的兴奋会传到另一个单元; 20世纪40年代,神经解剖学、神经生理学、神经元的电生理过程等有了突破性进展。,2008-2009学年第1学期,神经网络学习,人脑中神经元(神经细胞)的结构,Nucleus:核 Cell body:细胞体 Dentrite:树突 Axon:轴突,2008-2009学年第1学期,神经网络学习,神经元之间的电信号传递,轴突后部裂出许多分枝,分枝末端有突触,突触与树突连接; 轴突中的信号经突触转换为“阻止”或“激活”信号; 当神经元的“净输入”超过阈值时,其沿轴突发出信号; 改变突触的效能,神经元之间的影响随之改变,学习就发生了。,突触(神经键),2008-2009学年第1学期,神经网络学习,生物神经元的结构,摘自张仰森人工智能原理与应用随书课件,2008-2009学年第1学期,神经网络学习,1943年,W.S. McCulloch和W.A. Pitts合作提出了第一个人工神经元模型(M-P模型);,2008-2009学年第1学期,神经网络学习,M-P神经元模型,树突,加和,细胞体,阈值,轴突,参考:http:/www.doc.ic.ac.uk/nd/surprise_96/journal/vol4/cs11/report.html#What%20is%20a%20Neural%20Network,突触,2008-2009学年第1学期,神经网络学习,1949年,Donala U. Hebb在“The Organization of Behavior”一书中认为 学习的过程最终发生在神经元之间的突触部位,突触的连接强度随着突触前后神经元的活动而变化; 连接权的学习律正比于突触前后两个神经元的活动状态值的乘积; 可假设权是对称的,细胞的互连结构是通过改变彼此的连接权创造出来的。,突触连接强度的可变性是学习和记忆的基础,2008-2009学年第1学期,神经网络学习,Hebb规则,这是神经网络的第1个学习算法; 神经元的输出 连接权值的调整公式,学习率,净输入,2008-2009学年第1学期,神经网络学习,1957年,Frank Rosenblatt在M-P模型基础上,定义了一个具有单层计算单元的神经网络结构,取名为“感知器”。,2008-2009学年第1学期,神经网络学习,设计一个神经网络模型, 除了明确网络的结构、神经元的传输函数(f); 还要给出学习算法。 学习算法用于得出神经网络中的各个参数。 学习算法通常是迭代算法,对应神经网络的演变过程; 算法收敛到一个稳定状态时,神经网络的各参数(连接权值、阈值等)就基本不变了; 这个过程称为神经网络的学习或训练。,2008-2009学年第1学期,神经网络学习,人工神经网络的两个操作模式,训练模式(training mode) 准备大量的有教师指导的(或无教师指导的)的训练样本(即实例),对ANN进行训练,确定ANN的内部参数(甚至结构)。 使用模式(using mode) 输入一个实际例子,让ANN分析并给出结果。,2008-2009学年第1学期,神经网络学习,“感知器”是怎么训练的呢?,假设每个样本含 n 个属性,用向量(x1, x2, , xn)表示;若X 为样本变量, XRn; wij 是 xi 到神经元 j 的连接权值, Wj 是神经元 j 的输入连接的权值向量,即Wj =(w1j , w2j , , wnj ); 先随机设置wij和j ,j 是神经元 j 的阈值; 不同神经元的参数(包括连接权值和阈值)的学习是相互独立的,故只需给出一个神经元的学习算法。,2008-2009学年第1学期,神经网络学习,神经元 j 的参数怎么学习呢?,样本必须是有教师指导的,即预先知道其分类; 输入(x1, x2, , xn)时,神经元j的输出应为 dj 。 对于离散感知器,yj 按下式计算。 则wij 的调整规则是 wij(t +1) = wij(t) + (dj - yj) xi,为调整步幅系数,0,2008-2009学年第1学期,神经网络学习,“感知器”对线性可分问题具有分类能力 若样本空间为Rn,存在n-1维的超平面可将样本分为两类,则称线性可分。,存在至少一组wij和j ,使得对应两个子空间的神经元输出分别为0和1。,2008-2009学年第1学期,神经网络学习,例:连接强度W的学习过程(=0.4),验证: (0, 1, 0)T(1, -1, -1) = -1 (0, 1, 0)T(1, 1, -1) = 1,2008-2009学年第1学期,神经网络学习,“感知器”无法解决线性不可分问题; 1969年,Minsky和Papert指出了“感知器”的这种局限性,例如,“感知器”无法实现“异或”逻辑。,2008-2009学年第1学期,神经网络学习,设输入向量X=(x1, x2),神经元j的输出为: 学习逻辑“与”时,有 至少存在一组w1j 、w2j 和满足上述方程组,即单结点感知器对2输入的逻辑“与” 问题有分类能力。,2008-2009学年第1学期,神经网络学习,学习逻辑“异或”时,有 不存在任何一组w1j 、w2j 和满足上述方程组,即单结点感知器不能对2输入的逻辑“异或” 问题求解。,2008-2009学年第1学期,神经网络学习,多层感知器,采用二层或多层感知器; 只允许某一层的连接权值可调,因为无法知道网络隐层的神经元的理想输出; 要允许各层的连接权值可调,需要用1986年提出的误差反向传播(即BP)学习算法。 多层感知器可解决单层感知器无法解决的某些问题,例如,用二层感知器就可解决异或问题。,2008-2009学年第1学期,神经网络学习,70年代,集成电路使计算机快速发展; 在“感知器”局限性的困扰下,机器学习的热点由连接主义(即神经网络)转向符号主义; 70年代被认为是ANN的研究低潮期,但仍有ANN的一些重要成果出现。 72年,芬兰T. Kohonen教授提出了无教师学习网络SOM(Self-Organizing feature Map); 76年,美国Grossberg教授提出了ART(Adaptive Resonnance Theory)。,自组织竞争网络模型,2008-2009学年第1学期,神经网络学习,自组织竞争神经网络模型,生物神经网络中,有侧抑制现象; 一个神经元兴奋,通过突触抑制相邻神经元; 它越兴奋,对周围神经元的抑制作用越强。 抑制现象使神经元之间出现竞争; 起初,各神经元都处于(不同程度)兴奋状态,最后“胜者为王”。 自组织特征映射(SOM)和自适应共振理论(ART)都属于这类神经网络模型。,2008-2009学年第1学期,神经网络学习,SOM的典型结构,2008-2009学年第1学期,神经网络学习,SOM可实现聚类分析 聚类 在没有教师指导的情况下,自动寻找样本的属性关系,将相似的样本划归为一类。 分类 已知各样本的类别,在类别知识(即教师信号)的指导下,形成分类规则,将各样本分到各自的类中。 共同点:寻找样本-类的映射函数。,2008-2009学年第1学期,神经网络学习,样本相似度的测量,设 X1 和 X2 是表示两个样本的向量; 欧式距离法 余弦法(向量夹角法),2008-2009学年第1学期,神经网络学习,SOM中的竞争学习算法,对样本 X 和各神经元的连接权值向量 Wj 规一化 寻找获胜的神经元,2008-2009学年第1学期,神经网络学习,SOM中的竞争学习算法,网络输出与权值调整 对Wj*(t +1)进行归一化 如果足够小则退出;否则衰减,转,2008-2009学年第1学期,神经网络学习,1982年,美国物理学家John J. Hopfield提出了一种全连接神经网络模型(即Hopfield模型); 这是一种离散型反馈式神经网络(英缩写DHNN); 引入了“能量函数”概念,支持对神经网络运行稳定性进行判定; 成功求解旅行商问题(Traveling Salesman Problems)。 1984年,他又提出了连续型Hopfield网络(英缩写CHNN) 。,2008-2009学年第1学期,神经网络学习,离散型Hopfield神经网络的结构模型,一般有wii=0,wij=wji,2008-2009学年第1学期,神经网络学习,神经元的输出也称神经元的状态; 所有神经元的状态构成反馈网络的状态 Y; Y = (y1, y2, , yn) 网络输入就是网络状态的初始值 Y(0); Y(0)= (x1(0), x2(0), , xn(0) 由初始状态,网络开始演化。 yj(t+1) = f (netj) 这里,netj为神经元 j 的净输入, f ()为神经元的特性函数(也称作用、传递或转移函数)。,2008-2009学年第1学期,神经网络学习,常见的特性函数,阈值型,S状 (如sigmoid函数),分段线性 (饱和线性),2008-2009学年第1学期,神经网络学习,对于DHNN,特性函数 f 可以是阈值型 也可以是分段线性型 净输入netj 的计算,2008-2009学年第1学期,神经网络学习,DHNN的两种学习方式,串行方式(也称异步方式) 每次调整,只有一个神经元按其净输入调整输出(即状态),而其他神经元保持状态不变; 神经元状态的调整次序可按某种规定次序进行,也可随机选定。 并行方式(也称同步方式) 每次调整,各神经元都按其净输入调整各自的状态。,2008-2009学年第1学期,神经网络学习,DHNN可能收敛于某个稳定状态,也可能产生振荡构成极限环; 在串行方式下,为使网络收敛,W 应为对称阵; 在并行方式下,为使网络收敛,W 应为非负定对称阵; 保证给定的样本是网络的吸引子,且有一定的吸引域。,参考:朱大奇, 史慧. 人工神经网络原理及应用. 第3章. 科学出版社, 2006年3月第1版.,2008-2009学年第1学期,神经网络学习,连续型Hopfield神经网络模型 该模型可表示为下列的非线性微分方程组: ui 是神经元i的膜电位,Ci 和 Ri 分别是输入电容和电阻,Ii 是电路外的输入电流,wij 是神经元i 到神经元j的连接强度,f(u) 是u的非线性函数。,这是一个N输入、N输出的有N组运算放大器的电路,每个运放输出有到各运放输入的反馈通路。,2008-2009学年第1学期,神经网络学习,连续型Hopfield神经网络的神经元模型,Vj 可对应0至1之间的任意实数,2008-2009学年第1学期,神经网络学习,Hopfield网络是一种非线性的动力网络; 可通过反复的网络动态迭代来求解问题,这是符号逻辑方法所不具有的特性; 在求解某些问题时,其求解方法与人类的求解方法很相似; 所求得的解可能不是最佳解,但其求解速度快。,2008-2009学年第1学期,神经网络学习,1986年,MIT出版社(Cambridge)出版了J.L. Rumelhart和D.E. McClelland主编的“Parallel Distributed Processing: Exploration in the Microstructures of Cognition”一书; 其中,详细分析了多层前馈网络中的误差反向传播(Error Back Propagation)算法,即BP算法,它很好地解决了感知器局限性问题。,2008-2009学年第1学期,神经网络学习,前馈型神经网络,2008-2009学年第1学期,神经网络学习,BP算法,正向传播 从输入层到输出层,逐层计算结点状态; 每一层结点的状态只影响下一层结点的状态。 如输出层没有得到期望输出(即有误差),转入反向传播过程。 反向传播 将误差信号沿原路返回,通过修改各层的连接权值,使误差信号递减直到最小。,2008-2009学年第1学期,神经网络学习,BP算法的流程图,初始化,2008-2009学年第1学期,神经网络学习,多层前馈网络中的符号,xi:样本的第 i 个属性 yi:输出层神经元 i 的输出 di:输出层神经元 i 的期望输出 wijk:第i层神经元 j 到第 i +1层神经元 k 的连接权值 oij:第 i 层神经元 j 的输出 ij:第 i 层神经元 j 的阈值 netij:第 i 层神经元 j 的净输入 Ni:第 i 层神经元的数目,2008-2009学年第1学期,神经网络学习,BP算法中的前向计算,特征函数必须是有界连续可微的,如sigmoid函数,2008-2009学年第1学期,神经网络学习,BP算法中的反向计算,2008-2009学年第1学期,神经网络学习,BP算法中的反向计算(续),2008-2009学年第1学期,神经网络学习,BP学习算法的特点,特性函数是连续可微的,通过学习可得到超曲面来划分样本空间; 对于n层网络结构,学习后可得到n-1个超曲面,组成复合曲面,从而实现复杂的分类任务; 缺点: 算法的收敛速度慢; 依据梯度下降理论修改参数,可能出现局部极小问题。,2008-2009学年第1学期,神经网络学习,其他神经网络模型,BAM双向联想记忆神经网络 CMAC小脑神经网络 RBF径向基函数神经网络 CPN对偶传播神经网络 量子神经网络,参考:朱大奇,史慧. 人工神经网络原理及应用. 科学出版社,2006.3,2008-2009学年第1学期,神经网络学习,小结,人工神经网络是一种并行计算模型; 不同于冯诺依曼计算机; 但神经网络计算机还没有出现,一般在冯氏计算机上进行串行模拟。 人工神经网络中知识是分布存储的; 蕴含在连接权值、阈值、网络结构中; 神经网络学习不仅是参数学习,还包括结构学习。 对人类而言,完全透明,无法理解;,教材P252第2行,“不透明”应为“透明”,2008-2009学年第1学期,神经网络学习,小结(续),人工神经网络有较强的容错性和鲁棒性; 对于样本少量错误不敏感。 人工神经网络的学习能力有别于符号主义; 在符号主义机器学习中,根据样本修改规则,怎么修改由人事先确定; 而神经网络的学习从随机初始值开始,在理论上学习结果不依赖初始值,且学习过程无人工干预。,2008-2009学年第1学期,神经网络学习,小结(续),人工神经网络不适合高精度计算; 神经网络的鲁棒性与精确计算本身就是矛盾的。 人工神经网络的学习还有待研究。 目前的学习算法中,使用了过多的经验参数; 有些学习算法的收敛速度太慢。,
展开阅读全文
相关资源
相关搜索

最新文档


当前位置:首页 > 商业管理 > 营销创新


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!