AI第5章-计算智能资料

上传人:沈*** 文档编号:201077145 上传时间:2023-04-18 格式:PPT 页数:83 大小:1.56MB
返回 下载 相关 举报
AI第5章-计算智能资料_第1页
第1页 / 共83页
AI第5章-计算智能资料_第2页
第2页 / 共83页
AI第5章-计算智能资料_第3页
第3页 / 共83页
亲,该文档总共83页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述
AIAI第第5 5章章-计算智能资料计算智能资料内内 容容第第5 5章章 计算智能计算智能1 1、概述、概述2 2、神经网络、神经网络3 3、模糊计算、模糊计算4 4、遗传算法、遗传算法 现代科技发展的一个显著特点就是学科间的交叉、渗透现代科技发展的一个显著特点就是学科间的交叉、渗透和促进。和促进。(如生物信息学如生物信息学)计算智能计算智能是另一个有说服力的示例。是另一个有说服力的示例。计算智能涉及计算智能涉及神经计算神经计算、模糊计算模糊计算、进化计算进化计算、粒群计粒群计算算、蚁群计算蚁群计算、自然计算自然计算、免疫计算免疫计算和和人工生命人工生命等领域。等领域。反映了反映了多学科交叉与集成多学科交叉与集成的发展趋势。的发展趋势。5.1 5.1 概述概述 通过通过人工方法人工方法模仿人类智能已有很长历史(如仿生学的众多成果)模仿人类智能已有很长历史(如仿生学的众多成果),都是人类人工模仿智能的典型例证,而现代人工智能领域则力图抓住都是人类人工模仿智能的典型例证,而现代人工智能领域则力图抓住智智能的本质能的本质。人工神经网络人工神经网络(ANN)主要是通过)主要是通过Hopfield网络网络的促进和的促进和反向传播反向传播(BP)网络网络训练多层感知器训练多层感知器来推广的,将神经网络来推广的,将神经网络(NN)归类于人工智能可归类于人工智能可能不太合适,而归类于计算智能(能不太合适,而归类于计算智能(CI)应更能说明问题实质。)应更能说明问题实质。进化计算进化计算、人工生命人工生命和和模糊逻辑系统模糊逻辑系统的某些课题,也都归类于计算的某些课题,也都归类于计算智能。智能。第一个对第一个对计算智能计算智能的的定义定义由贝兹德克(由贝兹德克(BezdekBezdek)于)于19921992年提出。他认为,从严格意义上讲,计算智能年提出。他认为,从严格意义上讲,计算智能取决于取决于制造者制造者提供的提供的数据数值数据数值,而不依赖于知识;另一方面,人工智能则,而不依赖于知识;另一方面,人工智能则应用知识。应用知识。他认为,他认为,人工神经网络人工神经网络应当称为应当称为计算神经网络计算神经网络。尽管尽管计算智能计算智能与与人工智能人工智能的的界限界限并不十分明显并不十分明显,但讨论,但讨论它们的它们的区别和联系区别和联系是有必要的。是有必要的。贝兹德克对相关术语给予一定的符号和简要说明或定义。贝兹德克对相关术语给予一定的符号和简要说明或定义。他给出有趣的他给出有趣的ABC:AArtificial,表示人工的(非生物的),即人造的。,表示人工的(非生物的),即人造的。BBiological,表示物理的化学的,表示物理的化学的(?)(?)生物的。生物的。CComputational,表示数学计算机。,表示数学计算机。ABC与神经网络与神经网络(NN)、模式识别、模式识别(PR)和智能和智能(I)之间的关系之间的关系:可看出:可看出:计算智能是一种计算智能是一种智力方式的智力方式的低层认知低层认知,它与人工智能的,它与人工智能的区别只区别只 是是认知层次从中层下降至低层而已,中层系统含有知识认知层次从中层下降至低层而已,中层系统含有知识),而,而 低层系统则没有。低层系统则没有。当一个系统当一个系统只涉及只涉及数值数值(低层低层)数据数据,含有含有模式识别部分,模式识别部分,不使用不使用人人工智能意义上的知识工智能意义上的知识,且且具有具有计算适应性、计算容错性、接近人的速度、计算适应性、计算容错性、接近人的速度、近似于人的误差率这近似于人的误差率这4 4个特性个特性,则该系统就是,则该系统就是计算智能系统计算智能系统。一个计算智能系统以一个计算智能系统以非数值方式非数值方式加上加上知识值知识值,即成为,即成为人工智能系统人工智能系统。从学科范畴看:从学科范畴看:计算智能计算智能是在是在神经网络神经网络(NN)、进化计算进化计算(EC)及及模糊系统模糊系统(FS)这这三个领域发展相对成熟的基础上,形成的一个统一的学科概念。三个领域发展相对成熟的基础上,形成的一个统一的学科概念。1 1、什么是计算智能、什么是计算智能Computational IntelligenceDarwin PrincipleCollective Behavior of Society Neural NetworkEvolutionaryComputationFuzzySystemOthersGenetic AlgorithmEvolutionary StrategyEvolutionary programmingGenetic ProgrammingParticle SwarmAntArtificial System神经网络神经网络 对人类智能的对人类智能的结构结构模拟方法模拟方法。通过对大量人工神经元的。通过对大量人工神经元的广泛并行广泛并行互联互联,构造人工神经网络系统以模拟生物神经系统的智能机理。,构造人工神经网络系统以模拟生物神经系统的智能机理。进化计算进化计算 对人类智能的对人类智能的演化演化模拟方法模拟方法。通过对生物遗传和演化过程的认识。通过对生物遗传和演化过程的认识,用用进化算法进化算法模拟人类智能的进化规律。模拟人类智能的进化规律。模糊计算模糊计算 对人类智能的对人类智能的逻辑逻辑模拟方法模拟方法,通过对人类处理模糊现象认知能力,通过对人类处理模糊现象认知能力的认识,用的认识,用模糊逻辑模糊逻辑模拟人类的智能行为。模拟人类的智能行为。计算智能不仅涉及计算智能不仅涉及神经网络神经网络、模糊系统模糊系统和和进化计算进化计算三个三个主要分支,还包括:主要分支,还包括:粒子群算法粒子群算法蚁群算法蚁群算法人工免疫系统人工免疫系统人工生命人工生命模拟退火算法模拟退火算法粗集理论与粒度计算粗集理论与粒度计算支持向量机支持向量机量子计算量子计算DNADNA计算计算智能智能agentagent生物智能生物智能 (Biological Intelligence,BI)由脑的物理化学过程反映出来的由脑的物理化学过程反映出来的,脑智能的基础。脑智能的基础。人工智能人工智能 (Artificial Intelligence,AI)非生物的非生物的,人造的人造的,常用符号表示,来源于人类知识的精华。常用符号表示,来源于人类知识的精华。计算智能计算智能 (Computational Intelligence,CI)由数学方法和计算机实现的,来源于数值计算的传感器。由数学方法和计算机实现的,来源于数值计算的传感器。ABCABC:A Artificialrtificial B Biologicaliological C Computationalomputational2 2、关系、关系另一种观点另一种观点:计算智能计算智能和和人工智能人工智能是不同的范畴。是不同的范畴。虽然人工智能与计算智能之间有重合,但计算虽然人工智能与计算智能之间有重合,但计算 智能是一个全新的学科领域,无论是生物智能智能是一个全新的学科领域,无论是生物智能 还是机器智能,计算智能都是其还是机器智能,计算智能都是其最核心最核心的部分的部分,而人工智能则是而人工智能则是外层外层。实践证明,只有将实践证明,只有将AI和和CI很好地很好地结合结合起来,才能更好地起来,才能更好地模拟人类智能,才是智能科学发展的正确方向。模拟人类智能,才是智能科学发展的正确方向。内容提要内容提要第第5 5章章 计算智能计算智能1 1、概述、概述2 2、神经计算、神经计算3 3、模糊计算、模糊计算4 4、遗传算法、遗传算法5.2 5.2 神经计算神经计算 以以神经网络神经网络为基础的计算。为基础的计算。广义上,神经网络可泛指广义上,神经网络可泛指生物神经网络生物神经网络,也可指,也可指人工神人工神经网络经网络。人工神经网络人工神经网络(Artificial Neural Network)是指模拟是指模拟人人脑神经系统脑神经系统的的结构结构和和功能功能,运用大量的处理部件,由人工方,运用大量的处理部件,由人工方式建立起来的式建立起来的网络系统网络系统。人脑是人脑是ANN的原型,的原型,ANN是对人脑神经系统的模拟。是对人脑神经系统的模拟。人工智能领域中,在不引起混淆的情况下,神经网络一般都人工智能领域中,在不引起混淆的情况下,神经网络一般都指的都是指的都是ANN。现代计算机虽有很强的现代计算机虽有很强的计算和信息处理能力计算和信息处理能力,但解决,但解决像模式识别、感知、评判和决策等复杂问题的能力却远远像模式识别、感知、评判和决策等复杂问题的能力却远远不及人。特别是其只能按人预先编好的程序机械地执行,不及人。特别是其只能按人预先编好的程序机械地执行,缺乏向环境学习、适应环境的能力。缺乏向环境学习、适应环境的能力。人脑是由大量的人脑是由大量的基本单元(神经元)基本单元(神经元)经过经过复杂的互连复杂的互连而构成的一种高度复杂、非线性、并行处理的而构成的一种高度复杂、非线性、并行处理的信息处理系信息处理系统统,单个神经元的反应速度在毫秒级,比起计算机的基本单单个神经元的反应速度在毫秒级,比起计算机的基本单元元-逻辑门逻辑门(反应时间在(反应时间在1010-9-9s s量级)慢量级)慢5 56 6个数量级。但个数量级。但由于人脑的神经元数量巨大(约为由于人脑的神经元数量巨大(约为10101010个),每个神经元可个),每个神经元可与几千个其他神经元连接(总连接数约为与几千个其他神经元连接(总连接数约为6106101313),因而),因而对有些问题的处理速度反而比计算机要快得多,且能耗要对有些问题的处理速度反而比计算机要快得多,且能耗要低得多。由此可见,人脑的性能要比现代计算机高得多。低得多。由此可见,人脑的性能要比现代计算机高得多。所谓所谓人工神经网络人工神经网络,是,是模仿人脑工作方式模仿人脑工作方式而设计的而设计的一一种机器种机器,可用电子或光电元件实现,也可用软件在常规计,可用电子或光电元件实现,也可用软件在常规计算机上仿真。算机上仿真。或者说是一种或者说是一种具有大量连接的并行分布处理器具有大量连接的并行分布处理器,具有,具有通过学习获取知识并解决问题的能力,且知识是分布存储通过学习获取知识并解决问题的能力,且知识是分布存储在在连接权连接权(对应于生物神经元的突触)中,而不是像常规(对应于生物神经元的突触)中,而不是像常规计算机那样按地址存储在特定的存储单元中。计算机那样按地址存储在特定的存储单元中。符号(功能)主义:符号逻辑推理符号(功能)主义:符号逻辑推理联结(结构)主义:人工神经网络联结(结构)主义:人工神经网络行为主义:智能行为模拟,行为主义:智能行为模拟,“模式模式-动作动作”联结主义的观点:联结主义的观点:智能的智能的寓所寓所在大脑皮层,是由大量在大脑皮层,是由大量非线非线 性神经元性神经元互联而成互联而成并行处理的神经网络并行处理的神经网络。人工智能的各种学派:人工智能的各种学派:总体而言,人工神经网络(总体而言,人工神经网络(ANN)是反映)是反映人脑结构及功能人脑结构及功能的一种的一种抽象数学模型抽象数学模型,是由大量,是由大量神经元节点神经元节点互连而成互连而成的的复杂网络复杂网络,用以模拟人,用以模拟人类进行类进行知识的表示与存储知识的表示与存储以及以及利用知识进行推理利用知识进行推理的行为。的行为。简单地讲,简单地讲,ANN是一个是一个数学模型数学模型,可用电子电路实现,也可用计,可用电子电路实现,也可用计算机程序来模拟,是算机程序来模拟,是人工智能研究的一种方法人工智能研究的一种方法。人工神经网络力求从人工神经网络力求从四个方面四个方面模拟人脑的智能行为:模拟人脑的智能行为:物理结构物理结构,计计算模拟算模拟,存储与操作存储与操作,训练训练。5.2.1 5.2.1 人工神经网络研究的进展人工神经网络研究的进展 1、萌芽期、萌芽期(20世纪世纪40年代)年代)1890年,美国生物学家年,美国生物学家W.James首次阐明了有关人脑结构及其功能首次阐明了有关人脑结构及其功能,以及相关学习、联想、记忆的基本规律。以及相关学习、联想、记忆的基本规律。1943年,心理学家年,心理学家McCulloch和数学家和数学家Pitts建立起了著名的建立起了著名的阈值加阈值加权和权和模型,简称为模型,简称为M-P模型模型。1949年,心理学家年,心理学家D.O.Hebb提出,提出,神经元之间突触联系是可变的神经元之间突触联系是可变的假假说说-Hebb学习律学习律。2、第一高潮期、第一高潮期(1950-1968)以以Minsky,Rosenblatt,Widrow等为代表人物。等为代表人物。1957年年Rosenblatt定义了一个神经网络结构,称为定义了一个神经网络结构,称为感知器感知器。将。将神经神经网络研究从纯理论的探讨推向工程实现,在网络研究从纯理论的探讨推向工程实现,在IBM计算机上进行了模拟,计算机上进行了模拟,并可用电子线路模拟。并可用电子线路模拟。3、反思期、反思期(1969-1982)1969年年Minsky和和Papert在在感知机感知机一书中指出感知机的缺陷一书中指出感知机的缺陷(异异或运算不可表示或运算不可表示),使得神经网络的研究从兴起期进入了停滞期。,使得神经网络的研究从兴起期进入了停滞期。芬兰学者芬兰学者Kohonen提出了提出了自组织映射理论自组织映射理论(SOM),美国学者,美国学者Grossberg提出了提出了自适应谐振理论自适应谐振理论(ART),这些研究成果对神经网络以后,这些研究成果对神经网络以后的发展产生了重要影响。的发展产生了重要影响。4、第二高潮期、第二高潮期(1983-1990)1982年,年,Hopfield提出提出Hopfield模型模型。1984年,年,Hopfield设计研制了设计研制了Hopfield网的电路网的电路。较好地解决了著名的。较好地解决了著名的TSP问题,引起了较大轰动。问题,引起了较大轰动。1985年,年,Hinton、Sejnowsky、Rumelhart等人在等人在Hopfield网络中引网络中引入随机机制,提出入随机机制,提出Boltzmann机机。1986年,年,Rumelhart,Hinton提出提出多层感知机多层感知机与与反向传播反向传播(BP)学习学习算法算法,该方法克服了感知器非线性不可分类问题,给神经网络研究带来,该方法克服了感知器非线性不可分类问题,给神经网络研究带来了新的希望。了新的希望。1990年年12月月中国首届神经网络大会中国首届神经网络大会在北京举行。在北京举行。5、成熟期、成熟期(1991-)平稳发展,应用广泛,与其他领域的结合:与进化计算结合、与模平稳发展,应用广泛,与其他领域的结合:与进化计算结合、与模糊逻辑结合、糊逻辑结合、。实际应用:实际应用:计算机视觉、自然语言理解、优化计算、智能控制等。计算机视觉、自然语言理解、优化计算、智能控制等。并行分布处理:并行分布处理:并行结构,耐故障。并行结构,耐故障。(实时、动态实时、动态)非线性映射:非线性映射:任意非线性映射能力。任意非线性映射能力。(非线性问题非线性问题)通过训练进行学习:通过训练进行学习:通过数据记录进行训练,能处理由数学通过数据记录进行训练,能处理由数学 模型或描述规则难以处理的问题。模型或描述规则难以处理的问题。适应与集成:适应与集成:自适应和信息融合能力。自适应和信息融合能力。(复杂、大规模、多变量复杂、大规模、多变量)硬件实现:硬件实现:快速和大规模处理能力。快速和大规模处理能力。(并行处理并行处理)人工神经网络的特性:人工神经网络的特性:神经网络的神经网络的生物学机理生物学机理。、神经元结构包括神经元结构包括四个部分四个部分 胞体:胞体:神经细胞的本体,维持细胞生存功能神经细胞的本体,维持细胞生存功能 树突:树突:接收来自其他神经元的信号(输入)接收来自其他神经元的信号(输入)轴突:轴突:输出信号输出信号 突触:突触:与另一个神经元相联系的特殊部位与另一个神经元相联系的特殊部位5.2.2 5.2.2 人工神经网络的结构人工神经网络的结构 一个神经元有一个神经元有两种状态两种状态:兴奋、抑制。:兴奋、抑制。平时处于平时处于抑制状态抑制状态的神经元,其树突和胞体接收其它神经元由突触的神经元,其树突和胞体接收其它神经元由突触 传来的传来的兴奋电位兴奋电位,多个输入在神经元中以,多个输入在神经元中以代数和代数和的方式叠加。的方式叠加。如果输入的兴奋电位总量超过某个如果输入的兴奋电位总量超过某个阈值阈值,神经元会被激发进入,神经元会被激发进入兴奋兴奋 状态状态,发出输出脉冲,并由突触传递给其他神经元。,发出输出脉冲,并由突触传递给其他神经元。神经元被触发后进入神经元被触发后进入不应期不应期,在不应期内不能被触发,然后阈值逐,在不应期内不能被触发,然后阈值逐 渐下降,恢复抑制状态。渐下降,恢复抑制状态。、神经元的、神经元的基本工作机制基本工作机制(简化)(简化)神经元及其连接。神经元及其连接。神经元之间的神经元之间的连接强度连接强度决定信号传递的强弱。决定信号传递的强弱。神经元之间的连接强度可以随神经元之间的连接强度可以随训练训练改变。改变。信号可以起信号可以起刺激刺激作用,也可以起作用,也可以起抑制抑制作用。作用。一个神经元接受信号的一个神经元接受信号的累积效果累积效果决定该神经元的状态。决定该神经元的状态。每个神经元有一个每个神经元有一个“阈值阈值”。、生物神经网络的、生物神经网络的六个基本特征六个基本特征MP模型:模型:一种一种人工神经元人工神经元的的数学模型数学模型,是,是最早的最早的神经元模型之一。神经元模型之一。是大多数神经网络模型的基础。是大多数神经网络模型的基础。MP模型示意图:模型示意图:1 1、神经元及其特性、神经元及其特性输入输入输出输出中间状态中间状态人工神经元人工神经元是仿照是仿照生物神经元生物神经元提出的,神经元可以有提出的,神经元可以有N个输入个输入:每个输入端与神经元之间有一定的每个输入端与神经元之间有一定的连接权值连接权值:神经元神经元总的输入总的输入为对每个输入的为对每个输入的加权求和加权求和,同时,同时减去阈值减去阈值。u代表神经代表神经元的活跃值,即元的活跃值,即神经元状态神经元状态:神经元的神经元的输出输出y是对是对u的映射:的映射:二值函数二值函数f f 称为称为输出函数输出函数(激励函数激励函数,激活函数激活函数),有几种形式:,有几种形式:S型函数型函数双曲正切函数双曲正切函数输出函数输出函数“f”的作用:的作用:控制控制输入输入对对输出输出的的激活作用激活作用。对输入、输出进行对输入、输出进行函数转换函数转换。将可能将可能无限域的输入无限域的输入变换成变换成有限范围有限范围内的输出。内的输出。2 2、人工神经网络的基本特性和结构、人工神经网络的基本特性和结构 结构结构由由基本处理单元基本处理单元及其及其互连方法互连方法决定。决定。人工神经网络由人工神经网络由神经元模型神经元模型构成。构成。这种由许多神经元组成的信息处理网络具有这种由许多神经元组成的信息处理网络具有并行分布并行分布结构结构,每个神经元具有,每个神经元具有单一输出单一输出,并且能够与其它神经元,并且能够与其它神经元连接。连接。存在许多存在许多(多重多重)输出连接方法,每种连接方法对应一输出连接方法,每种连接方法对应一个连接权系数。个连接权系数。严格地说,人工神经网络是一种具有下列特性的严格地说,人工神经网络是一种具有下列特性的有向图有向图:(1)对于每个节点对于每个节点i存在一个存在一个状态变量状态变量xi;(2)从节点从节点i至节点至节点j,存在一个,存在一个连接权系数连接权系数wij;(3)对于每个节点对于每个节点i,存在一个,存在一个阈值阈值 i;(4)对于每个节点对于每个节点i,定义一个,定义一个变换函数变换函数 fi(xi,wij,i);对于最一般的情况,此函数的形式为:对于最一般的情况,此函数的形式为:神经元模型神经元模型确定之后,一个神经网络的确定之后,一个神经网络的特性特性及及能力能力即主即主要取决于要取决于网络的拓扑结构网络的拓扑结构及及学习方法学习方法。人工神经网络(人工神经网络(ANNANN)可以看成是以)可以看成是以人工神经元人工神经元为节点为节点,用用有向加权弧有向加权弧连接起来的连接起来的有向图有向图。人工神经元人工神经元就是对就是对生物神经元生物神经元的模拟。的模拟。有向弧有向弧则是则是轴突轴突突触突触树突树突对的模拟。对的模拟。有向弧的有向弧的权值权值表示相互连接的两个人工神经元之间表示相互连接的两个人工神经元之间相互相互作用的强弱作用的强弱。人工神经网络的人工神经网络的结构结构基本上分为两类:基本上分为两类:递归递归(反馈反馈)网络网络、和和前馈网络前馈网络。、递归网络、递归网络在递归网络中,在递归网络中,多个神经元互连多个神经元互连以组以组织成一个互连神经网络,如图所示。织成一个互连神经网络,如图所示。有些神经元的有些神经元的输出输出被被反馈至反馈至同层同层或或前前层层神经元。因此,信号能够从神经元。因此,信号能够从正向正向和和反向反向流通。流通。(Hopfield网络)网络)递归网络又叫做递归网络又叫做反馈网络反馈网络。V Vi :表示节点的状态:表示节点的状态xi :节点的输入:节点的输入(初始初始)值值x xi i :收敛后的输出值:收敛后的输出值 (i=1,2,n)、前馈网络、前馈网络 前馈网络具有前馈网络具有递阶分层结构递阶分层结构,由一些,由一些同层同层神经元间神经元间不存在不存在互连的层互连的层级级组成。组成。从输入层至输出层从输入层至输出层的信号通过的信号通过单向连接流通单向连接流通;(感知器感知器)神经元从一层连接至下一层,神经元从一层连接至下一层,不存在不存在同层神经元间的连接同层神经元间的连接。实线实线-指明实际信号流通指明实际信号流通,虚线虚线-表示反向传播。表示反向传播。(连接权值连接权值)3 3、人工神经网络的主要学习方法、人工神经网络的主要学习方法 人工神经网络人工神经网络最具有吸引力的特点最具有吸引力的特点是它的学习能力。是它的学习能力。1962 1962年,年,RosenblattRosenblatt给出了人工神经网络著名的给出了人工神经网络著名的学习学习定理:定理:人工神经网络人工神经网络可以学会它能表达的任何东西可以学会它能表达的任何东西。神经网络的神经网络的适应性适应性是通过学习实现的,学习是神经网是通过学习实现的,学习是神经网络研究的一个重要内容,人工神经网络的学习过程表现为络研究的一个重要内容,人工神经网络的学习过程表现为对对连接权值的训练连接权值的训练。人工神经网络的人工神经网络的学习方法学习方法,涉及到涉及到学习方式学习方式和和学习规则学习规则的确定,不的确定,不同的学习方法其学习方式和学习规则是不同的。同的学习方法其学习方式和学习规则是不同的。、学习方式、学习方式 通过向环境学习,获取知识并改进自身性能,是通过向环境学习,获取知识并改进自身性能,是NN的一个重要特的一个重要特点。一般情况下,性能的改善是点。一般情况下,性能的改善是按某种预定的度量按某种预定的度量,通过,通过调节自身参数调节自身参数(权值权值)随时间逐步达到的。)随时间逐步达到的。按环境提供信息量的多少按环境提供信息量的多少,学习方式有,学习方式有3 3种种:监督学习监督学习(有师学(有师学习)、习)、非监督学习非监督学习(无师学习)、(无师学习)、再励学习再励学习(强化学习)。(强化学习)。监督学习(有师学习)监督学习(有师学习)此学习方式需要外界此学习方式需要外界存在存在一个一个教师教师,可对,可对给定的给定的一组输入一组输入提供提供应有应有的的输出结果输出结果(正确答案正确答案已知的输出)。已知的输出)。输出数据输出数据称为称为训练样本集训练样本集,学习系统,学习系统(ANN)可根据可根据已知输出已知输出与与实际实际输出输出之间的之间的差值差值(误差信号误差信号)来调节系统参数。来调节系统参数。非监督学习(无师学习)非监督学习(无师学习)不存在不存在外部教师,学习系统完全按照环境提供数据的外部教师,学习系统完全按照环境提供数据的某些规律某些规律来来调节自身参数或结构(是一种自组织过程),以表示出外部输入的调节自身参数或结构(是一种自组织过程),以表示出外部输入的某某种固有特性种固有特性(如聚类或某种统计上的分布特征)。(如聚类或某种统计上的分布特征)。再励学习(强化学习)再励学习(强化学习)介于有师与无师两种情况之间。外部环境对系统输出结果只给出介于有师与无师两种情况之间。外部环境对系统输出结果只给出评价信息评价信息(奖或惩),而不是给出正确答案,学习系统通过(奖或惩),而不是给出正确答案,学习系统通过强化强化那些那些受奖的动作来改善自身的性能。受奖的动作来改善自身的性能。误差纠正学习误差纠正学习 令令yk(n)为输入为输入xk(n)时,神经元时,神经元k在在n时刻的时刻的实际输出实际输出,dk(n)表示表示应应有的输出有的输出,则,则误差信号误差信号可写为:可写为:误差纠正学习的误差纠正学习的最终目的最终目的:使:使某一基于某一基于ek(n)的目标函数的目标函数达到最小达到最小,以使,以使网络中网络中每一输出单元每一输出单元的实际输出,在某种意义上的实际输出,在某种意义上逼近应有的输出逼近应有的输出。、学习规则、学习规则 一旦选定了目标函数形式,误差纠正学习就变成了一个典型的一旦选定了目标函数形式,误差纠正学习就变成了一个典型的“最最优化优化”问题。问题。最常用的目标函数最常用的目标函数是是“均方误差判据均方误差判据”,定义为,定义为误差平方误差平方和和的均值的均值。其中,其中,E E为求为求期望算子期望算子。上式的前提是上式的前提是被学习的过程被学习的过程是是宽平稳宽平稳的,具体方法可用的,具体方法可用“最优梯度最优梯度下降法下降法”。直接用。直接用J作为目标函数时作为目标函数时,需要知道整个学习过程的统计特性需要知道整个学习过程的统计特性,为解决这一问题,通常用为解决这一问题,通常用J在时刻在时刻n的的瞬时值瞬时值(n)代替代替J,即:,即:各数据偏离平均数的距离各数据偏离平均数的距离的平均数。(标准差)的平均数。(标准差)表示实验误差大小的偏差平方和。表示实验误差大小的偏差平方和。属属“等精度测量等精度测量”,即在相同条件下,各,即在相同条件下,各次测量值次测量值Xi对测定平均值对测定平均值X的偏差平方和的偏差平方和后再求和。后再求和。(Xi-X)2概率意义下的概率意义下的“加权平均加权平均”。根据大数定理,有根据大数定理,有n次结果的次结果的平均值将趋向数学期望值。平均值将趋向数学期望值。问题变为:问题变为:求求(n)对权值对权值w的极小值,根据的极小值,根据梯度下降法梯度下降法可得:可得:这就是通常所说的这就是通常所说的误差纠正学习规则误差纠正学习规则(或称(或称deltadelta学习规则)。在学习规则)。在自适应滤波理论自适应滤波理论中,对这种学习的收敛性有较深入的分析。中,对这种学习的收敛性有较深入的分析。其中,其中,为学习步长。为学习步长。HebbHebb学习学习 由神经心理学家由神经心理学家HebbHebb提出的学习规则可归纳为:提出的学习规则可归纳为:“当某一突触当某一突触(连连接接)两端两端的神经元的神经元同步激活同步激活(同为激活同为激活 同为抑制同为抑制)时,该连接的强度应时,该连接的强度应为增强,反之减弱为增强,反之减弱”。式中,式中,y yk k(n)(n),x xj j(n)(n)分别为分别为w wkjkj两端神经元的状态,其中最常用的两端神经元的状态,其中最常用的一种情况是:一种情况是:因因wkj与与yk(n),xj(n)的相关成正比,也称为的相关成正比,也称为“相关学习规则相关学习规则”。用数学方式可描述为:用数学方式可描述为:竞争学习竞争学习 网络网络各输出单元各输出单元互相竞争互相竞争,最后只有一个最强者激活。最常见的,最后只有一个最强者激活。最常见的一种情况是一种情况是输出神经元之间输出神经元之间有有“侧向抑制性连接侧向抑制性连接”。即原输出单元中如有某一单元较强,则它将获胜并抑制其他单元即原输出单元中如有某一单元较强,则它将获胜并抑制其他单元,最后只有此强者处于激活状态。最后只有此强者处于激活状态。最常用的竞争学习规则可写为:最常用的竞争学习规则可写为:当当学习系统学习系统(神经网络神经网络)所处环境平稳所处环境平稳时时(统计特性不随时间变化统计特性不随时间变化),),理论上通过理论上通过监督学习监督学习可学到环境的统计特性,这些统计特性可被学习系可学到环境的统计特性,这些统计特性可被学习系统统作为经验作为经验记住。但若环境是记住。但若环境是非平稳非平稳的的(统计特性随时间变化统计特性随时间变化),通常的,通常的监督学习没有能力跟踪这种变化。监督学习没有能力跟踪这种变化。为解决此问题,需要网络有一定的为解决此问题,需要网络有一定的自适应能力自适应能力,此时对每一个不同,此时对每一个不同输入都作为一个输入都作为一个新的例子新的例子来对待。来对待。、学习与自适应、学习与自适应 此时此时模型模型(即(即ANN)被当做一个)被当做一个预测器预测器,基于前一个时刻输入,基于前一个时刻输入x(n-1)和模型在和模型在n-1时刻的参数,它估计时刻的参数,它估计n时刻的输出时刻的输出x(n),x(n)与实际值与实际值x(n)(应有的正确答案)比较,其(应有的正确答案)比较,其差值差值称为称为“信息信息”。若信息若信息e(n)=0,则不修正模型参数,否则修正模型参数,以便跟踪,则不修正模型参数,否则修正模型参数,以便跟踪环境的变化。环境的变化。4 4、基于神经网络的知识表示、基于神经网络的知识表示 这里,知识并不像在产生式系统中那样这里,知识并不像在产生式系统中那样独立地表示为每独立地表示为每一条规则一条规则,而是,而是将某一问题的若干知识在同一网络中表示将某一问题的若干知识在同一网络中表示。例如,在有些神经网络系统中,知识是用神经网络所对例如,在有些神经网络系统中,知识是用神经网络所对应的应的有向权图有向权图的的邻接矩阵邻接矩阵及及阈值向量阈值向量表示的。表示的。5 5、基于神经网络的推理、基于神经网络的推理 通过通过网络计算网络计算实现。实现。把用户提供的把用户提供的初始证据初始证据用作用作网络的输入网络的输入,通过网络计,通过网络计算最终得到算最终得到输出结果输出结果。一般来说,一般来说,正向网络推理正向网络推理的的步骤步骤:将将已知数据已知数据,输入网络输入层的,输入网络输入层的各个节点各个节点;利用利用特性函数特性函数,分别计算网络中,分别计算网络中各层的输出各层的输出;用用阈值函数阈值函数,对输出层的输出进行判定,从而得到,对输出层的输出进行判定,从而得到输出结果输出结果。5.2.3 5.2.3 人工神经网络的典型模型及其算法人工神经网络的典型模型及其算法 人工神经网络相关算法人工神经网络相关算法,已在智能处理系统中广泛应用。已在智能处理系统中广泛应用。迄今为止,已经开发和应用了迄今为止,已经开发和应用了3030多种人工神经网络模型。多种人工神经网络模型。在此,我们仅对典型网络模型及其算法作简要介绍。在此,我们仅对典型网络模型及其算法作简要介绍。1 1、反向传播、反向传播(BP)(BP)模型模型 2 2、HopfieldHopfield网络网络 3 3、自适应共振理论、自适应共振理论(ART)(ART)模型模型1 1、反向传播、反向传播(BP)(BP)模型模型神经元的网络输入神经元的网络输入:net i=x1w1i+x2w2i+x nwni 输入向量、输出向量的输入向量、输出向量的维数维数、网络隐藏层的、网络隐藏层的层数层数和各个和各个隐藏层神经元的隐藏层神经元的个数个数的决定了的决定了网络拓扑网络拓扑。增加增加隐藏层的隐藏层的层数层数和隐藏层神经元和隐藏层神经元个数个数不一定总能提高不一定总能提高网络精度网络精度和和表达能力表达能力。BP BP网一般都选用网一般都选用二级(二级(3 3层)网络层)网络。因为可以证明如果。因为可以证明如果BPBP网络中网络中隐层单元隐层单元可以根据需要可以根据需要自由设定自由设定,那么一个,那么一个三层网三层网络络可以实现可以实现以任意精度近似任意连续函数以任意精度近似任意连续函数。将将待识别模式待识别模式的输入矢量输入至输入层,并传至后面的隐含层,最的输入矢量输入至输入层,并传至后面的隐含层,最后通过连接权输出到输出层。网络中每个神经元通过求后通过连接权输出到输出层。网络中每个神经元通过求输入权值输入权值和和非线非线性激励函数传递结果性激励函数传递结果来工作。其数学描述为:来工作。其数学描述为:式中,式中,outi-所考虑层中所考虑层中第第i个神经元个神经元的的输出输出。outj-前一层中前一层中第第j个神经元个神经元的的输出输出。()-激励函数激励函数。neti -网络中第网络中第i i个神经元。个神经元。对非线性激励函数对非线性激励函数的使用有几种常用形式,其中经常的使用有几种常用形式,其中经常采用的是前面介绍过的采用的是前面介绍过的Sigmoid函数函数:BPBP算法基本思想:算法基本思想:样本集样本集:S=(XS=(X1 1,Y,Y1 1),(X),(X2 2,Y,Y2 2),(Xs,Ys),(Xs,Ys)逐一根据样本集中的样本逐一根据样本集中的样本(X(Xk k,Y,Yk k)计算出计算出实际输出实际输出O Ok k及其及其误差误差E E1 1,然后对然后对各层神经元的权值各层神经元的权值W W(1)(1),W,W(2)(2),W,W(L)(L)各做一次调整,重复这个循各做一次调整,重复这个循环,直到环,直到EpEp(所有样本的误差之和)。(所有样本的误差之和)。用用输出层的误差输出层的误差调整调整输出层输出层“权矩阵权矩阵”,并用此误差,并用此误差估计估计输出层的输出层的直接前导层直接前导层的误差;再用输出层前导层误差的误差;再用输出层前导层误差估计估计更前一层的误差(逐层更前一层的误差(逐层前推)前推),如此获得所有其它各层的误差估计;并用这些估计实现,如此获得所有其它各层的误差估计;并用这些估计实现对权矩对权矩阵的修改阵的修改。形成将形成将输出端表现出的误差输出端表现出的误差沿着与输入信号相反的方向沿着与输入信号相反的方向逐级向输入端传递的过程逐级向输入端传递的过程。BPBP算法训练过程概述算法训练过程概述前提前提-样本样本(训练训练)集集(输入值,理想输入值,理想(期望期望)输出值输出值)1 1、首先定义网络误差、首先定义网络误差 对于对于BPBP反向传播训练算法,通常使用的反向传播训练算法,通常使用的网络误差网络误差是熟知的是熟知的“均方差均方差”。但事实上并不是必须使用均方差,可使用任何。但事实上并不是必须使用均方差,可使用任何连续可微误差函数连续可微误差函数,不过选择其他误差函数会增加额外的复杂性。不过选择其他误差函数会增加额外的复杂性。须注意,不论选用哪种函数作为误差函数,必须在网络须注意,不论选用哪种函数作为误差函数,必须在网络输出期望值输出期望值与与实际值实际值之间之间提供一个有意义的度量提供一个有意义的度量-距离距离。假设这样的训练集合存在,即可讨假设这样的训练集合存在,即可讨论怎样利用它来训练一个网络。论怎样利用它来训练一个网络。均方差定义:均方差定义:式中,式中,Ep是第是第p个样本个样本(xp,tp)的的误差误差;tpj是第是第j个神经元个神经元输出的输出的期望值期望值(即训练集合);(即训练集合);opj是第是第j个神经元个神经元输出的输出的实际值实际值。上式中,每一项都反映上式中,每一项都反映单个输出神经元单个输出神经元对对整个误差整个误差的的影响影响,取绝对取绝对误差(期望值和实际值之差)的平方误差(期望值和实际值之差)的平方。可以看出:可以看出:远离期望值的那些输出对总误差影响最大,增加远离期望值的那些输出对总误差影响最大,增加“幂指幂指数数”,影响则更明显。,影响则更明显。B BP P反向传播算法是反向传播算法是“梯度下降训练算法梯度下降训练算法”中比较简单的一种中比较简单的一种。核心核心思想思想:调整权值调整权值使网络使网络总误差最小总误差最小。梯度下降法梯度下降法也称为也称为“最速下降法最速下降法”。基本思想:基本思想:从当前点出发,取函数在该点处从当前点出发,取函数在该点处下降最快的方向下降最快的方向,作为搜索方向。,作为搜索方向。任一点的任一点的负梯度方向负梯度方向,是函数值在该点下降最快的方向。,是函数值在该点下降最快的方向。将将n n维问题,转换为一系列沿负梯度方向,用维问题,转换为一系列沿负梯度方向,用一维搜索方法一维搜索方法寻优问题。寻优问题。网络中的网络中的每个权值每个权值都是都是N N维误差空间维误差空间中的中的一个元素一个元素,在误差空间中,在误差空间中权值权值作为作为独立的变量独立的变量,且相应,且相应误差表面误差表面(曲线曲线)的形状的形状由由训练集合训练集合和和误误差函数差函数共同决定共同决定。权值的误差函数权值的误差函数负梯度负梯度指向指向误差函数减小最快的方向误差函数减小最快的方向。如果在权。如果在权值空间沿这个矢量移动,最终将达到值空间沿这个矢量移动,最终将达到极小值极小值(该点梯度为零该点梯度为零)。但该点可能是但该点可能是局部极小点局部极小点,如下图给出误差空间中梯度与,如下图给出误差空间中梯度与EpEp之间之间的关系,形象地指出了误差函数达到局部最小值的情形。的关系,形象地指出了误差函数达到局部最小值的情形。其中其中:p pW Wjiji表示连接表示连接L-1L-1层层的的源神经元源神经元i i和和L L层层的的目的神经元目的神经元j j权值的变化权值的变化。权值的这个变化,导致了权值空间中权值的这个变化,导致了权值空间中梯度沿梯度沿降低误差方向降低误差方向变化变化。(正比关系变化)(正比关系变化)上述结果的数学描述:上述结果的数学描述:权值误差函数负梯度关系式:权值误差函数负梯度关系式:因此因此,首先必须计算偏微分,首先必须计算偏微分-/应用公式:应用公式:目标:目标:确定如何调整每个权值,使网络收敛。确定如何调整每个权值,使网络收敛。任务:任务:将上式转换成将上式转换成适合于计算机实现适合于计算机实现的的微分方程微分方程。上式说明:上式说明:每个权值每个权值W Wjiji将沿着将沿着局部误差表面局部误差表面最速下降的负梯度方向变化最速下降的负梯度方向变化 一步的关系式。一步的关系式。Opl是对是对L-1L-1层的所有神经元输出求和得到,因此可计算第二项偏微分:层的所有神经元输出求和得到,因此可计算第二项偏微分:展开展开:netpj由下式给出:由下式给出:得:得:定义误差信号定义误差信号pjpj:两式合并,得:两式合并,得:前述前述权值误差函数负梯度关系式:权值误差函数负梯度关系式:式中,常数式中,常数是是学习速率学习速率,它控制在权值空间中,对应每步沿负,它控制在权值空间中,对应每步沿负梯度方向变化的大小。梯度方向变化的大小。乘上一个比例常数乘上一个比例常数,重写得:,重写得:为了得到可用的微分方程,为了得到可用的微分方程,暂不考虑暂不考虑pjpj的变化的变化,运用微分公式:,运用微分公式:已知,输出已知,输出O Opjpj是是netnetpjpj的函数,表示为:的函数,表示为:激励函数激励函数为计算为计算,必须分别考虑下面两种情况:,必须分别考虑下面两种情况:目的神经元目的神经元j j是一输出神经元。是一输出神经元。目的神经元目的神经元j j是一隐含层神经元。是一隐含层神经元。、输出层中的目的神经元、输出层中的目的神经元 对于输出层中的目的神经元,直接得到以对于输出层中的目的神经元,直接得到以O Opjpj为自变量的误差函数为自变量的误差函数Ep,可得出:,可得出:可将可将pjpj(输出层的目的神经元输出层的目的神经元)写成:)写成:、隐含层中的目的神经元、隐含层中的目的神经元对于隐含层中的目的神经元,不能直接对误差函数微分。对于隐含层中的目的神经元,不能直接对误差函数微分。利用微分公式:利用微分公式:对对L+1L+1层中的所有神经元求和。根据层中的所有神经元求和。根据netnetpkpk的定义,可计算式中第二的定义,可计算式中第二个因子:个因子:得:得:由定义可以得到:由定义可以得到:得到:得到:将前述两式与上式合并:将前述两式与上式合并:隐含层误差信号隐含层误差信号pjpj可表示为:可表示为:小结:小结:概括上述结果,公式概括上述结果,公式 给出了关于给出了关于pjpj的微分方程,的微分方程,它对隐含层和输出层权值都有效。它对隐含层和输出层权值都有效。公式公式对应输出层和隐含层权值对应输出层和隐含层权值pjpj的表达式。的表达式。和和修正上述公式。修正上述公式。分别是分别是公式公式给出的是对应于均方差给出的是对应于均方差公式公式的解。的解。因此,若使用其他误差函数,则必须要因此,若使用其他误差函数,则必须要 为得到为得到适于计算机的适于计算机的微分方程微分方程,现仅计算,现仅计算选择一个特定的输出函数选择一个特定的输出函数。因此,必须。因此,必须,并求函数的解。,并求函数的解。利用利用SigmoidSigmoid函数,得:函数,得:由上式和前述公式由上式和前述公式可改写为:可改写为:对上式求导,得:对上式求导,得:继续计算继续计算即:即:将前述公式将前述公式代入上式,可将代入上式,可将表示为表示为O Opjpj的函数:的函数:将上式与前述公式一同考虑:将上式与前述公式一同考虑:可写出在计算机上用可写出在计算机上用BPBP算法对网络训练所需的微分方程,其中误差算法对网络训练所需的微分方程,其中误差函数是均方差函数,输出函数是函数是均方差函数,输出函数是SigmoidSigmoid函数。函数。从推导过程中可看到,若选择另外的误差或激励函数,需要对上述从推导过程中可看到,若选择另外的误差或激励函数,需要对上述公式进行修正。公式进行修正。综上所述,综上所述,BP反向传播训练算法所需的微分方程是:反向传播训练算法所需的微分方程是:其中,其中,为学习速率;为学习速率;pj为为L层神经元层神经元j的误差信号;的误差信号;Opj为为L-1层神经元层神经元i的输出。的输出。误差信号误差信号pj可表示为:可表示为:其中,其中,O Opjpj代表代表L L层神经元层神经元j j的输出;的输出;O Opipi代表代表L-1L-1层神经元层神经元i i的输出;的输出;pkpk代表代表L+1L+1层神经元层神经元k k的误差信号。的误差信号。真正的梯度下降是沿着真正的梯度下降是沿着梯度确定的方向梯度确定的方向,以,以无穷小步长无穷小步长进行的,很进行的,很明显,这是不切实际的。明显,这是不切实际的。因此定义因此定义学习速率学习速率,式中确定了沿梯度方向的一个有限步长。这,式中确定了沿梯度方向的一个有限步长。这里里是常量,它相当于确定步长的增益。是常量,它相当于确定步长的增益。其其核心思想核心思想就是:选择足够大的就是:选择足够大的,使得网络迅速收敛,而不会因,使得网络迅速收敛,而不会因调整过度而振荡。调整过度而振荡。反向传播学习的全部过程,既包括它的反向传播学习的全部过程,既包括它的前向路径前向路径,也包括其,也包括其反向路反向路径径。采用反向传播算法时,采用反向传播算法时,网络权值网络权值必须首先用一必须首先用一小随机值小随机值进行检查初进行检查初始化。选择小初始权值非常重要,若初始权值选择太大,会导致网络不始化。选择小初始权值非常重要,若初始权值选择太大,会导致网络不可训练。可训练。初始化后,训练集矢量就可用于网络。使网络向前运行产生一实际初始化后,训练集矢量就可用于网络。使网络向前运行产生一实际值集合,利用反向传播可以建立一新权值集合,总误差经多次迭代后减值集合,利用反向传播可以建立一新权值集合,总误差经多次迭代后减小,如果不是如此,可调整训练参数。小,如果不是如此,可调整训练参数。BPBP算法中的几个问题:算法中的几个问题:收敛速度问题收敛速度问题 收敛速度很慢,其训练需要很多步迭代。收敛速度很慢,其训练需要很多步迭代。局部极小点问题局部极小点问题 逃离逃离/避开局部极小点:修改避开局部极小点:修改W W的初值并不是总有效。的初值并不是总有效。逃离逃离-统计方法;统计方法;WassermanWasserman,19861986将将CauchyCauchy训练与训练与BPBP算法结算法结 合起来,可在保证训练速度不被降低的情况下,找到全局极小点。合起来,可在保证训练速度不被降低的情况下,找到全局极小点。网络瘫痪问题网络瘫痪问题 在训练中,权可能变得很大,这会使神经元的网络输入变得很大在训练中,权可能变得很大,这会使神经元的网络输入变得很大,从而又使得其激活函数的导函数在此点上的取值很小。根据相应式子从而又使得其激活函数的导函数在此点上的取值很小。根据相应式子,此时的训练步长会变得非常小,进而将导致训练速度降得非常低,最此时的训练步长会变得非常小,进而将导致训练速度降得非常低,最终导致网络停止收敛。终导致网络停止收敛。稳定性问题稳定性问题 用修改量的综合实施权的修改。用修改量的综合实施权的修改。连续变化的环境,它将变成无效的。连续变化的环境,它将变成无效的。步长问题步长问题 BP BP网络的收敛是基于无穷小的权修改量。网络的收敛是基于无穷小的权修改量。步长太小,收敛就非常慢。步长太小,收敛就非常慢。步长太大,可能会导致网络的瘫痪和不稳定。步长太大,可能会导致网络的瘫痪和不稳定。自适应步长,使得权修改量能随着网络的训练而不断变化。自适应步长,使得权修改量能随着网络的训练而不断变化。1988 1988年,年,WassermanWasserman 网络隐层中神经元数目及层数的选取尚无理论直到,一般凭借经验网络隐层中神经元数目及层数的选取尚无理论直到,一般凭借经验 选取。选取。结束结束
展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 管理文书 > 施工组织


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!