现代机器学习理论论文综述机器学习与支持向量机

上传人:沈*** 文档编号:66945418 上传时间:2022-03-29 格式:DOC 页数:38 大小:955KB
返回 下载 相关 举报
现代机器学习理论论文综述机器学习与支持向量机_第1页
第1页 / 共38页
现代机器学习理论论文综述机器学习与支持向量机_第2页
第2页 / 共38页
现代机器学习理论论文综述机器学习与支持向量机_第3页
第3页 / 共38页
点击查看更多>>
资源描述
现代机器学习理论论文题 目: 综述机器学习与支持向量机 学 院: 电子工程学院 专 业: 学 号: 学生姓名: 综述机器学习与支持向量机摘要机器学习是研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能,它是人工智能的核心,是使计算机具有智能的根本途径。基于数据的机器学习是现代智能技术中的重要方面,研究从观测数据出发寻找规律,利用这些规律对未来数据或无法观测的数据进行预测,包括模式识别、神经网络等在内,现有机器学习方法共同的重要理论基础之一是统计学。支持向量机是从统计学发展而来的一种新型的机器学习方法,在解决小样本、非线性和高维的机器学习问题中表现出了许多特有的优势,但是,支持向量机方法中也存在着一些亟待解决的问题,主要包括:如何用支持向量机更有效的解决多类分类问题,如何解决支持向量机二次规划过程中存在的瓶颈问题、如何确定核函数以及最优的核参数以保证算法的有效性等。本文详细介绍机器学习的基本结构、发展过程及各种分类,系统的阐述了统计学习理论、支持向量机理论以及支持向量机的主要研究热点,包括求解支持向量机问题、多类分类问题、参数优化问题、核函数的选择问题等,并在此基础上介绍支持向量机在人脸识别中的应用,并通过仿真实验证明了算法的有效性。关键词:机器学习;统计学习理论;SVM;维;人脸识别The Summarization of Machine Learning and Support Vector MachineABSTRACTMachine learning is to study how a computer simulates or realizes human behaviors to acquire new information and skills, then rebuilds its knowledge structure to improve itself capability constantly. It is the core of Artificial Intelligence,and is the underlying way in which a computer develops intelligence.Machine learning based on data is one of the most important aspects of modern intelligence technology. It is to investigate how to find a rule starting from data observation, and use the rule to predict future data and unavailable data. Statistics is one of the most common important theory elements of the existing methods of machine learning, including Pattern Recognition and Neural Networks. SVM(Support Vector Machine) is a novel method of machine learning evoling from Statistics. SVM presents many own advantages in solving machine learning problems such as small samples, nonlinearity and high dimension. However, SVM methods exist some problems need to be resolved, mainly including how to deal with multi-classification effectively, how to solve the bottle-neck problem appearing in quadratic programming process, and how to decide kernel function and optimistical kernel parameters to guarantee effectivity of the algorithm.This paper has introduced in detail the structure, evolvement history, and kinds of classification of machine learning, and demonstrated systemly SLT(Statistical Learning Theory), SVM and research hotspots of SVM, including seeking SVM problems, multi-classification, parameters optimization, kernel function selection and so on. The application on human face recognition has been introduced based on above theory, and the simulation experiment has validated the algorithm. Keywords: Machine learning, SLT, SVM, VC dimension, Human face recognition目 录摘要IABSTRACTII1.绪论11.1研究背景及意义11.1.1 机器学习概念的出现11.1.2支持向量机的研究背景11.2本文主要内容32.机器学习的结构及分类42.1机器学习定义及发展42.2机器学习系统的基本结构52.3机器学习的分类62.4目前研究领域93.支持向量机的原理103.1统计学习理论103.1.1机器学习问题103.1.2统计学理论的发展与支持向量机113.1.3维理论123.1.4推广性的界123.1.5结构风险最小化原则133.2支持向量机理论143.2.1最优分类面163.2.2标准支持向量机184.支持向量机的主要研究热点204.1支持向量机多类分类方法204.2求解支持向量机的二次规划问题234.3核函数选择及其参数优化255.支持向量机的算法仿真275.1人脸识别的理论基础275.2基于PCA方法和SVM原理的人脸识别仿真286.参考文献331.绪论1.1研究背景及意义1.1.1 机器学习概念的出现学习是人类具有的一种重要智能行为,但究竟什么是学习,长期以来却众说纷纭。社会学家、逻辑学家和心理学家都各有其不同的看法。按照人工智能大师西蒙的观点,学习就是系统在不断重复的工作中对本身能力的增强或者改进,使得系统在下一次执行同样任务或相同类似的任务时,会比现在做得更好或效率更高。西蒙对学习给出的定义本身,就说明了学习的重要作用。在人类社会中,不管一个人有多深的学问,多大的本领,如果他不善于学习,我们都不必过于看重他。因为他的能力总是停留在一个固定的水平上,不会创造出新奇的东西。但一个人若具有很强的学习能力,则不可等闲视之了。机器具备了学习能力,其情形完全与人类似。什么是机器学习?迄今尚没有统一的定义,由其名字可理解为机器学习是研究如何使用机器来模拟人类学习活动的一门学科。稍微严格的提法是机器学习是一门研究机器获取新知识和新技能,并识别现有知识的学问。这里所说的“机器”,指的就是计算机,现在是电子计算机,以后还可能是种子计算机、光子计算机或神经计算机等等。机器能否像人类一样能具有学习能力呢?1959年美国的塞缪尔(Samuel)设计了一个下棋程序,这个程序具有学习能力,它可以在不断的对弈中改善自己的棋艺。4年后,这个程序战胜了设计者本人。又过了3年,这个程序战胜了美国一个保持8年之久的常胜不败的冠军。这个程序向人们展示了机器学习的能力,提出了许多令人深思的社会问题与哲学问题。机器的能力是否能超过人的,很多持否定意见的人的一个主要论据是:机器是人造的,其性能和动作完全是由设计者规定的,因此无论如何其能力也不会超过设计者本人。这种意见对不具备学习能力的机器来说的确是对的,可是对具备学习能力的机器就值得考虑了,因为这种机器的能力在应用中不断地提高,过一段时间之后,设计者本人也不知它的能力到了何种水平。1.1.2支持向量机的研究背景支持向量机(Support Vector Machine,SVM)方法是在统计学习理论(Statistical Learning Theory,SLT)基础上发展而来的一种机器学习方法,SVM在使用结构风险最小化原则替代经验风险最小化原则的基础上,又结合了统计学习、机器学习和神经网络等方面的技术,在解决小样本、非线性和高维的机器学习问题中表现出了许多特有的优势。它一方面可以克服神经网络等方法所固有的过学习和欠学习问题,另一方面又有很强的非线性分类能力,通过引入核函数,将输入空间的样本映射到高维特征空间,输入空间的线性不可分问题就转化为特征空间的线性可分问题。支持向量机被看作是对传统分类器的一个好的发展,并被证明可在保证最小化结构风险的同时,有效地提高算法的推广能力。随着计算机技术的蓬勃发展以及人们在各个领域对模式识别技术的需求与应用,计算机模式识别技术也有了很大的发展。模式识别就是设计一个能够对未知数据进行自动分类的方法,常用模式识别方法有统计识别方法、句法结构识别方法、模糊理论识别方法、神经网络识别方法、模板匹配识别方法和支持向量机的识别方法等。其中,基于支持向量机的模式识别方法是目前最为有效的模式识别方法之一。VVapnik等人早在20世纪60年代就开始研究小样本情况下的机器学习问题,当时这方面的研究尚不十分完善,且数学上比较艰涩,大多数人难以理解和接受,直到90年代以前还没能够提出将其理论付诸实现的方法,加之当时正处在其他学习方法飞速发展的时期,因此这方面的研究一直没有得到足够的重视。直到90年代中期,小样本情况下的机器学习理论研究逐渐成熟起来,形成了较完善的理论体系统计学习理论(Statistical Learning Theory,SLT)2,而同时,神经网络等新兴的机器学习方法的研究则遇到了许多困难,在这种情况下,试图从更本质上研究机器学习问题的统计学习理论逐步得到重视。统计学习理论是建立在坚实的理论基础之上的,为解决小样本学习问题提供了统一的框架。统计学习理论的核心是VC维理论与结构风险最小化理论,它用VC维来描述学习机器的复杂度,并以此为出发点导出了学习机器推广能力的界的理论。该理论致力于寻找在小样本情况下学习问题的最优解,而不需要利用样本数趋于无穷大的渐进性条件,这使得统计学习理论在小样本情况下同样能得到具有推广价值的知识。1992年至1995年,在统计学习理论的基础上发展出了一种新型的学习机器支持向量机(Support Vector Machine简称SVM)。支持向量机是建立在统计学习理论的VC维理论和结构风险最小原理基础上的,根据有限的样本信息在模犁的复杂性和学习能力之间寻求最佳折衷,以期获得最好的推广能力。支持向量机被看作是对传统分类器的一个好的发展,在解决小样本、非线性和高维的机器学习问题中表现出了许多特有的优势。SVM方法是由Vapnik及其合作者Boser、Guyon、Cortes及Scholkopf在AT&T Bell实验室共同创造与发展起来的一种新方法3。近年来,许多关于SVM方法的研究,包括算法本身的改进和算法的实际应用,都陆续被提了出来,如Scholkoph等人提出了v.SVM方法、Suykens等人提出了最小二乘支持向量机(LSSVM)、Zhang提出的类中心支持向量机(CSVM)方法、Lin等提出了模糊支持向量机方法(FuzzySVM)等4。其中,在理论上主要以Vapnik及其研究小组做了大量开创性及奠基性的工作。随着支持向量机的不断发展,人们对支持向量机的研究也越来越细化,其主要研究方向大致可分为:求解支持向量机问题,支持向量机多类分类问题,参数的选择和优化问题等。求解一个SVM问题最终都转化为解一个具有线性约束的凸规划问题或其对偶问题的二次规划问题(Quadratic Programming,QP)。传统的方法是利用标准二次型优化技术解决对偶问题,这就导致算法的训练速度很慢,一方面是由于SVM需要计算和存储核函数矩阵,当样本规模较大时必然导致内存需求增加;另一方面,SVM在二次寻优过程中要进行大量的矩阵运算,多数情况下,寻优算法占用了大部分的算法时间,这就使得存储空间和和计算时间成了求解二次规划问题的瓶颈。常用的解决方法是将一个大的二次规划问题转化为若干个小的二次规划问题以提高分类效率,如块算法、分解算法、SMO算法、增式算法等等。支持向量机分类理论是针对两类分类问题提出的,然而,现实世界的分类问题,如船舰识别、字体识别、人脸识别等,都属于多类分类的范畴。如何将二类分类方法扩展到多类分类情况是支持向量机方法研究的重要内容之一。目前,用SVM解决多类分类问题方法主要是通过构造或组合多个两类分类器来实现多类问题的分类。子分类器的构造和组合将两类分类扩展到多类问题,将多类分类问题逐步转化为两类分类问题。常用的算法有“one-against-one”方法、“one-against-rest”方法、“基于决策树的方法”等。支持向量机多类分类方法的引入拓展了支持向量机的应用范围,也加快了支持向量机方法的改进和创新,同时,支持向量机的核函数的选择以及核参数的选择也是一个重要的研究方向。1.2本文主要内容本文旨在综述机器学习及支持向量机的基本原理及研究方向。第一章为绪论,介绍了机器学习概念的出现与支持向量机的背景知识;第二章介绍了机器学习的发展过程、基本结构、分类及应用领域;第三章详细介绍了支持向量机的原理,包括统计学习理论和支持向量机理论;第四章介绍了支持向量机的主要研究热点,包括求解支持向量机问题、多类分类问题、参数优化问题、核函数的选择问题等,并列出支持向量机的主要优点;第五章给出支持向量机算法的一个仿真实验。2.机器学习的结构及分类2.1机器学习定义及发展机器学习(Machine Learning)是研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。它是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域,它主要使用归纳、综合而不是演绎。学习能力是智能行为的一个非常重要的特征,但至今对学习的机理尚不清楚。人们曾对机器学习给出各种定义。H.A.Simon认为,学习是系统所作的适应性变化,使得系统在下一次完成同样或类似的任务时更为有效。R.s.Michalski认为,学习是构造或修改对于所经历事物的表示。从事专家系统研制的人们则认为学习是知识的获取。这些观点各有侧重,第一种观点强调学习的外部行为效果,第二种则强调学习的内部过程,而第三种主要是从知识工程的实用性角度出发的。机器学习在人工智能的研究中具有十分重要的地位。一个不具有学习能力的智能系统难以称得上是一个真正的智能系统,但是以往的智能系统都普遍缺少学习的能力。例如,它们遇到错误时不能自我校正;不会通过经验改善自身的性能;不会自动获取和发现所需要的知识。它们的推理仅限于演绎而缺少归纳,因此至多只能够证明已存在事实、定理,而不能发现新的定理、定律和规则等。随着人工智能的深入发展,这些局限性表现得愈加突出。正是在这种情形下,机器学习逐渐成为人工智能研究的核心之一。它的应用已遍及人工智能的各个分支,如专家系统、自动推理、自然语言理解、模式识别、计算机视觉、智能机器人等领域。其中尤其典型的是专家系统中的知识获取瓶颈问题,人们一直在努力试图采用机器学习的方法加以克服。机器学习的研究是根据生理学、认知科学等对人类学习机理的了解,建立人类学习过程的计算模型或认识模型,发展各种学习理论和学习方法,研究通用的学习算法并进行理论上的分析,建立面向任务的具有特定应用的学习系统。这些研究目标相互影响相互促进。自从1980年在卡内基-梅隆大学召开第一届机器学术研讨会以来,机器学习的研究工作发展很快,已成为中心课题之一。 机器学习是人工智能研究较为年轻的分支,它的发展过程大体上可分为4个时期:第一阶段是在50年代中叶到60年代中叶,属于热烈时期;第二阶段是在60年代中叶至70年代中叶,被称为机器学习的冷静时期;第三阶段是从70年代中叶至80年代中叶,称为复兴时期;机器学习的最新阶段始于1986年。机器学习进入新阶段的重要表现在下列诸方面:(1) 机器学习已成为新的边缘学科并在高校形成一门课程。它综合应用心理学、生物学和神经生理学以及数学、自动化和计算机科学形成机器学习理论基础。(2) 结合各种学习方法,取长补短的多种形式的集成学习系统研究正在兴起。特别是连接学习符号学习的耦合可以更好地解决连续性信号处理中知识与技能的获取与求精问题而受到重视。(3) 机器学习与人工智能各种基础问题的统一性观点正在形成。例如学习与问题求解结合进行、知识表达便于学习的观点产生了通用智能系统SOAR的组块学习。类比学习与问题求解结合的基于案例方法已成为经验学习的重要方向。(4) 各种学习方法的应用范围不断扩大,一部分已形成商品。归纳学习的知识获取工具已在诊断分类型专家系统中广泛使用。连接学习在声图文识别中占优势。分析学习已用于设计综合型专家系统。遗传算法与强化学习在工程控制中有较好的应用前景。与符号系统耦合的神经网络连接学习将在企业的智能管理与智能机器人运动规划中发挥作用。(5) 与机器学习有关的学术活动空前活跃。国际上除每年一次的机器学习研讨会外,还有计算机学习理论会议以及遗传算法会议。2.2机器学习系统的基本结构机器学习系统的基本结构如图2.1所示,环境向系统的学习部分提供某些信息,学习部分利用这些信息修改知识库,以增进系统执行部分完成任务的效能,执行部分根据知识库完成任务,同时把获得的信息反馈给学习部分。在具体的应用中,环境,知识库和执行部分决定了具体的工作内容,学习部分所需要解决的问题完全由上述3部分确定。下面我们分别叙述这3部分对设计学习系统的影响。环境学习知识库执行图 2.1 学习系统的基本结构影响学习系统设计的最重要的因素是环境向系统提供的信息。或者更具体地说是信息的质量。知识库里存放的是指导执行部分动作的一般原则,但环境向学习系统提供的信息却是各种各样的。如果信息的质量比较高,与一般原则的差别比较小,则学习部分比较容易处理。如果向学习系统提供的是杂乱无章的指导执行具体动作的具体信息,则学习系统需要在获得足够数据之后,删除不必要的细节,进行总结推广,形成指导动作的一般原则,放入知识库,这样学习部分的任务就比较繁重,设计起来也较为困难。因为学习系统获得的信息往往是不完全的,所以学习系统所进行的推理并不完全是可靠的,它总结出来的规则可能正确,也可能不正确。这要通过执行效果加以检验。正确的规则能使系统的效能提高,应予保留;不正确的规则应予修改或从数据库中删除。知识库是影响学习系统设计的第二个因素。知识的表示有多种形式,比如特征向量、一阶逻辑语句、产生式规则、语义网络和框架等等。这些表示方式各有其特点,在选择表示方式时要兼顾以下4个方面:(1)表达能力强。(2)易于推理。(3)容易修改知识库。(4)知识表示易于扩展。对于知识库最后需要说明的一个问题是学习系统不能在全然没有任何知识的情况下凭空获取知识,每一个学习系统都要求具有某些知识理解环境提供的信息,分析比较,做出假设,检验并修改这些假设。因此,更确切地说,学习系统是对现有知识的扩展和改进。执行部分是整个学习系统的核心,因为执行部分的动作就是学习部分力求改进的动作。同执行部分有关的问题有3个:复杂性、反馈和透明性。2.3机器学习的分类1.基于所获取知识的表示形式分类学习系统获取的知识可能有:行为规则、物理对象的描述、问题求解策略、各种分类及其它用于任务实现的知识类型。对于学习中获取的知识,主要有以下一些表示形式:1)代数表达式参数:学习的目标是调节一个固定函数形式的代数表达式参数或系数来达到一个理想的性能。2)决策树:用决策树来划分物体的类属,树中每一内部节点对应一个物体属性,而每一边对应于这些属性的可选值,树的叶节点则对应于物体的每个基本分类。3)形式文法:在识别一个特定语言的学习中,通过对该语言的一系列表达式进行归纳,形成该语言的形式文法。4)产生式规则:产生式规则表示为条件动作对,已被极为广泛地使用。学习系统中的学习行为主要是:生成、泛化、特化或合成产生式规则。5)形式逻辑表达式:形式逻辑表达式的基本成分是命题、谓词、变量、约束变量范围的语句及嵌入的逻辑表达式。6)图和网络:有的系统采用图匹配和图转换方案来有效地比较和索引知识。7)框架和模式(schema):每个框架包含一组槽,用于描述事物(概念和个体)的各个方面。8)计算机程序和其它的过程编码:获取这种形式的知识,目的在于取得一种能实现特定过程的能力,而不是为了推断该过程的内部结构。9)神经网络:这主要用在联接学习中,学习所获取的知识,最后归纳为一个神经网络。10)多种表示形式的组合:有时一个学习系统中获取的知识需要综合应用上述几种知识表示形式。根据表示的精细程度,可将知识表示形式分为两大类:泛化程度高的粗粒度符号表示、泛化程度低的精粒度亚符号(sub-symbolic)表示。像决策树、形式文法、产生式规则、形式逻辑表达式、框架和模式等属于符号表示类;而代数表达式参数、图和网络、神经网络等则属亚符号表示类。2.按应用领域分类最主要的应用领域有:专家系统、认知模拟、规划和问题求解、数据挖掘、网络信息服务、图象识别、故障诊断、自然语言理解、机器人和博弈等领域。从机器学习的执行部分所反映的任务类型上看,目前大部分的应用研究领域基本上集中于以下两个范畴:分类和问题求解。(1)分类任务要求系统依据已知的分类知识对输入的未知模式(该模式的描述)作分析,以确定输入模式的类属,相应的学习目标就是学习用于分类的准则(如分类规则)。(2)问题求解任务要求对于给定的目标状态,寻找一个将当前状态转换为目标状态的动作序列;机器学习在这一领域的研究工作大部分集中于通过学习来获取能提高问题求解效率的知识(如搜索控制知识,启发式知识等)。3.综合分类综合考虑各种学习方法出现的历史渊源、知识表示、推理策略、结果评估的相似性、研究人员交流的相对集中性以及应用领域等诸因素,将机器学习方法区分为以下六类:1)经验性归纳学习(empirical inductive learning)经验性归纳学习采用一些数据密集的经验方法(如版本空间法、ID3法,定律发现方法)对例子进行归纳学习,其例子和学习结果一般都采用属性、谓词、关系等符号表示。它相当于基于学习策略分类中的归纳学习,但扣除联接学习、遗传算法、加强学习的部分。2)分析学习(analytic learning)分析学习方法是从一个或少数几个实例出发,运用领域知识进行分析。其主要特征为: 推理策略主要是演绎,而非归纳; 使用过去的问题求解经验(实例)指导新的问题求解,或产生能更有效地运用领域知识的搜索控制规则。分析学习的目标是改善系统的性能,而不是新的概念描述。分析学习包括应用解释学习、演绎学习、多级结构组块以及宏操作学习等技术。3)类比学习它相当于基于学习策略分类中的类比学习。目前,在这一类型的学习中比较引人注目的研究是通过与过去经历的具体事例作类比来学习,称为基于范例的学习(case_based learning),或简称范例学习。4)遗传算法(genetic algorithm)遗传算法模拟生物繁殖的突变、交换和达尔文的自然选择(在每一生态环境中适者生存)。它把问题可能的解编码为一个向量,称为个体,向量的每一个元素称为基因,并利用目标函数(相应于自然选择标准)对群体(个体的集合)中的每一个个体进行评价,根据评价值(适应度)对个体进行选择、交换、变异等遗传操作,从而得到新的群体。遗传算法适用于非常复杂和困难的环境,比如,带有大量噪声和无关数据、事物不断更新、问题目标不能明显和精确地定义,以及通过很长的执行过程才能确定当前行为的价值等。同神经网络一样,遗传算法的研究已经发展为人工智能的一个独立分支,其代表人物为霍勒德。5)联接学习典型的联接模型实现为人工神经网络,其由称为神经元的一些简单计算单元以及单元间的加权联接组成。6)加强学习(reinforcement learning)加强学习的特点是通过与环境的试探性(trial and error)交互来确定和优化动作的选择,以实现所谓的序列决策任务。在这种任务中,学习机制通过选择并执行动作,导致系统状态的变化,并有可能得到某种强化信号(立即回报),从而实现与环境的交互,强化信号就是对系统行为的一种标量化的奖惩。系统学习的目标是寻找一个合适的动作选择策略,即在任一给定的状态下选择哪种动作的方法,使产生的动作序列可获得某种最优的结果(如累计立即回报最大)。在综合分类中,经验归纳学习、遗传算法、联接学习和加强学习均属于归纳学习,其中经验归纳学习采用符号表示方式,而遗传算法、联接学习和加强学习则采用亚符号表示方式;分析学习属于演绎学习。实际上,类比策略可看成是归纳和演绎策略的综合。因而最基本的学习策略只有归纳和演绎。从学习内容的角度看,采用归纳策略的学习由于是对输入进行归纳,所学习的知识显然超过原有系统知识库所能蕴涵的范围,所学结果改变了系统的知识演绎闭包,因而这种类型的学习又可称为知识级学习;而采用演绎策略的学习尽管所学的知识能提高系统的效率,但仍能被原有系统的知识库所蕴涵,即所学的知识未能改变系统的演绎闭包,因而这种类型的学习又被称为符号级学习。2.4目前研究领域目前,机器学习领域的研究工作主要围绕以下三个方面进行:1)面向任务的研究。研究和分析改进一组预定任务的执行性能的学习系统。2)认知模型。研究人类学习过程并进行计算机模拟。3)理论分析。从理论上探索各种可能的学习方法和独立于应用领域的算法,机器学习是继专家系统之后人工智能应用的又一重要研究领域,也是人工智能和神经计算的核心研究课题之一。现有的计算机系统和人工智能系统没有什么学习能力,至多也只有非常有限的学习能力,因而不能满足科技和生产提出的新要求。对机器学习的讨论和机器学习研究的进展,必将促使人工智能和整个科学技术的进一步发展。3.支持向量机的原理支持向量机(Support Vector Machine,SVM)是由Vapnik及其合作者共同创造与发展起来的一种新的机器学习方法,其核心内容在1992年至1995年间提出的。目前,支持向量机已经成为机器学习领域的标准工具之一并仍在不断的发展之中。支持向量机集成了机器学习领域的若干标准,如最人间隔超平面,Mercer核,凸二次规划,松弛变量等技术等。支持向量机在语音识别、字符识别等领域均获得了目前为止最好的性能。在美国的科学杂志上,支持向量机被认为“是机器学习领域中的一个令人瞩目的发展方向”10。3.1统计学习理论统计学习理论建立在一套较为坚实的理论基础之上,为解决有限样本的学习问题提供了一个统一的框架。它能将许多现有的方法纳入其中,有望帮助解决许多原来难以解决的问题,比如神经网络的结构选择问题、局部最小点问题等。3.1.1机器学习问题机器学习问题1可以看作是通过某种训练方法,对某一系统的输入与输出之间的依赖关系进行估计,并且期望这一估计可以对任意给定输入尽量准确地进行输出预测。一般地,机器学习问题可以表示为:假设变量与之间存在一定的未知依赖关系,即遵循某一未知的联合概率(和之间的确定性关系可以看作是其特例),机器学习问题就是根据n个独立同分布观测样本,在一组函数中求一个最优的函数对依赖关系进行估计,使得期望风险最小。 3-(1)其中称作预测函数集,为函数的广义参数,可以表示任何函数集;为由于用对进行预测而造成的损失,不同类型的学习问题有不同形式的损失函数。在上面问题的表述中,学习的目标在于使期望风险最小化,但是,由于可以利用的信息只有样本最初的观测样本,因此,期望风险3-(1)是无法计算的。传统的学习方法是采用了所谓经验风险最小化(ERM)准则11,即用样本定义经验风险 3-(2)来逼近3-(1)定义的期望风险,用对参数求经验风险的最小值代替求期望风险的最小化,这就是所谓的经验风险最小化原则。事实上,用经验风险最小化准则代替期望风险最小化并没有经过充分的理论论证,只是直观上合理的想当然做法,但这种思想却在多年的机器学习方法研究中占据了主要地位。而实际上,即使可以假定当n趋向于无穷大时,公式3-(2)趋近于公式3-(1),但在很多实际的问题中,样本数目也离无穷大相去甚远,那么在有限样本情况下,采用最小化经验风险准则,得到的结果能使真实风险也较小吗?要得到这个答案,需要了解统计学习理论对采用经验风险最小化准则解决期望风险最小化问题的前提,如果这些前提不成立时,需要找到更合理的准则。在早期的机器学习理论的研究中,人们总是把注意力集中在如何使更小,但很快便发现,一味追求训练误差小并不是总能达到好的预测效果。在某些情况下,当训练误差过小反而会导致推广能力的下降,这就是几乎所有神经网络研究者都曾得到的过学习(Overfitting)问题,即训练误差过小反而导致推广能力下降、真实风险的增加。从理论上看,模式识别中也存在同样的问题,但因为通常使用的分类器模型(比如线性分类器)都是相对比较简单的,因此过学习问题并不像神经网络中那样突出。支持向量机是在统计学习理论的基础上发展起来的,它能够有效地解决小样本问题,同时避免过学习问题的产生,它的出现推动了机器学习理论和技术的发展。3.1.2统计学理论的发展与支持向量机统计学习理论(Statistical Learning Theory,SLT)是一种专门研究小样本情况下机器学习规律的理论。该理论针对小样本统计问题建立了一套新的理论体系,在这种体系下的统计推理规则不仅考虑了对渐近性能的要求,而且追求在现有有限信息的条件下得到最优结果。V. Vapnik等人从六、七十年代开始致力于此方面研究,到九十年代中期,随着其理论的不断发展和成熟,也由于神经网络等学习方法在理论上缺乏实质性的进展,统计学习理论开始受到越来越广泛地重视。同时,在这一理论基础上发展了一种新的通用学习方法-支持向量机。目前,支持向量机已初步表现出很多优于各种传统方法的性能。概括说来,统计学习理论就是研究小样本统计估计和预测的理论,主要内容包括以下四个方面:(1)经验风险最小化准则下统计学习一致性的条件;(2)在这些条件下关于统计学习方法推广性的界的结论;(3)在这些界的基础上建立的小样本归纳推理准则;(4)实现新的准则的实际方法(算法)。其中,最有指导性的理论结果是推广性的界,与此相关的一个核心概念是维。统计学习理论被认为是只前针对小样本统计估计和预测学习的最佳理论,它从理论上较系统地研究了经验风险最小化原则成立的条件,有限样本下经验风险与期望风险的关系及如何利用这些理论找到新的学习原则和方法等问题。3.1.3维理论模式识别方法中维的直观定义是:对一个指示函数集,如果存在个样本能够被函数集中的函数按所有可能的种形式分开,则称函数集能够把个样本打散;函数集的维就是它能打散的最大样本数目。若对任意数目的样本都有函数能将它们打散,则函数集的维是无穷大。维反映了函数集的学习能力,维越大则学习机器越复杂(容量越大)。遗憾的是,目前尚没有通用的关于任意函数集维计算的理论,只确定了一些特殊的函数集的维。比如在维实数空间中线性分类器和线性实函数的维是,对于一些比较复杂的学习机器(如神经网络),其维除了与函数集(神经网结构)有关外,还受学习算法等的影响,其确定更加困难。但是,在实际应用统计学习理论时,可以通过变通的办法巧妙地避开直接求维的问题。3.1.4推广性的界统计学习理论系统地研究了对于各种类型的函数集,经验风险和实际风险之间的关系,即推广性的界。关于两类分类问题,结论是:对指示函数集中的所有函数(包括使经验风险最小的函数),经验风险和实际风险之间以概率满足如下关系: 3-(3)其中是函数集的维,是样本数。这一结论从理论上说明了学习机器的实际风险是由两部分组成的:一是经验风险(训练误差),另一部分称作置信范围,它和学习机器的维及训练样本数有关,可以简单地表示为: 3-(4) 它表明,在有限训练样本下,学习机器的维越高(复杂性越高)则置信范围越大,导致真实风险与经验风险之间可能的差别越大,这就是为什么会出现过学习现象的原因。机器学习过程不但要使经验风险最小,还要使维尽量小以缩小置信范围,才能取得较小的实际风险,即对未来样本有较好的推广性,这一理论可以由图3.1说明。图3.1 置信范围、经验风险与实际风险之间的关系由图3.1可以看出,当样本数目固定,算法的维增大时,它对给定训练样本集合有更强的分类或拟合能力,导致了更小的经验风险,甚至使它为零。但是,维增大时,也随之增大,即放大了置信范围,从而减小了算法具有小的实际风险的可能性。反之,若维缩小,那么它对给定的训练样本集合的分类或拟合能力减弱,导致了大的经验风险,此时,虽然置信区间缩小了,但仍不能保证获得小的实际风险。可以看出固定时与是一对矛盾体,它们不可能同时都减小,但确实存在某个值使实际风险上界达到最小值。3.1.5结构风险最小化原则经验风险最小化原则是目前绝大多数模式识别方法的基础,其定义为训练集上的平均错误率,用于对整个样本集的期望风险进行估计,它建立在样本数目足够多的前提下,致使各种方法只有在样本数趋向无穷大时,其性能才有理论上的保证。而在现实世界的应用中,这一前提并不总能被满足,这时大多数此类方法都难以取得理想的结果。由3.1.4节中的推广性的界可以看出,影响期望风险上界的因子有两个方面:首先是训练集的规模,其次是维。可见,在保证分类精度(经验风险)的同时,降低学习机器的维,可以使学习机器在整个样本集上的期望风险得到控制,这就是结构风险最小化(Structure Risk Minimization,简称SRM)的由来。 由维的讨论可以看到,经验风险和期望风险依赖于学习机器函数族的选择。把函数集分解为一个函数子集序列 3-(5)使各个子集能够按照置信范围的大小排序,即 3-(6)所谓结构风险最小化,便是构造一组嵌套的函数子集,使得其维由内向外依次递增,然后在其上寻找经验风险和置信范围之和最小的子集,从而使得实际风险的上界最小化,如图3.2所示图3.2 结构风险最小化示意图基于结构风险最小化准则的统计学习理论是一种专门研究小样本的统计理论,它为研究有限样本情况下的统计模式识别,并为更广泛的机器学习问题建立了一个较好的理论框架,同时也发展出了一种新的模式识别方法支持向量机,从而能够较好地解决小样本的学习问题。3.2支持向量机理论SVM方法是由Vapnik及其合作者Boser、Guyon、Cortes及Scholkopf在AT&TBell实验室共同创造与发展起来的一种新的学习方法。近年来,许多关于SVM方法的研究,包括算法本身的改进和算法的实际应用,都陆续被提了出来,其中在理论上主要以Vapnik及其研究小组做了大量开创性及奠基性的工作。目前SVM正处于不断发展阶段,现在已经成为机器学习领域的标准工具之一。支持向量机是个三层网络结构,是一个多输入、单输出的学习机器,其体系结构如图3.3所示图3.3 支持向量机的体系结构其中,位于体系结构最底层的是输入样本,是样本与支持向量在特定空间的内积,是拉格朗日乘子,是决策函数的输出。图3.3清晰的表示出支持向量机的逻辑概念框架,首先确定训练样本作为支持向量机的输入,然后选择适当的核函数,将样本从输入空间映射到高维的特征空间,根据优化问题求解出来的支持向量最终得到相应的决策函数。它与传统的神经网络的最大区别在于:神经网络结构的确定大多是凭经验选取的,有一定的盲目性,无法确定泛化的置信空间界限,所以无法保证网络的推广能力,容易出现过学习的现象。而支持向量机网络通过结构化风险最小化归纳原理控制学习单元的维的上界,限制了学习单元的能力,在一定程度上避免了过学习现象。支持向量机是建立在统计学习理论的维理论和结构风险最小化原理基础上的,根据有限的样本信息在模型的复杂性和学习能力之间寻求最佳折衷,以期获得最好的推广能力。支持向量机被看作是对传统分类器的一个好的发展,在解决小样本、非线性和高维的机器学习问题中表现出了许多特有的优势。概括的说,支持向量机是以寻找最优分类面为目标、以二次规划为手段、以非线性映射为理论基础的统计学习方法。下面将分别从这几个方面对支持向量机理论进行系统的阐述。3.2.1最优分类面支持向量机是从线性可分情况下的最优分类面发展而来的,其基本思想可用图3.4表示,对应于一维空间中的点,二维空间中的直线,三维空间中的平面,以及高维空问中的超平面。图中圆形和三角形的标志分别代表两类样本,中间的实线为两类样本之间的分类超平面,两条虚线分别表示过各类中距离分类面最近的样本且平行于分类面的超平面,它们之间的距离叫做分类间隔(margin)。图3.4 最优分类面示意图最优分类面在把两类正确分开的同时保证分类间隔最大,根据结构风险最小化原则,前者是保证经验风险最小,而后者使分类问隔最大,导致维最小,实际上就是使推广性的界中的置信范围最小,从而达到使真实风险最小。后者保证维最小,从而达到使真实风险最小。假定给出一个样本集满足 3-(7)其中是分类面方程,此时分类间隔为,最终目标是求一个分类面,使得能够将两类样本正确分类的同时保证分类间隔最大,这里是使最小。如图3.4所示,中间的实线为最优分类面,两侧虚线上的样本即为支持向量。因而,在线性可分的情况下,得到的SVM的目标函数是: 3-(8) 3-(9)为求得公式3-(8)的最小值,定义如下Lagrange函数: 3-(10)其中为各样本对应的Lagrange乘子。为了求解表达式3-(10)的最小值,可以令该泛函对、求偏导,并令其等于零,我们得到表达式3-(10)的相应的对偶函数: 3-(11) 3-(12)在表达式3-(12)的约束下,求得表达式3-(11)的唯一解,其中,不为零Lagrange乘子所对应的样本就是支持向量。若为最优解,相应的求出最优分类面权系数向量和分类器的阈值 : 3-(13) 3-(14)其中、分别表示两类中任意一个支持向量。由上面推导得出的参数、可以得到分类器的决策函数: 3-(15)上述方法可以确保在线性可分的情况下将全部样本正确分类,如果对于线性不可分或者事先不知道是否线性可分的情况,可以通过引入非负松弛变量来允许错分样本的存在。相应地,表达式3-(7)、3-(8)、3-(9)分别变为: 3-(16) 3-(17) 3-(18)其中,是一个自定义的惩罚因子,它表示对错分样本惩罚的程度,用来控制样本偏差与机器推广能力之间的折衷。C越大,对错分样本的惩罚就越大,对错分样本的约束程度就越大。容许错分的分类面又称为软问隔分类面12,求解表达式3-(17)的优化问题和求解表达式3-(8)的优化问题类似,都是通过引入相应的拉格朗日函数及其对偶问题并对其求解,最终得到最优分类判别函数。3.2.2标准支持向量机支持向量机是从线性可分情况下的最优分类面发展而来的,前面介绍的是在线性分类情况下如何求解最优分类超平面。而在实际问题中,分类问题是常常是非线性问题,理想的最优分类面应该是非线性的。支持向量机解决非线性问题的思想是:首先选择适当的核函数13,将低维空间的训练样本通过非线性映射映射到高维特征空间中,然后用前面介绍的方法在高维空间中求解最优分类超平面,高维空问中得到的线性分类面就对应着低维空间的非线性分类面。如图3.5所示,支持向量机处理非线性分类问题时,只是比线性分类问题多了个非线性映射过程,设定该非线性映射为: 3-(19)则表达式3-(11)的优化问题最转化为: 3-(20)图3.5 输入空间和特征空间所对应的分类面示意图非线性映射的引入很好的解决了非线性分类问题,同时也增加了优化求解的困难,使3-(20)的计算非常不容易实现,但是注意到,上面的对偶问题中只涉及到高维空间中的内积运算,即,而没有单独的映射。因此,可以考虑是否可以找到输入空间的一个函数来替代特征空间的内积运算,即 3-(21)这样就省去了高维空间中复杂的内积计算,我们甚至不需要知道映射变换,的具体表示形式。根据泛函的有关理论,只要满足下列定理的Mercer条件,它就对应某一变换空间的内积。定理3.1(Mercer条件)对于任意的对称函数,它是某个特征空间中的内积运算的充分必要条件是,对于任意的且有 3-(22)这样,在高维空间中求解最优分类面时,可以通过采用适当的核函数将高维空将的内积运算转化为低维空间的函数运算,就可以在不影响计算复杂度的情况下实现非线性分类问题。表达式3-(20)也相应的转化为: 3-(23)相应的最优分类面的决策函数也转化为: 3-(24)我们称3-(21)的为核函数,核函数的引入,很好的解决了高维问题,将高维空间的内积运算转化为低维空间的函数运算,常用的核函数有多项式核函数、径向基核函数和Sigmoid核函数等。(1)多项式核函数 3-(25)(2)径向基核函数 3-(26)(3)Sigmoid核函数 3-(27)4.支持向量机的主要研究热点支持向量机是从统计学发展而来的一种新型的机器学习方法,在解决小样本、非线性和高维的机器学习问题中表现出了许多特有的优势,但是,支持向量机方法中也存在着一些亟待解决的问题,主要包括:如何用支持向量机更有效的解决多类分类问题,如何解决支持向量机二次规划过程中存在的瓶颈问题、如何确定核函数以及最优的核参数以保证算法的有效性等。4.1支持向量机多类分类方法支持向量机最初是为两类分类而设计的,不能直接用于解决多分类问题,而在实际应用中遇到的多为多分类问题。为了扩展SVM的应用范围以适应实际需求,支持向量机的多类分类方法的研究也就成为支持向量机研究的一个热点14。常用的方法有“one-against-one”方法、“one-against-rest”方法、有向无环图SVMS、基于决策树的方法等。目前一些SVM的多类分类算法已经得到推广应用,如文本(超文本)分类、图像分类、生物序列分析和手写字符识别等15。1.“one-against-rest”方法“one-against-rest”方法是支持向量机多类分类方法最早使用的算法。用支持向量机解决多类分类问题16,通常的方法是构造一系列两类分类器,将这些子分类器按照不同的方式组合就可以解决多类分类问题。“oneagainst-rest”方法是对于类问题构造个支持向量机子分类器,每个子类都与其余类构造一个子分类器,在构造第个支持向量机子分类器时,将属于第类的样本数据标记为正类,不属于类别的样本数据标记为负类。解决下面的最优化问题: 4-(1) 4-(2)求解4-(1)最优化问题后,就可以得到个决策函数: 4-(3)测试时,对测试数据分别计算各个子分类器的决策函数值,并选取函数值最大的所对应的类别为测试数据的类别。对于待测样本,将其输入这个决策函数中,得到个值,取得最大值的函数对应的类别即为该样本所属类别,那么用表示样本所属的类别: 4-(4) “one-against-rest”方法的一个明显优点是,只需要训练个两类分类支持向量机,故其所得到的分类函数的个数较小,分类速度也相对较快。该方法的缺点是,每个分类器的训练都要将全部的样本作为训练样本,使训练速度随着训练样本数量的增加急剧减慢,训练时间较长。2.“one-against-one”方法“one-against-one”方法16也是要构造一系列两类分类器,与“one-against-rest”方法不同的是,“one-against-one”方法是对于任意的两个类都构造一个两类分类器,这样类样本共产生个SVM子分类器。在构造类别和类别的SVM子分类器时,在样本数据集中仅选取属于类别和类别,的样本数据作为训练样本数据,并将属于类别的数据标记为正,将属于类别的数据标记为负。“one-againstone”方法需要解决如下的最优化问题: 4-(5) 4-(6)其中,对于类别和类别的个样本成立,由于,因此存在个不同的SVM子分类器,这种方法符合SVM的特点,可以直接计算两类之间的分类平面。“one-against-one方法中,用于测试的常用方法是“投票机制
展开阅读全文
相关资源
相关搜索

最新文档


当前位置:首页 > 办公文档 > 工作计划


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!