第八章 高层理解--目标识别

上传人:小*** 文档编号:243495293 上传时间:2024-09-24 格式:PPT 页数:74 大小:286KB
返回 下载 相关 举报
第八章 高层理解--目标识别_第1页
第1页 / 共74页
第八章 高层理解--目标识别_第2页
第2页 / 共74页
第八章 高层理解--目标识别_第3页
第3页 / 共74页
点击查看更多>>
资源描述
单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,*,*,Zhang,Xingming,The Institute of Computer Science and Engineering,Chapter 8 Object Recognition,8.1,知识表示,描述和特征,描述,:物体的标量特性,称为特征,;,特征矢量,:,几个描述组合起来,;,例如,2,结构描述,基元,:,形成物体的基本单元,由他们的类型信息表示,;,结构描述,:,基元和它们之间的关系生成,通过符号构成的链、树和图来描述,;,语法,:,字生成器的数学模型,;,语言,:,字的集合,;,a,a,b,b,c,c,abcabc,谓词逻辑,它为从旧知识中通过演绎得到新知识提供了一种数学形式,;,处理对象是逻辑变量和量词和逻辑运算符。,产生式规则,If,条件,X,处理,then,采取动作,Y;,模糊逻辑,克服数值和精确知识表示的明显局限,;,可以用模糊规则表示知识,:,if X is A then Y is B;,6,语义网络,为一个有向图,她的节点表示物体,弧表示物体之间的关系,;,左边,左边,圈手椅,宽型,椅子,高背椅,高型,椅子,矮背椅,低型,椅子,框架,type,name,id,attribute,Relation,。,。,。,slot,顶层,底层,8.2,图象识别系统的基本原理,模式,是对某些感兴趣客体的定量或结构描述。,模式类,就是具有某些共同特性的模式的集合。,模式识别,就是研究一种自动技术,依靠这种技术,机器将自动(或尽可能少的人工干预)把待识模式分配到各自的模式类中去。这就需要把人们的知识和经验教给机器,为机器制定一些规则和方法,并且让机器能够完成自动识别的任务,这就是模式识别的研究目标。,1,、预处理,它主要完成模式的采集、模数转换、滤波、消除模糊、减少噪声、纠正几何失真等预处理操作。因此也要求相应的设备来实现。,2,、,特征或基元提取,特征提取实现由模式空间向特征空间的转换,有效地压缩维数。一般地说,它该是在一定分类准则下的最佳或次最佳变换器。,模式识别中,分类器的分类规则固然重要,但是,如果所基于的模式特征没有包含足够的待识客体的信息或未能提取反映客体特征的信息,那么,识别的结果将面目全非。所以说,在设计分类器之前,能够快速、有效地进行特征提取是模式识别的关键。不幸的是,直到目前为止还没有形成特征提取的一般理论,随着识别任务的不同,特征提取的方法也不一样。此外,如果待识别的模式样本本身携带反映不同模式本质特性的特征,则特征提取也不一定需要。,归纳起来,一般常用的方法主要包括:,傅立叶分析,(Fourier Transformation),;,梅林变换,(,Meilin,Transformation),;,小波变换,(Wavelet Transformation),;,矢量量化,(Vector Quantization),;,神经网络,(Neural Network),;,高阶矩,(Higher Moment),;,3,、,分类训练,为了能使分类器有效地进行分类判决,还必须对分类器进行训练(学习)。分类器的训练学习是模式识别的一个重要概念。由于我们研究机器的自动识别,对分类器进行训练,使它学会识别,具有自动识别的能力,尤为重要。众所周知,一个孩子认字尚需一个反复学习过程,何况一部机器要掌握某种判决规则,学习过程更必不可少。当然,对于不同的分类方法,其学习规则也不一样。,4,、分类,在完成训练的基础上,分类器根据已经确定的判决规则,对未知类别属性的样本执行判决过程,就是说,分类器具有了自动识别的能力。这是模式识别“出成果”的阶段,直接以其分类结果表明本次识别的结束。显然,这是举足轻重的阶段,弄得不好,会使前几阶段的工作付诸东流。,8.3,统计模式识别,在经典模式识别中,根据用来解决模式识别问题的数学技巧,可以将它分成两种一般的方法,统计模式识别和句法模式识别。原则上讲,聚类分析属统计模式识别的范畴,但其无监督训练的特点,所以将它单独列出。,在经典模式识别中,统计模式识别在模式识别技术的发展中一直起着显著的作用,统计决策论和有关领域已成为一个固定的领域,其中实质性的理论进展和创造不断发生,这些发展强有力地冲击于模式识别的应用。按确定论和随机论来分,可分为几何分类法和概率分类法。,1,、,几何分类法,1),模板匹配法,它是模式识别中的一个最原始、最基本的方法,它将待识模式分别与各标准模板进行匹配,若某一模板与待识模式的绝大多数单元均相匹配,则称该模板与待识模式“匹配得好”,反之则称“匹配得不好”,并取匹配最好的作为识别结果。,2,),距离分类法,距离是一种重要的相似性度量,通常认为空间中两点距离越近,表示实际上两样本越相似。大约有十余种作为相似性度量的距离函数,其中使用最广泛的是欧氏距离。它是使用最为广泛的方法,常用的有平均样本法、平均距离法、最近邻法和近邻法。,最近邻分离器,K,近邻分离器,3,),线性判别函数,和上述的方法不同,判决函数法是以判决边界的函数形式的假定为其特性的,而上述的方法都是以所考虑的分布的假定为其特性的。假如我们有理由相信一个线性判决边界取成:,是合适的话,那么剩下的问题就是要确定它的权系数。权系数可通过感知器算法或最小平方误差算法来实现。但作为一条规则,应用此方法必须注意两点;第一就是方法的可适性问题,第二就是应用判决函数后的误差准则。,4,),非线性判别函数,线性判决函数的特点是简单易行,实际应用中许多问题往往是非线性的,一种处理的办法将非线性函数转换为线性判决函数,所以又称为广义线性判决函数。另一种方法借助电场的概念,引入非线性的势函数,它经过训练后即可用来解决模式的分类问题。,2,概率分类法,几何分类法是以模式类几何可分为前提条件的,在某些分类问题中这种条件能得到满足,但这种条件并不经常能得到满足,模式的分布常常不是几何可分的,即在同一区域中可能出现不同的模式,这时,必须借助概率统计这一数学工具。可以说,概率分类法的基石是贝叶斯决策理论。,设有,R,类样本,分别为,w,1, w,2, ,w,R,若每类的先验概率为,P(w,ii,), i = 1,2 ,3,R,对于一随机矢量,每类的条件概率为(又称类概率密度),P(X/,W,ii,),,,则根据,Bayes,公式,后验概率为:,从后验概率出发,有,Bayes,法则:,以贝叶斯法则为基础,在考虑错误判决和判决风险的情况下,就可以得到最小错误率判决、最小风险判决和最大似然判决等规则。当然,如果先验概率和损失函数没有提供,或没有全部被提供,上述最基本的贝叶斯分类方法就发生了困难。为此,可应用聂曼皮尔逊判决规则和最小最大判决规则。上述方法都可统称为贝叶斯分类器。分类器训练的主要任务是完全确定类概率密度函数。如果训练样本的类别属性是已知的,则称为有监督训练,否则称为无监督训练。对于有监督训练的情况,当已知类概率密度的函数形式时,就要选用参数估计方法,否则就要选用非参数估计的方法。常用的参数估计方法有最大似然估计、贝叶斯估计和贝叶斯学习。非参数估计的任务就是利用已知的训练样本集来估计概率分布密度,常用的方法有,Parzen,窗法、,K,n,近邻法和正交级数展开逼近法。对于无监督训练,也有相应的参数估计方法,此处就不详述。,(,1,),分类器学习,定义,:,从样本集合中设置分类器参数的方法,;,训练集,:,模式和带有类别信息的集合,;,分类器设置,应该是最优或次优的,能够识别那些它没有“见过”的对象;,训练集,的大小一般逐步增加几次,直到可以取得正确的分类器设置。,(,2,),基本性质,学习,:,系统优化的过程;,学习目标,:使优化准则最小;,训练集合有限,,学习过程应该具有归纳的特点;,学习无法一步完成,是一个,循序渐进,的过程,物体描述,实际上是在允许分类错误率、分类时间和分类器构造复杂度之间的折中。,(,3,) 分类器学习,两个,常用方法:概率密度估计和直接损失最小化,概率密度估计,若,概率密度的形式未知,则必须估计概率密度,若已知,则必须估计参数。,(a) ,已知,,未知,(b) ,未知,,已知,(c),和 均未知,算法,学习,:,计算平均向量,和协方差,;,计算概率密度,;,计算先验概率,;,分类,:,3,聚类分析,硬,C,均值聚类算法,HCM,:,设 为一模式集,,C,为聚类的类别数(,2 c 0, the state is accepted with probability:,3 algorithm:,Let x be a vector of optimization parameters; compute the value of the objective unction J(x);,Repeat step 3 and 4 n times;,Perturb the parameter vector x slightly, creating the vector,x,new, and compute the new J(x);,Generate a random number r,(0,1), from a uniform distribution in the interval(0,1), if,Then assign x =,x,new, and J(x)=,J(x,new,);,Repeat step 2 to 4 until a convergence criterion is met;,The parameter vector x now represents the solution of the optimization problem;,
展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 图纸专区 > 小学资料


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!