模式识别试题2

上传人:daj****de2 文档编号:127455718 上传时间:2022-07-30 格式:DOCX 页数:4 大小:26.70KB
返回 下载 相关 举报
模式识别试题2_第1页
第1页 / 共4页
模式识别试题2_第2页
第2页 / 共4页
模式识别试题2_第3页
第3页 / 共4页
点击查看更多>>
资源描述
模式识别试题库、基本概念题1模式识别的三大核心问题是:()、( )、( )。2、模式分布为团状时,选用( )聚类算法较好。3 欧式距离具有( )。马式距离具有( )。(1)平移不变性(2)旋转不 变性(3)尺度缩放不变性(4)不受量纲影响的特性4 描述模式相似的测度有( )。(1)距离测度 (2)模糊测度 (3)相似测度 (4) 匹配测度5 利用两类方法处理多类问题的技术途径有:(1) (2) (3) 。其中最常用的是第( )个技术途径。6 判别函数的正负和数值大小在分类中的意义是:( )。7 感知器算法 ( )。(1)只适用于线性可分的情况;(2)线性可分、不可分都适用。8 积累位势函数法的判别界面一般为(9 基于距离的类别可分性判据有:()。(1)线性界面;(2)非线性界面。S).(1) TrSWlSB (2)SW (3)SBS + SW B10 作为统计判别问题的模式分类,在()情况下,可使用聂曼-皮尔逊判决准则。11确定性模式非线形分类的势函数法中,位势函数K(x,xk)与积累位势函数K(x)的关系为)。12用作确定性模式非线形分类的势函数法,通常,两个n维向量x和xk的函数K(x,xk)若同时满足下列三个条件,都可作为势函数。();I);K(x,xk)是光滑函数,且是x和xk之间距离的单调下降函数。13散度Ji j越大,说明i类模式与 j类模式的分布()。当i类模式与j类模式的分布相同时,Jij=()。14 若用 Parzen 窗法估计模式的类概率密度函数,窗口尺寸 h1 过小可能产生的问题是 (),hl过大可能产生的问题是()。)。)条件下,最小损失判决规则与最15 信息熵可以作为一种可分性判据的原因是:(16作为统计判别问题的模式分类,在( 小错误判决规则是等价的。17 随机变量 l(X )=p( X|l)/p( X|2), l(X)又称似然比,则 El( X)|2=()在最小误判概率准则下,对数似然比Bayes判决规则为()。18 影响类概率密度估计质量的最重要因素()。J 二 E -才 P( | f)log P( I X),说19基于熵的可分性判据定义为H X匸i 11,JH越(明模式的可分性越强。当P(roi| X)=()(i=1,2,c)时,JH取极大值。20 Kn近邻元法较之于Parzen窗法的优势在于()。上述两种算法的共同弱点主要是()。21 已知有限状态自动机Af=(工,Q,5, qO, F),工=0, 1; Q=qO, q1; 5: 5(q0,0)=q1, 8(q0, 1)= q1, 5(q1, 0)=q0, 5(q1, 1)=q0; q0=q0; F=q0。现有输入字符串:(a) 00011101011, (b) 1100110011, (c) 101100111000, (d)0010011, 试问,用Af对上述字符串进行分类的结果为()。22 句法模式识别中模式描述方法有:( )。(1)符号串 (2)树 (3)图 (4) 特征向量23设集合X=a,b,c,d上的关系,R= (a,a),(a,b),(a,d),(b,b),(b,a),(b,d),(c,c),(d,d),(d,a),(d,b),贝V a,b,c,d 生成的R等价类分别为(aR=,bR=,cR=dR=)。24如果集合X上的关系R是传递的、()和()的,则称R是一个等价关系。25一个模式识别系统由那几部分组成?画出其原理框图。26 统计模式识别中,模式是如何描述的。27 简述随机矢量之间的统计关系:不相关,正交,独立的定义及它们之间的关系。28 试证明,对于正态分布,不相关与独立是等价的。29 试证明,多元正态随机矢量的线性变换仍为多元正态随机矢量。30试证明,多元正态随机矢量X的分量的线性组合是一正态随机变量。第二部分分析、证明、计算题 第二章聚类分析2.1 影响聚类结果的主要因素有那些?2.2 马氏距离有那些优点?2.3 如果各模式类呈现链状分布,衡量其类间距离用最小距离还是用最大距离?为什么?2.4 动态聚类算法较之于简单聚类算法的改进之处何在?层次聚类算法是动态聚类算法 吗?比较层次聚类算法与c-均值算法的优劣。2.5 ISODATA算法较之于c-均值算法的优势何在?2.9 (1)设有M类模式i, i=l,2,.,M,试证明总体散布矩阵ST是总类内散布矩阵SW 与类间散布矩阵SB之和,即ST = SW+SBO(2) 设有二维样本:xl=(-l,O)T, x2=(0,-l)T, x3=(0,0)T, x4=(2,0)T 和 x5=(0,2)T。试 选用一种合适的方法进行一维特征特征提取yi = WTxi o要求求出变换矩阵W,并求出变换结果yi , (i=l,2,3,4,5)。(3) 根据(2)特征提取后的一维特征,选用一种合适的聚类算法将这些样本分为两类,要 求每类样本个数不少于两个,并写出聚类过程。2.10 (1)试给出c-均值算法的算法流程图;(2)试证明c-均值算法可使误差平方和准则J (k )j=1)最小。Z (k) W (k)其中,k是迭代次数;j是 j的样本均值。2.12有样本集0/ 0r 4 r 4 r 5 r 5 r i 0: 1: 4 : 4 :0丿试用谱系聚类算法对其分类。第三章判别域代数界面方程法3.1 证明感知器算法在训练模式是线性可分的情况下,经过有限次迭代后可以收敛到正确的解矢量*w*3.2 (1)试给出LMSE算法(H-K算法)的算法流程图;(2) 试证明X#e(k)=0,这里,X#是伪逆矩阵;e(k)为第k次迭代的误差向量;(3) 已知两类模式样本 w1: xl=(-l,0)T, x2=(l,0)T; w2: x3=(0,0)T, x4=(0,-l)T。 试用LMSE算法判断其线性可分性。3.4 已知二维样本:1 = (-l,O)T,2 = (O,-1)T,=(O,O)T,4 = (2,0)T 和 5 = (0,2)T,X1,=,孕1,叫,x52。试用感知器算法求出分类决策函数,并判断X6 =(1,1)T属于哪一类?3.4.已知模式样本xl=(0,0)T,x2=(l,0)T,x3=(-l,l)T分别属于三个模式类别,即, x1ew1,x2ew2,x3ew3,(1) 试用感知器算法求判别函数gi(x),使之满足,若xiEwi则gi(x)O, i=l,2,3;(2) 求出相应的判决界面方程,并画出解区域的示意图。给定校正增量因子C=1,初始值 可以取:w1(1)=(4,-9,-4)T,w2(1)=(4,1,-4,)T,w3(1)=(-4,-1,-6)T。3.5已知w1: (0,0)T,w2: (l,l)T,w3: (-1,1)T。用感知器算法求该三类问题的判 别函数,并画出解区域。第四章统计判决4.1 使用最小最大损失判决规则的错分概率是最小吗?为什么?4.3假设在某个地区的细胞识别中正常W1和异常W2两类的先验概率分别为 正常状态:P(Wi)二 0.9 异常状态:P(w2)二 现有一待识的细胞,其观测值为 x ,从类条件概率密度分布曲线上查得p(x w ) = 0.2 , p(xi w ) = 0.4并且已知损失系数为九11=0,九12=1,九21=6,九22=0。试对该细胞以以下两种方法进行分类:基于最小错误概率准则的贝叶斯判决;基于最小损失准则的贝叶斯判决。请分析两种分 类结果的异同及原因。4.4试用最大似然估计的方法估计单变量正态分布的均值卩和方差& 2。4.5 已知两个一维模式类别的类概率密度函数为 x0Wx1 x-11Wx2p(x|w2)= 3-x 2WxW3p(x|w1)= 2-x 1WxW20其它0其它先验概率 P(w1)=0.6, P(w2)=0.4,(1)求0-1代价Bayes判决函数; (2)求总错误概率P(e);(3) 判断样本x1=1.35,x2=1.45,x3=1.55,x4=1.65各属于哪一类别。4.16在两类分类问题中,限定其中一类的错分误概率为E1=E,证明,使另一类的错分概率 2最小等价于似然比判决:如果P(w1)/P(w2)e,则判XEw1,这里,0是使81=8成立的 似然比判决门限。注:这就是Neyman-Pearson判决准则,它类似于贝叶斯最小风险准则。提示:该问题等价于用Langrange乘子法,使q=0 (e1-e)+e2最小化。 第五章特征提取与选择5.1设有M类模式wi, i=1,2,.,M,试证明总体散布矩阵St是总类内散布矩阵Sw与类间 散布矩阵Sb之和,即St = Sw+Sb 。
展开阅读全文
相关资源
相关搜索

最新文档


当前位置:首页 > 办公文档 > 解决方案


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!