模式识别大作业许萌(共15页)

上传人:风*** 文档编号:46262982 上传时间:2021-12-11 格式:DOC 页数:15 大小:609KB
返回 下载 相关 举报
模式识别大作业许萌(共15页)_第1页
第1页 / 共15页
模式识别大作业许萌(共15页)_第2页
第2页 / 共15页
模式识别大作业许萌(共15页)_第3页
第3页 / 共15页
点击查看更多>>
资源描述
精选优质文档-倾情为你奉上第一题 对数据进行聚类分析1.题目要求用FAMALE.TXT、MALE.TXT和/或test2.txt的数据作为本次实验使用的样本集,利用C均值聚类法和层次聚类法对样本集进行聚类分析,对结果进行分析,从而加深对所学内容的理解和感性认识。2.原理及流程图2.1 C均值聚类法原理C均值算法首先取定C个类别数量并对这C个类别数量选取C个聚类中心,按最小距离原则将各模式分配到C类中的某一类,之后不断地计算类心和调整各模式的类别,最终使各模式到其对应的判属类别中心的距离平方之和最小。2.2 C均值聚类算法流程图图1.1 C均值聚类算法流程图2.3 层次聚类算法原理N个初始模式样本自成一类,即建立N类,之后按照以下步骤运算:Step1:计算各类之间(即各样本间)的距离,得一个维数为NN的距离矩阵D(0)。“0”表示初始状态。Step2:假设已求得距离矩阵D(n)(n为逐次聚类合并的次数),找出D(n)中的最小元素,将其对应的两类合并为一类。由此建立新的分类:Step3:计算合并后所得到的新类别之间的距离,得D(n+1)。Step4:跳至第2步,重复计算及合并。直到满足下列条件时即可停止计算:取距离阈值T,当D(n)的最小分量超过给定值 T 时,算法停止。所得即为聚类结果。或不设阈值T,一直到将全部样本聚成一类为止,输出聚类的分级树。 2.4层次聚类算法流程图图1.2层次聚类算法流程图3 验结果分析对数据文件FAMALE.TXT、MALE.TXT进行C均值聚类的聚类结果如下图所示:图1.3 C均值聚类结果的二维平面显示将两种样本即进行聚类后的样本中心进行比较,如下表:从下表可以纵向比较可以看出,C越大,即聚类数目越多,聚类之间差别越小,他们的聚类中心也越接近。横向比较用FEMALE,MALE中数据作为样本和用FEMALE,MALE,test2中数据作为样本时,由于引入了新的样本,可以发现后者的聚类中心比前者都稍大。但是它们的分布类似,变化不大。样本C以FEMALE和MALE中得数据作为样本以FEMALE和MALE以及test2中的数据作为样本2A(163.5738,53.1541)B(175.8974,68.2692)A(165.0479,53.6491)B(176.4506,69.9378)3A(159.2333,49.9333)B(168.8158,57.0105)C(176.4375,70.0156)A(163.3438,51.8742)B(174.5561,64.5024)C(178.8657,80.4776)4A(157.4286,49.2381)B(164.7727,53.3545)C(170.4400,58.2640)D(176.4375,70.0156)A(159.8548 ,48.3145)B(167.5567,56.6485)C(175.4783,65.7908)D(179.3684,81.7368)5A(158.1579,47.3684)B(163.3913,54.4652)C(170.3462,58.1423)D(176.0741,67.7593)E(178.4000,82.2000)A(160.5732,50.0512)B(170.0510,57.5020)C(175.3836 ,65.9452)D(178.6429,75.7589)E(179.6667,91.3889)6A(158.3462,49.8462)B(166.9259,54.5889)C(171.4737,60.8158)D(175.6842,68.1842)E(178.0000,80.6667)F(183.3333,66.6667)A(160.8427,50.6596)B(170.6296,55.1241)C(172.6381,62.9143)D(176.8488,76.8837)E(177.2955,68.0057)F(181.5952,89.1905)表.1不同聚类初值对聚类结果的影响第二题 Bayes 分类器1.题目要求用FAMALE.TXT和MALE.TXT的数据作为训练样本集,建立Bayes分类器,用测试样本数据对该分类器进行测试。调整特征、分类器等方面的一些因素,考察它们对分类器性能的影响,从而加深对所学内容的理解和感性认识。2.原理及流程图2.1 实验原理首先,以两个训练样本身高数据作为特征,利用最大似然法分别算出均值的最大似然估计和方差的最大似然估计,分别带入到假设模型一维正态分布中得出类条件概率密度,通过结合不同的先验概率计算出后验概率并对test1和test2进行基于最小错误率的Bayes决策,待测样本属于后验概率较大的一方。最后考察测试错误情况及对决策和错误率的影响。2.2 Bayes分类器算法流程图图 2.1 Bayes分类器算法流程图3.实验结果及分析 图2 Bayes 分类器的MATLAB仿真结果3.1 当先验概率相等时(0.5/0.5): 由类条件概率以及先验概率可得测试样本集合test1和test2的后验概率,可得决策所造成的风险为,对于具体的损失比较二者大小即可作出决策判断。当b=0.5,c=0.5,相应错误率为error1=5.71%,error2=9%;当b= 5 ,c=5,相应错误率为error1=5.71%,error2=9%;当b=0.1,c=10.相应错误率为error1=28.57%,error2=13.33%当b=10,c=0.1.相应错误率为error1=57.14%,error2=83.33%.当b=0.1,c=100.相应错误率为error1=31.43%,error2=14.67%3.2 当先验概率不等时:PX1(男生)=0.25,PX2(女生)=0.75,对于具体的损失比较二者大小即可作出决策判断。当b=0.5,c=0.5.相应错误率为error1=11.43%,error2=22%.当b=5,c=5.相应错误率为error1=11.43%,error2=22%.当b=0.1,c=10.相应错误率为error1=22.86%,error2=8%.当b=0.1,c=100.相应错误率为error1=28.57%,error2=13.33%.PX1=0.75,PX2=0.25,当b=0.5,c=0.5.相应错误率为error1=8.57%,error2=6.67%.当b=5,c=5.相应错误率为error1=8.57%,error2=6.67%.当b=0.1,c=10.相应错误率为error1=28.57%,error2=13.33%.当b=0.1,c=100.相应错误率为error1=42.86%,error2=16.67%.PX1=0.9.PX2=0.1当b=0.5,c=0.5.相应错误率为error1=11.43%,error2=5.67%.当b=5,c=5.相应错误率为error1=11.43%,error2=5.67%.当b=0.1,c=10.相应错误率为error1=28.57%,error2=14%.当b=0.1,c=100.相应错误率为error1=42.86%,error2=16.67%.PX1=0.1.PX2=0.9当b=0.5,c=0.5.相应错误率为error1=20%,error2=49%.当b=5,c=5.相应错误率为error1=20%,error2=49%.当b=0.1,c=10.相应错误率为error1=11.43%,error2=5.67%.当b=0.1,c=100.相应错误率为error1=28.57%,error2=13.33%.b|cError总| 0.5|0.50.25|0.750.75|0.250.9|0.10.1|0.90.5|0.514.71%33.43%15.24%17.1%69%5|514.7%33.43%15.24%17.1%69%0.1|1041.9%30.86%41.90%42.57%17.1%0.1|10046.1%41.90%59.53%59.53%41.9%表2.1 采用最小风险的Bayes决策对test1和test2测试错误率情况注:1)PX1为男生先验概率,PX2为女生先验概率。2)Error总为每种情况下对test1和test2测试的总错误率。3)b为把女生归为男生的损失函数,c为把男生归为女生的损失函数。3.3 结论从上表可以看出,在先验概率相等与否以及损失函数的改变对决策和错误率均有影响。(1) 当先验概率不变时,损失函数相差越大,错误率越高;(2) 当损失函数之比等于1时,错误率相等;(3)当损失函数不变时,先验概率两极分化越严重,错误率越高;当男女生训练样本先验概率对调时,女生先验概率大时,错误率大,原因可能是两个测试样本的女生数量相对比较多,不确定性比较大造成的。第三题 利用K-L变换进行特征提取1. 题目要求用FAMALE.TXT和MALE.TXT的数据作为本次实验使用的样本集,利用K-L变换对该样本集进行变换,加深对所学内容的理解和感性认识。2. K-L变换原理设n维随机向量,其均值向量,相关矩阵,协方差矩阵,经正交变换后产生向量。设有标准正交变换矩阵T,(即 TT=I), (称为 的K-L展开式)取前m项为的估计值 其均方误差为 在TT=I的约束条件下,要使均方误差为此设定准则函数由 可得 即 表明: li是的特征值,而是相应的特征向量。利用上式有:用“截断”方式产生x的估计时,使均方误差最小的正交变换矩阵是其相关矩阵Rx的前m个特征值对应的特征向量构成的。图 3.1 K-L 变换算法流程图3. 结果分析 图3.2 K-L变换特征提取的MATLAB仿真由上图可知:且考虑类别信息的特征提取再分类与Fisher分类器效果差不多,不过在本次实验中,Fisher判别更胜一筹。考虑类别信息时,分类效果会受到先验概率的影响。MATLAB程序附录1.C均值聚类算法的MATLAB程序clc;clear all;FH FW=textread(C:UsersFREEMANDesktopFEMALE.txt,%f %f);MH MW=textread(C:UsersFREEMANDesktopMALE.txt,%f %f);FA=FH FW;FA=FA;MA=MH MW;MA=MA;for k=1:50 NT(:,k)=FA(:,k);end for k=51:100 NT(:,k)=MA(:,k-50); end z1=NT(:,1);z2=NT(:,51); for k=1:100 a=z1,b=z2 G1=zeros(2,100);G2=zeros(2,100); for i=1:100 d1=sqrt(NT(1,i)-z1(1,1)2+(NT(2,i)-z1(2,1)2); d2=sqrt(NT(1,i)-z2(1,1)2+(NT(2,i)-z2(2,1)2); if d1a x1=X1; x2=X2; p1=G1; p2=G2; B(1,k)=E ; G1=g1; else E=a; G1=g1; end end G2=p2; if k=2&B(1,k)=g2 Result(1,1)=Result(1,1)+1;%记录FAMALE XF(:,j)=X(:,j); else Result(1,2)=Result(1,2)+1;%记录MALE XM(:,j)=X(:,j); endendsubplot(3,1,3)plot(XF(1,:),r.,LineWidth,2),hold onplot(XM(1,:),b+,LineWidth,2),hold ontitle(测试样本test2仅身高时的测试分布情况)legend(FAMALE,MALE)Result4.K-L特征提取(不考虑分类)clear allclcA=textread(C:UsersFREEMANDesktopMALE.TXT);B=textread(C:UsersFREEMANDesktopFEMALE.TXT);male=A(:,1:2);female=B(:,1:2);T=male;female;s=cov(T)m,n=eig(s);if n(1,1)n(2,2) w=m(:,1);elseif n(1,1)n(2,2) w=m(:,2);endhei_m=male(:,1);wei_m=male(:,2);hei_fe=female(:,1);wei_fe=female(:,2);plot(hei_m,wei_m,g*,hei_fe,wei_fe,ro);hold ony=w*male,female;for i=1:50 plot(y(:,i),g*);endfor i=51:100 plot(y(:,i),ro);endl=mean(y);k=0;m=0;for i=1:100 if y(i)l & il & i50 m=m+1; endendk,mess1=k/100ess2=m/100 专心-专注-专业
展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > 教学培训


copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!