Skip to content

epleone/PR

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

3 Commits
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

模式识别实验一

实验人: 实验内容: p.127 Prob. 1 (a)、编写程序,对实验数据中的W1的三个特征进行计算,求解最大似然估计u和δ; (b)、处理二维数据,处理W1中的任意两个特征的组合; (c)、处理三维数据,处理W1中的三个特征的组合; (d)、在这三维高斯模型可分离的条件下,编写程序估计类别w2中的均值和协方差矩阵中的3个参数; (e)、比较前4种方式计算出来的均值的异同,并加以解释; (f)、比较前4种方式计算出来的方差的异同,并加以解释。

p.129 Prob. 9

(a)、编写用FISHER线性判别方法,对三维数据求最优方向w的通用程序; (b)、对表格中的类别W2和W3,计算最优方向w; (c)、画出表示最优方向w的直线,并且标记出投影后的点在直线上的位置; (d)、在这个子空间中,对每种分布用一维高斯函数拟合,并且求分类决策面; (e)、(b)中得到的分类器的训练误差是什么? (f)、为了比较,使用非最优方向w=(1.0,2.0,-1.5)’重复(d)(e)两个步骤。在这个非最优子空间中,训练误差是什么。

模式识别实验二

实验人: 实验内容: 用课本中第五章算法3~12(除算法8外)在Iris数据集上进行分类。 (a)、对class1与class3采用算法3~12(除算法8外),从每类中随机选取25个样本用于训练分类器,其余25个样本用于测试分类器,重复该过程多遍,估计分类精度的均值及方差; (b)、对class2与class3采用相应的算法,从每类中随机选取25个样本用于训练分类器,其余25个样本用于测试分类器,重复该过程多遍(100遍),估计分类精度的均值及方差; Iris dataset available at www.ics.uci.edu/~mlearn/databases

模式识别实验三

实验人: 实验内容: P409, Prob. 2 1、通过仿真,举例说明偏差-方差分解以及回归中的偏差-方差两难问题。假设目标函数F(x)=x^2,高斯噪声的方差是0.1。首先通过选择在-1<=x<=1上均匀分布的x的值,并将在F(x)上附加噪声,任意产生100个数据集,每个集的大小n=10。训练(a)(d)中的每个回归函数的任意一个自由参数ai(用最小平方误差准则),每次只训练一组数据。作出式(11)中的直方图。对每个模型,利用你得到的结果去估计偏差和方差。 (a)g(x)=0.5 (b)g(x)=1.0 (c)g(x)=a0+a1x (d)g(x)=a0+a1x+a2x^2+a3x^3 2、对100个数据集,其大小n=100重复问题(a)(d)。

模式识别实验四

实验人: 实验内容: P. 411, Prob. 7 1、研究“验证技术”未必会改善分类器的性能的情况。实验中分类器为“k-近邻分类器”,其中k是通过“验证技术”来设置。考虑一个二维的两类问题,其先验分布在范围0<=xi<=1(i=1,2)内是均匀分布。 (a)首先形成一个20个点的测试集Dtest——10个点属于w1,10个点属于w2——并根据“均匀分布”的方式任意选出。 (b)接下来产生100个点——每类50个模式。置gama=0.1,将该集合划分成一个训练集Dtrain(90个点)和一个验证集Dval(10个点)。 (c)产生一个“k-近邻分类器”,其中k一直增加到验证误差的第一个极小值被找到。(限定k为奇数值,以避免出现不分胜负的情况。)现利用测试集来确定该分类器的误差。 (d)重复(c),但通过验证误差的第一个极大值来确定k。 (e)重复(c)和(d)5次,注意所有10种情况下的测试误差。 (f)讨论结论——尤其是,它们是如何的依赖于(或不依赖于)其数据是“均匀分布”的事实的。

模式识别实验五

实验人: 实验内容: P. 475-476, Probs. 2-3 1、写程序实现k-均值算法(算法1)和模糊k-均值聚类算法(算法2)并用表中的三维数据进行测试。其中距离采用Euclid距离d(x,y)=|| x-y||。 (a)c=2,m1(0)=(1,1,1)’,m2=(-1,1,-1)’。 (b)c=2,m1(0)=(0,0,0)’,m2=(1,1,-1)’。将得到的结果与(a)中的结果进行比较,并解释差别,包括迭代次数的差别。 (c)c=3,m1(0)=(0,0,0)’,m2(0)=(1,1,1)’,m3(0)=(-1,0,2)’ (d)c=3,m1(0)=(-0.1,0,0.1)’,m2(0)=(0,-0.1,0.1)’, m3(0)=(-0.1,-0.1,0.1)’。将得到的结果与(c)中的结果进行比较,并解释差别,包括迭代次数的差别。 2、重做1,其中距离改为d(x,y)^2=1-exp(-β*||x-y||^2)。其中β分别取0.001, 0.01, 0.1, 1, 10, 100.

模式识别实验六

实验人: 实验内容: (a)、用PCA方法对实验图像设计分类器并完成训练和分类过程,统计正确分类率, 其中求解特征值和特征向量的方法分为一般方法和使用技巧[1]的方法,比较二者的运行时间和正确分类率; (b)、用MDA方法对实验图像设计分类器并完成训练和分类过程,统计正确分类率。 实验图像库为ORL人脸图像库,共40人,每人10幅图像,其中每人的前5幅作为训练样本,后5幅作为测试分类样本,统计正确分类率。分类准则为最近邻规则。 (c)、用距离保持的降维法(DPDR)[2]进行同样的实验并与PCA比较。 (d)、考察PCA和DPDR的外推能力, 即设TrSet和TeSET分别为训练和测试数据集, 现在 step1: 用TrSet获得投影阵M,用其重建TeSET,计算重建误差ETE, Step2: 用TrSet+TeSET获得投影阵M+,用其重建TeSET,计算重建误差ETE+, Step3: 比较ETE和ETE+,你能获得何种发现? [1] see “模式识别” 2nd Edition 2000年 (清华出版社, Chapter 9, Section 9.9, pp. 223-228) PCA:   ,其中 Note: Scale reduction of XXT to XTX: DxD  nxn For example, (112x92)x(112x92) 200x200 (the size of the training set) ORL available at http://parnec.nuaa.edu.cn [2] Hyunsoo Kim, Haesun Park, Hongyuan Zha, Distance Preserving Dimension Reduction Using the QR Factorization or the Cholesky Factorization, available by google (scholar)

About

模式识别实验

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages