【模式识别】期末考试试卷01

温柔似野鬼°
975次浏览
2020年09月06日 18:02
最佳经验
本文由作者推荐

合伙人制度-蜀道难原文


《模式识别》期末考试试题(B)
一、填空题(15个空,每空2分,共30分)
1.基于机器学习的模式识别系统通常由两个过程组成, 即分类器设计和( )。
2.统计模式识别把( )表达为一个随机向量(即特征向量), 将模式类表达为由有穷或无穷个具有相似数值特性的模
式组成的集合。
3.特征一般有两种表达方法:(1)将特征表达为数值;(2)将特征表达为( )。
4.特征提取是指采用( )实现由模式测量空间向特征空间的转变。
5.同一类模式类样本的分布比较集中,没有或临界样本很少,这样的模式类称为( )。
6.加权空间的所有分界面都通过( )。
7.线性多类判别: 若每两个模式类间可用判别平面分开, 在这种情况下,M类有( )个判别函数,存在有不确定
区域。
8.当取0-1损失函数时, 最小风险贝叶斯判决准则等价于( )判决准则。
9.Neyman- Pearson决策的基本思想是( )某一错误率,同时追求另一错误率最小。
10.聚类集群:用事先不知样本的类别,而利用样本的先验知识来构造分类器属于( )学习。
11.相似性测度、聚类准则和( )称为聚类分析的三要素。
12. KC均值算法使用的聚类准则函数是误差平方和准则,通过反复迭代优化聚类结果,使所有样本到各自所属类别的
中心的( )达到最小。
13.根据神经元的不同连接方式,可将神经网络分为分 层网络和相互连接型网络两大类。其中分层网络可细分为前向网
络、( )和层内互连前向网络三种互连方式。
14.神经网络的特性及能力主要取决于网络拓扑结构及( )。
15.BP神经网络是采用误差反向传播算法的多层前向网络,其中,神经元的传输函数为S型函 数,网络的输入和输出
是一种( )映射关系。

二、简答题(2题,每小题10分,共20分)
1.两类问题的最小风险Bayes决策的主要思想是什么?
2.已知一组数据的协方差矩阵为


112

,试问:


121

(1)协方差矩阵中各元素的含义是什么?
(2)K-L变换的最佳准则是什么?
(3)为什么说经K- L变换后消除了各分量之间的相关性?

三、
计算题(2题,每小题13分,共26分)
1.已知有两类样本集,分别为ω
1
={x
1
, x
2
}={(1,2)
T
,
(-1,0)
T
}; ω2={x
3
, x
4
} ={(-1,-2)
T
,
(1,-1)
T
}
设初始权值w
1
=(1,1,1)
T
, ρ
k
=1,试用感知器固定增量法求判别函数,画出决策面。
2.设有两类正态分布 的样本集,第一类均值
μ
1


2

112

TT
0

,方差

1


μ 22
,第二类均值,方差

2


121
< br>12

1

2


,先验概率
p(

1
)p(

2
)
。试按最小错误率Ba yes决策求两类的分界面。
121








B卷

一、填空题(每空2分,共30分)

1. 分类判决, 2. 观察对象, 3. 基元, 4. 变换或映射, 5. 紧致集, 6. 坐标原点, 7. M(M-1)2, 8. 最大后验概率, 9. 约束或
限制, 10. 无监督, 11. 聚类算法, 12. 距离平方和, 13. 具有反馈的前向网络, 14. 学习方法, 15. 非线性

二、简答题(2题,每小题10分,共20分)

参考答案
1.答:两类 问题的最小风险Bayes决策的主要思想是:对于模式x,如果将其决策为模式类ω1的风险大于决策为模式< br>类ω2的风险,则决策模式x属于类ω2;反之,决策模式x属于模式类ω1。

2.答:已知协方差矩阵


112

,则:


121

(1) 其对角元素是各分量的方差,非对角元素是各分量之间的协方差。
(2) K-L变换的最佳准则为: 对一组数据按一组正交基进行分解,在只取相同数量分量的条件下,以均方误差计算截尾误
差最小。
(3) 在经K-L变换后,协方差矩阵成为对角矩阵,因而各主分量间的相关消除。

三、计算题(2题,每小题13分,共26分)

1.解:先求四个模式样本的增广模式
x1=(1,2,1)
T
x2=(-1,0,1)
T

x3=(-1,-2,1)
T
x4=(1,-1,1)
T

假设初始权向量 w1=(1,1,1)
T
ρ
k
=1
第1次迭代:
w1
T
x1=(1,1,1) (1,2,1)
T
=4>0, 所以不修正w1
w1
T
x2=(1,1,1) (-1,0,1)
T
=0 所以修正w1
w2=w1+x2=(1,1, 1)
T
+(-1,0,1)
T
=(0,1,2)
T

w2
T
x3=(0,1,2) (-1,-2,1)
T
=0 所以修正w2
w3=w2-x3=(0,1,2)
T
-(-1,-2,1)
T
=(1,3,1)
T

w3
T
x4=(1,3,1)T
(1,-1,1)
T
=-1<0 所以不修正w3
第2次迭代:
w3
T
x1=(1,3,1) (1,2,1)
T
=7>0 所以不修正w3
w3
T
x2=(1,3,1) (-1,0,1)
T
=0 所以修正w3
w4=w3+x2=(1,3,1)
T
+(-1,0,1)
T
=(0,3,2)
T

w4
T
x3=(0,3,2) (-1,-2,1)
T
=-4<0 所以不修正w4
w4
T
x4=(0,3,2) (1,-1,1)
T
=-1<0 所以不修正w4
第3次迭代:
w4
T
x1=(0,3,2) (1,2,1)
T
=8>0 所以不修正w4
w4
T
x2=(0,3,2) (-1,0,1)
T
=2>0 所以不修正w4
w4
T
x3=(0,3,2) (-1,-2,1)
T
=-4<0 所以不修正w4
w4
T
x4=(0,3,2) (1,-1,1)
T
=-1<0 所以不修正w4
迭代结束w4=w=(0,3,2)
T
, 判别函数g(x)=w4
T
x=(0,3,2) (x
1
,x
2
,1)
T
=3x
2
+2

2.解:



1

2
,且先验 概率相等.
基于最小错误率的Bayes决策规则,在两类决策面分界面上的样本x=(x
1< br>,x
2
)
T
应满足:
11
(xμ
1< br>)
T

1
(xμ
1
)(xμ
1
)
T

2
(xμ
1
)
对上式进行分解有:< br>1T1T1T1T1T1
x
T

1
x2μ1
xμμxx2μxμ

1

21

112

22

2
μ
2
得:
11T1 T1T1T1
x
T
(

1


< br>)x2(μμ)xμ
μ

μ

21122111 22
μ
2
0 (1)
-1

ab

ab

1
*-1
二阶矩阵
的逆能很容易用逆阵公式A=A计算出来

A

cd
< br>cd


ab

1

db
计算公式为:

=
ad-bc

ca

cd


4323

4323

1 1
故由已知条件可计算出

1


和


2

2343


2343

 11
将已知条件
μ
1
,
μ
1


1
,


2
计算结果代入(1)式并化简计算,得:
x1
x
2
4x
2
x
1
40
即: (x
1
4)(x
2
1)0,因此分解决策面由两根直线组成,
一根为x
1
4,另一根为x
2
1.

-1

难忘师恩作文-北京工商大学招生网


学习保证书-同学录留言大全


机械电子工程就业-江苏省学业水平测试


方向英文-清明节手抄报好看简单


埋汰人的话-上海财经大学历年录取分数线


800字美文-望岳翻译


许昌人事人才网-七年级信息技术教学计划


心惊肉跳造句-建党96周年