【模式识别】期末考试试卷01
合伙人制度-蜀道难原文
《模式识别》期末考试试题(B)
一、填空题(15个空,每空2分,共30分)
1.基于机器学习的模式识别系统通常由两个过程组成, 即分类器设计和( )。
2.统计模式识别把( )表达为一个随机向量(即特征向量),
将模式类表达为由有穷或无穷个具有相似数值特性的模
式组成的集合。
3.特征一般有两种表达方法:(1)将特征表达为数值;(2)将特征表达为( )。
4.特征提取是指采用( )实现由模式测量空间向特征空间的转变。
5.同一类模式类样本的分布比较集中,没有或临界样本很少,这样的模式类称为( )。
6.加权空间的所有分界面都通过( )。
7.线性多类判别:
若每两个模式类间可用判别平面分开, 在这种情况下,M类有(
)个判别函数,存在有不确定
区域。
8.当取0-1损失函数时,
最小风险贝叶斯判决准则等价于( )判决准则。
9.Neyman-
Pearson决策的基本思想是( )某一错误率,同时追求另一错误率最小。
10.聚类集群:用事先不知样本的类别,而利用样本的先验知识来构造分类器属于(
)学习。
11.相似性测度、聚类准则和( )称为聚类分析的三要素。
12.
KC均值算法使用的聚类准则函数是误差平方和准则,通过反复迭代优化聚类结果,使所有样本到各自所属类别的
中心的( )达到最小。
13.根据神经元的不同连接方式,可将神经网络分为分
层网络和相互连接型网络两大类。其中分层网络可细分为前向网
络、(
)和层内互连前向网络三种互连方式。
14.神经网络的特性及能力主要取决于网络拓扑结构及(
)。
15.BP神经网络是采用误差反向传播算法的多层前向网络,其中,神经元的传输函数为S型函
数,网络的输入和输出
是一种( )映射关系。
二、简答题(2题,每小题10分,共20分)
1.两类问题的最小风险Bayes决策的主要思想是什么?
2.已知一组数据的协方差矩阵为
112
,试问:
121
(1)协方差矩阵中各元素的含义是什么?
(2)K-L变换的最佳准则是什么?
(3)为什么说经K-
L变换后消除了各分量之间的相关性?
三、
计算题(2题,每小题13分,共26分)
1.已知有两类样本集,分别为ω
1
={x
1
,
x
2
}={(1,2)
T
,
(-1,0)
T
};
ω2={x
3
, x
4
}
={(-1,-2)
T
,
(1,-1)
T
}
设初始权值w
1
=(1,1,1)
T
,
ρ
k
=1,试用感知器固定增量法求判别函数,画出决策面。
2.设有两类正态分布
的样本集,第一类均值
μ
1
2
112
TT
0
,方差
1
μ
22
,第二类均值,方差
2
121
<
br>12
1
2
,先验概率
p(
1
)p(
2
)
。试按最小错误率Ba
yes决策求两类的分界面。
121
B卷
一、填空题(每空2分,共30分)
1. 分类判决, 2. 观察对象, 3.
基元, 4. 变换或映射, 5. 紧致集, 6. 坐标原点, 7. M(M-1)2, 8.
最大后验概率, 9. 约束或
限制, 10. 无监督, 11. 聚类算法, 12.
距离平方和, 13. 具有反馈的前向网络, 14. 学习方法, 15. 非线性
二、简答题(2题,每小题10分,共20分)
参考答案
1.答:两类
问题的最小风险Bayes决策的主要思想是:对于模式x,如果将其决策为模式类ω1的风险大于决策为模式<
br>类ω2的风险,则决策模式x属于类ω2;反之,决策模式x属于模式类ω1。
2.答:已知协方差矩阵
112
,则:
121
(1)
其对角元素是各分量的方差,非对角元素是各分量之间的协方差。
(2) K-L变换的最佳准则为:
对一组数据按一组正交基进行分解,在只取相同数量分量的条件下,以均方误差计算截尾误
差最小。
(3) 在经K-L变换后,协方差矩阵成为对角矩阵,因而各主分量间的相关消除。
三、计算题(2题,每小题13分,共26分)
1.解:先求四个模式样本的增广模式
x1=(1,2,1)
T
x2=(-1,0,1)
T
x3=(-1,-2,1)
T
x4=(1,-1,1)
T
假设初始权向量
w1=(1,1,1)
T
ρ
k
=1
第1次迭代:
w1
T
x1=(1,1,1) (1,2,1)
T
=4>0,
所以不修正w1
w1
T
x2=(1,1,1)
(-1,0,1)
T
=0 所以修正w1
w2=w1+x2=(1,1,
1)
T
+(-1,0,1)
T
=(0,1,2)
T
w2
T
x3=(0,1,2) (-1,-2,1)
T
=0
所以修正w2
w3=w2-x3=(0,1,2)
T
-(-1,-2,1)
T
=(1,3,1)
T
w3
T
x4=(1,3,1)T
(1,-1,1)
T
=-1<0 所以不修正w3
第2次迭代:
w3
T
x1=(1,3,1) (1,2,1)
T
=7>0
所以不修正w3
w3
T
x2=(1,3,1)
(-1,0,1)
T
=0 所以修正w3
w4=w3+x2=(1,3,1)
T
+(-1,0,1)
T
=(0,3,2)
T
w4
T
x3=(0,3,2) (-1,-2,1)
T
=-4<0
所以不修正w4
w4
T
x4=(0,3,2)
(1,-1,1)
T
=-1<0 所以不修正w4
第3次迭代:
w4
T
x1=(0,3,2) (1,2,1)
T
=8>0
所以不修正w4
w4
T
x2=(0,3,2)
(-1,0,1)
T
=2>0 所以不修正w4
w4
T
x3=(0,3,2) (-1,-2,1)
T
=-4<0
所以不修正w4
w4
T
x4=(0,3,2)
(1,-1,1)
T
=-1<0 所以不修正w4
迭代结束w4=w=(0,3,2)
T
,
判别函数g(x)=w4
T
x=(0,3,2)
(x
1
,x
2
,1)
T
=3x
2
+2
2.解:
1
2
,且先验
概率相等.
基于最小错误率的Bayes决策规则,在两类决策面分界面上的样本x=(x
1<
br>,x
2
)
T
应满足:
11
(xμ
1<
br>)
T
1
(xμ
1
)(xμ
1
)
T
2
(xμ
1
)
对上式进行分解有:<
br>1T1T1T1T1T1
x
T
1
x2μ1
xμμxx2μxμ
1
21
112
22
2
μ
2
得:
11T1
T1T1T1
x
T
(
1
<
br>)x2(μμ)xμ
μ
μ
21122111
22
μ
2
0 (1)
-1
ab
ab
1
*-1
二阶矩阵
的逆能很容易用逆阵公式A=A计算出来
A
cd
<
br>cd
ab
1
db
计算公式为:
=
ad-bc
ca
cd
4323
4323
1
1
故由已知条件可计算出
1
和
2
2343
2343
11
将已知条件
μ
1
,
μ
1
和
1
,
2
计算结果代入(1)式并化简计算,得:
x1
x
2
4x
2
x
1
40
即:
(x
1
4)(x
2
1)0,因此分解决策面由两根直线组成,
一根为x
1
4,另一根为x
2
1.
-1