@w460461339
2018-08-25T18:57:43.000000Z
字数 4212
阅读 1976
MachineLearning
LDA:
西瓜书3.3
http://www.cnblogs.com/pinard/p/6244265.html#!comments
https://blog.csdn.net/liuweiyuxiang/article/details/78874106
http://www.cnblogs.com/engineerLF/p/5393119.html
拉格朗日乘子法:
https://blog.csdn.net/lijil168/article/details/69395023
协方差矩阵:
http://pinkyjie.com/2010/08/31/covariance/
正定矩阵:
https://baike.baidu.com/item/%E6%AD%A3%E5%AE%9A%E7%9F%A9%E9%98%B5
1)首先看一下式子。
2)下面来看看更一般的广义瑞利商。广义瑞利商有如下形式
化简,得到:
即又得到了我们的瑞利商的形式,同样,我们取和表示矩阵的最大最小特征值,来表示我们的R(x)的取值范围。
x : 表示训练样本,使用列向量表示,假设有n维
:表示第i类中的第j个样本
:表示有C类样本
:表示第i类训练样本的均值,也是列向量 (i=1,2,…,C)
:表示第i类训练样本的数目
M:表示训练样本的总数目
μ:是所有样本的均值向量,也是列向量
:表示第i类样本集合
:表示类内散度矩阵,w是within的简写
:表示类间散度矩阵,b是between的简写
:这里指超平面参数,即,也是一个列向量或由列向量构成的矩阵。
类间距离
3)我们用两个类的均值点来代表两个类。那么对于第0类样本,它们的均值点在直线上的投影为;第1类样本同理。
4)那么两个类在直线上的距离为,我们希望这个值尽可能的大。
类内距离
5)类内距离,我们希望用协方差矩阵来表示。对于第0类中的某一个样本,它的每个维度和第0类均值点之间的离散程度,可以用表示,得到是一个n*n的矩阵,类似于,对角线元素表示的是每个维度上的方差,其他元素表示的偏差的相关性。:
6)那么把描述每个点和其类中心点的离散程度的协方差矩阵加起来,就得到了描述一个类离散程度的矩阵,我们用和表示,我们希望这两个值尽可能的小,即希望最小。
7)那么对于直线上的点,同理,只不过把用代替,用代替。最终得到,在直线上,每个类的协方差矩阵为和。同理,我们希望尽可能的小。
调优式
8)现在我们有两个目标,一个是这个尽可能的大,一个是让尽可能的小。综合两者,我们得到目标调优式:
9)现在还有一点看不出来,我们令
10)这个不就是瑞丽商的形式嘛,现在我们希望找到一个,让这个式子取到最大值。首先观察,上下两个式子都还有的二次项,那么也就是说,这个的式子的取值仅和的方向有关,和的取值无关。
11)我们假设某种取值可以令,那么此时,我们的目标是,我们取负号,得到以下内容:
12)利用拉格朗日乘子法,我们可以得到下面的式子:
13)分别对对和求导,分别令其等于0,【不需要对λ求导,这里就不写了】有:
14)我们发现,别忘了都是是列向量,最终这个式子的方向是由决定的,因此我们可以用来表示。
15)那么,对于13)中的式子,我们有。之前也说了,w的取值和大小无关,因此最后的系数不要,最终得到我们w的表达式:
当只有两个类别的时候,我们可以将其投影在一条线上,当我们有K个类别的时候呢?
虽然不是不可以投影在一条直线上,但是有没有更好的选择,比如投影在其他平面上?
x : 表示训练样本,使用列向量表示,假设有n维
:表示第i类中的第j个样本
:表示第类样本,假设
:表示第i类训练样本的均值,也是列向量 (i=1,2,…,C)
:表示第i类训练样本的数目
M:表示训练样本的总数目
μ:是所有样本的均值向量,也是列向量
:表示第i类样本集合
:表示类内散度矩阵,w是within的简写
:表示类间散度矩阵,b是between的简写
:这里指超平面参数,即,也是一个列向量或由列向量构成的矩阵。【这里的w大概率是一个矩阵了,因为除了线以外,其他超平面都需要一组基来描述,假设基是d维的】
1)首先,我们定义一下全局离散度
2)然后,全局的协方差矩阵和:
3)我们认为全局的离散度由全局的协方差矩阵和以及全局的类间距离构成,因此
4)仿照二分类,我们得到目标调优式:
5)因此,我们转换目标函数为:
6)那么上式我们可以转化为
7)那么,6)中式子的最大值,根据瑞丽商,我们知道它等于的前d个最大特征值的乘积。而我们的W,也可以用着d个最大特征值对应的特征向量组成。因为特征值大,表示在对应的特征向量方向上,数据离散的开,那么数据间就越容易区分。
8)注意这里有一个W的基的参数d,它会和的特征值数量有关。我们发现,,其依赖于不同的,但虽然我们有k个类别,对应k个。但是因为所有的训练样本我们都是知道,所有当知道了前k-1个后,最后一个可以由已知的所有样本的向量和减去前k-1个乘以其类别个数,最后除以第k类的个数得到。因此的秩为k-1,所以W的中最多有k-1个基。