[关闭]
@lunar 2016-06-17T21:23:32.000000Z 字数 3558 阅读 3850

ch7 对称矩阵和二次型 '线性代数及其应用笔记'

具体数学


7.1 对称矩阵的对角化

对称矩阵 满足的矩阵。 好了我们回忆下5.3节中对角化的内容并将其应用到对称矩阵上,并引入如下定理:
定理 如果A是对称矩阵,那么不同特征空间的任意两个特征向量是正交的。

如果存在正交矩阵P(满足)和一个对角矩阵D使得,我们称A 可正交对角化

显然对称矩阵可正交对角化,那么我们从反面来证可以得到这个定理:A可正交对角化的充要条件是A是对称矩阵。
(对称矩阵好厉害,不仅可以对角化还能正交对角化)

这里我们求出特征向量后可能会发现某个特征空间的特征向量并不正交,不要着急,这不代表该矩阵不能正交对角化,我们可以看看能不能求出该特征空间的正交基,然后将其作为P的列,然后就可以得到结果了哦。

   
   
谱定理
A的特征值的集合有时称为A的(一个矩阵你摆什么谱(╯‵□′)╯︵┴─┴)

对称矩阵的谱定理
一个n维对称矩阵具有下面特征
1. 具有n个实特征值,包含重复的特征值
2. 对每一个特征值,对应特征子空间的维数等于作为特征方程的重数
3. 特征空间互相正交,这种正交性是在特征向量对应不同特征值的意义下成立的
4. 可正交对角化

谱分解 其中u是特征向量,是特征值。

7.2 二次型

上的二次型是一个定义在上的函数,它在向量x处的值可由表达式计算,此处A是一个n维对称矩阵,矩阵A称为关于二次型的矩阵。
一个简单的二次型例子,向量和其范数平方的映射
 
 
 若x表示中的向量变量,那么变量代换,此处P是可逆矩阵且y是的一个新变量。这里P的列可确定的一个基,y是相对该基x的坐标向量。
 用变量代换来处理二次型则


 利用变量代换我们可以将二次型变为没有交叉项的二次型(即二次型对应矩阵是对角矩阵)。
 主轴定理
 设A是一个对称矩阵,那么存在一个正交变量变换,它将二次型变换为不含交叉项的二次型。其中的P就成为二次型的主轴。
 
 分类,一个二次型Q是
 1. 正定的,如果对所有,有,这时所有特征值都是正的
 2. 负定的,如果对所有,有,这时所有特征值都是负的
 3. 不定的,如果既有正值又有负值,特征值正负不定

用这个可以来分类矩阵,例如正定矩阵就是其二次型为正定的对称矩阵。

7.3 条件优化

这里条件优化指的是寻找一个特定集合内使二次型取最大值和最小值的
 
定理1 若A是对称矩阵,m是A最小特征值,M是A最大特征值,那么有


此时x分别取其对应的特征向量。
定理2
若A是对称矩阵,其正交对角化为,将对角矩阵D上的元素按大到小排列,并对应重排特征向量,那么对于时,在以下限制条件下

那么的最大值是,在时取到。

7.4 奇异值分解

如果A是矩阵,那么是对称矩阵且可以正交对角化,让的单位正交基且构成的特征向量,是对应特征值,那么有

我们称A的的特征值的平方根为奇异值,也就是向量的长度(的单位化的特征向量),记作

定理是包含的特征向量的单位正交基,且以及按照其特征值由大到小重排。假若A有r个非零奇异值,那么是ColA的一个正交基,且rankA=r。
上面这个定理可以把任意y用以特征向量为基的坐标表示,

SVD 奇异值分解
首先定义分块矩阵


其中D是一个r*r的对角矩阵,r不超过m和n的最小值。
设A是秩为r的矩阵,那么存在一个类似上面的矩阵,此处D的对角线元素是A的r个非零奇异值,并且存在一个正交矩阵U和一个矩阵V使得,分解中U的列称为A的左奇异向量,V的列称为A的右奇异向量
可以证明U的列就是ColA的单位正交基,而V的列是A的特征向量基(单位化,不足n列用0补齐)。
下面具体说下SVD怎么做,把大象关冰箱总共分三步来:
1. 将正交对角化 就是求特征值和特征向量
2. 求,将前面的特征值降序排列,并对应调动他们的特征向量形成V,对特征值进行算数平方运算形成的对角元素。
3. 构造U。对非零奇异值对应的,计算并单位化并用找到和这些列正交并能使U的列为基的列补满m列就构成了U。

有了上面这些之后,我们可以得到可逆矩阵定理的最后部分
u.
v.
w.
x. A有n个非零的奇异值

7.5 图像处理和统计学中应用(主成分析法)

简单回顾一下
均值
,则平均偏差形式
协方差矩阵 ,S的对角线元素就是观测值的各个量的方差,数据总方差指S中对角线上方差的总和。S中i行j列的元素称为的协方差,如果该元素为0,则统计学上称无关。如果大部分变量无关,即协方差矩阵几乎是对角矩阵,那么多变量数据分析就可以简化。

主成分分析
先将数据变换为平均偏差形式X,主成分分析的目标是找打一个正交矩阵P,确定一个变量代换,且新的变量 两两无关,整理后的方差具有递减顺序。
S是X的协方差,不难发现Y的协方差是,令D为由S特征值由大到小构成的对角矩阵,那么有

协方差矩阵S的单位特征向量就称为数据的主成分,其中最大特征值对应的特征向量称为第一主成分,第二大特征值对应的称为第二主成分
那么我们可以用主成分来确定新变量

这种分析方法可以进行多变量数据的降维,例如,第一成分在总方差的百分比是93.5%,第二成分为5.3%,第三成分是1.2%,那么我们可以只去第一和第二主成分来实现降维。

心得拾遗

二次型是个啥? 原则上来讲,它也是个函数,就和行列式一样,但是行列式只是对矩阵内的元素进行操作的函数,二次型则是将矩阵元素的线性运算作为多项式的系数,这里矩阵都是确定的,而其自变量是该矩阵向量空间内的一个向量。

好题摘录

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注