[关闭]
@iStarLee 2019-07-31T10:59:31.000000Z 字数 1858 阅读 424

SVD分解的原理和应用

Optimization


Paper Title: A Singularly Valuable Decomposition: The SVD of a Matrix
Author: Dan Kalman
Date: February 13, 2002

1 Theory

SVD(singular value decomposition),奇异值分解,对于一个的matrix ,始终存在


是酉矩阵。其实他的本质形式应该是
写成子项的形式

其中称之为奇异值。

对于对称矩阵来说,我们称之为分解,,对于任意矩阵来说,我们称之为分解。

分解


其中,的特征值,这样就有

同理有

总结:

  • singular value一定是共同特征值的非零部分的正平方根
  • for symmetric matrix,结果是一样的;对于一般矩阵,求出来的就是奇异值(实数),求出来的是特征值(复数)

2 Method1: 证明的最优解等于的最小奇异值对应的奇异值向量

矩阵的奇异值分解如下:


回顾我们的原始问题如下:
求解,这是一个超定方程,本质上求解得到的是一个最小二乘解,使用如下表示:

其中

可以由的奇异值向量线性组合得到,也就是可以表示成如下形式


其中


容易知道正交。
代入得到

由于正交,所以后两项为0;并且,带入得到


当且仅当的时候等号成立。
如果想取得最小值,则,也就是取得最小奇异值的时候,目标函数取得最小值,此时

由于,所以,所以

证明完毕。

3 Method2: 证明的最优解等于的最小奇异值对应的奇异值向量


由于正交矩阵(广义来看其实是酉矩阵)的保范性


其中
所以


是一个对角阵,元素由矩阵的奇异值(>0)和0组成,如果要想目标函数取得最小值,则

此时得到目标函数的最优解,对应的取值

如果是对称矩阵,那么,总之最优解为最小奇异值对应的奇异向量。

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注