[关闭]
@pearl3344 2018-04-25T04:23:19.000000Z 字数 2146 阅读 866

纯纯的数学来一波

特征值分解 奇异值分解 行列式 积分

参考:
neural network for pattern recognition, bishop 1995


特征值分解

矩阵
n个特征值 ,
n个特征(列)向量


矩阵的行列式值等于特征值乘积
矩阵的迹等于特征值之和

A的特征值是,则 的特征值是
A的特征值是,则 的特征值是

特征向量的长度不确定,将其固定为1:
对称矩阵A的特征值分解,还可以取到一组正交的特征向量: (如果k=j则为1否则为0)

长度为1 且正交的一组特征向量 可以作为空间的基,任意向量可以线性表示为

将特征向量写成矩阵,每一列是一个特征向量


行列式 determinant det(A) |A|

倒置的行列式值不变
矩阵的行列式值等于特征值乘积
方块儿矩阵的乘积的行列式可以分开


Jacobian矩阵

Jacobian矩阵: 向量对向量的一阶导,


高斯积分(指数e相关的)

指数定积分

积分换元:

单个变量的高斯积分

解:


,
,


得解。

多个变量的联合高斯积分


解:
A为对称矩阵,对A做特征分解,取 单位长度、彼此正交的 特征向量,
把x用特征向量线性表示,将对x的积分转换成对线性表示的系数的积分,

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注