@linux1s1s
2017-12-27T14:49:55.000000Z
字数 762
阅读 1748
Machine-Learning
Deep-Learning
2017-10
这里随记 机器学习/深度学习 相关算法,全部原来网络,并整合在这里,以期后面学习和整理。
监督学习类,线性判别分析(Linear Discriminant Analysis)
降维度,减轻计算负担
主要思想
投影(降维度后)
- 类内方差最小
- 类外方差最大
主要数学基础
瑞利商
广义瑞利商
非监督学习类,主成分分析(Principal components analysis)
降维度,减轻计算负担
- 样本到投影直线(或者超平面)的距离足够近
- 样本到投影直线(或者超平面)尽可能分开
同时可以参考一下知乎提问:最优化问题中,牛顿法为什么比梯度下降法求解需要的迭代次数更少?,其中
最爱麦丽素
的回答。
文章来源zouxy09的专栏
关于数学推导,可以进一步看原文。
另外EM(期望最大算法)的应用还包括
GMM
高斯混合模型,K-means
聚类算法,HMM
隐马尔可夫模型等)
高斯混合模型--GMM(Gaussian Mixture Model)
深入浅出K-Means算法
算法杂货铺——k均值聚类(K-means)
这里取核函数的直观理解,来自知乎回答: