[关闭]
@hanxiaoyang 2017-12-14T12:29:26.000000Z 字数 16856 阅读 2764

机器学习系列(4)_机器学习算法一览,应用建议与解决思路

个人博客


作者:寒小阳
时间:2016年1月。
出处:http://blog.csdn.net/han_xiaoyang/article/details/50469334
声明:版权所有,转载请联系作者并注明出处

1.引言

提起笔来写这篇博客,突然有点愧疚和尴尬。愧疚的是,工作杂事多,加之懒癌严重,导致这个系列一直没有更新,向关注该系列的同学们道个歉。尴尬的是,按理说,机器学习介绍与算法一览应该放在最前面写,详细的应用建议应该在讲完机器学习常用算法之后写,突然莫名奇妙在中间插播这么一篇,好像有点打乱主线。
老话说『亡羊补牢,为时未晚』,前面开头忘讲的东西,咱在这块儿补上。我们先带着大家过一遍传统机器学习算法,基本思想和用途。把问题解决思路和方法应用建议提前到这里的想法也很简单,希望能提前给大家一些小建议,对于某些容易出错的地方也先给大家打个预防针,这样在理解后续相应机器学习算法之后,使用起来也有一定的章法。

2.机器学习算法简述

按照不同的分类标准,可以把机器学习的算法做不同的分类。

2.1 从机器学习问题角度分类

我们先从机器学习问题本身分类的角度来看,我们可以分成下列类型的算法:

机器学习中有一大部分的问题属于『监督学习』的范畴,简单口语化地说明,这类问题中,给定的训练样本中,每个样本的输入都对应一个确定的结果,我们需要训练出一个模型(数学上看是一个的映射关系),在未知的样本给定后,我们能对结果做出预测。

这里的预测结果如果是离散值(很多时候是类别类型,比如邮件分类问题中的垃圾邮件/普通邮件,比如用户会/不会购买某商品),那么我们把它叫做分类问题(classification problem);如果预测结果是连续值(比如房价,股票价格等等),那么我们把它叫做回归问题(regression problem)。

有一系列的机器学习算法是用以解决监督学习问题的,比如最经典的用于分类问题的朴素贝叶斯、逻辑回归、支持向量机等等;比如说用于回归问题的线性回归等等。

有另外一类问题,给我们的样本并没有给出『标签/标准答案』,就是一系列的样本。而我们需要做的事情是,在一些样本中抽取出通用的规则。这叫做『无监督学习』。包括关联规则和聚类算法在内的一系列机器学习算法都属于这个范畴。

这类问题给出的训练数据,有一部分有标签,有一部分没有标签。我们想学习出数据组织结构的同时,也能做相应的预测。此类问题相对应的机器学习算法有自训练(Self-Training)、直推学习(Transductive Learning)、生成式模型(Generative Model)等。

总体说来,最常见是前两类问题,而对应前两类问题的一些机器学习算法如下:

机器学习算法

2.2 从算法的功能角度分类

我们也可以从算法的共性(比如功能,运作方式)角度对机器学习算法分类。下面我们根据算法的共性去对它们归个类。不过需要注意的是,我们下面的归类方法可能对分类和回归有比较强的倾向性,而这两类问题也是最常遇到的。

2.2.1 回归算法(Regression Algorithms)


回归算法

2.2.2 基于实例的算法(Instance-based Algorithms)


基于实例的算法

2.2.3 决策树类算法(Decision Tree Algorithms)


决策树类算法

2.2.4 贝叶斯类算法(Bayesian Algorithms)


贝叶斯类算法

2.2.5 聚类算法(Clustering Algorithms)


聚类算法

2.2.6 关联规则算法(Association Rule Learning Algorithms)


关联规则算法

2.2.7 人工神经网络类算法(Artificial Neural Network Algorithms)


人工神经网络类算法

2.2.8 深度学习(Deep Learning Algorithms)


深度学习

机器学习与计算机视觉

2.2.9 降维算法(Dimensionality Reduction Algorithms)


降维算法


2.2.10 模型融合算法(Ensemble Algorithms)


模型融合算法

2.3 机器学习算法使用图谱

scikit-learn作为一个丰富的python机器学习库,实现了绝大多数机器学习的算法,有相当多的人在使用,于是我这里很无耻地把machine learning cheat sheet for sklearn搬过来了,原文可以看这里。哈哈,既然讲机器学习,我们就用机器学习的语言来解释一下,这是针对实际应用场景的各种条件限制,对scikit-learn里完成的算法构建的一颗决策树,每一组条件都是对应一条路径,能找到相对较为合适的一些解决方法,具体如下:

sklearn机器学习算法使用图谱

首先样本量如果非常少的话,其实所有的机器学习算法都没有办法从里面『学到』通用的规则和模式,so多弄点数据是王道。然后根据问题是有/无监督学习和连续值/离散值预测,分成了分类聚类回归维度约减四个方法类,每个类里根据具体情况的不同,又有不同的处理方法。

3. 机器学习问题解决思路

上面带着代价走马观花过了一遍机器学习的若干算法,下面我们试着总结总结在拿到一个实际问题的时候,如果着手使用机器学习算法去解决问题,其中的一些注意点以及核心思路。主要包括以下内容:

多说一句,这里写的这个小教程,主要是作为一个通用的建议和指导方案,你不一定要严格按照这个流程解决机器学习问题。

3.1 数据与可视化

我们先使用scikit-learn的make_classification函数来生产一份分类数据,然后模拟一下拿到实际数据后我们需要做的事情。

  1. #numpy科学计算工具箱
  2. import numpy as np
  3. #使用make_classification构造1000个样本,每个样本有20个feature
  4. from sklearn.datasets import make_classification
  5. X, y = make_classification(1000, n_features=20, n_informative=2,
  6. n_redundant=2, n_classes=2, random_state=0)
  7. #存为dataframe格式
  8. from pandas import DataFrame
  9. df = DataFrame(np.hstack((X, y[:, None])),columns = range(20) + ["class"])

我们生成了一份包含1000个分类数据样本的数据集,每个样本有20个数值特征。同时我们把数据存储至pandas中的DataFrame数据结构中。我们取前几行的数据看一眼:

  1. df[:6]


前6行

不幸的是,肉眼看数据,尤其是维度稍微高点的时候,很有可能看花了也看不出看不出任何线索。幸运的是,我们对于图像的理解力,比数字好太多,而又有相当多的工具可以帮助我们『可视化』数据分布。

我们在处理任何数据相关的问题时,了解数据都是很有必要的,而可视化可以帮助我们更好地直观理解数据的分布和特性

数据的可视化有很多工具包可以用,比如下面我们用来做数据可视化的工具包Seaborn。最简单的可视化就是数据散列分布图和柱状图,这个可以用Seanborn的pairplot来完成。以下图中2种颜色表示2种不同的类,因为20维的可视化没有办法在平面表示,我们取出了一部分维度,两两组成pair看数据在这2个维度平面上的分布状况,代码和结果如下:

  1. import matplotlib.pyplot as plt
  2. import seaborn as sns
  3. #使用pairplot去看不同特征维度pair下数据的空间分布状况
  4. _ = sns.pairplot(df[:50], vars=[8, 11, 12, 14, 19], hue="class", size=1.5)
  5. plt.show()


pair_plot下数据分布状况

我们从散列图和柱状图上可以看出,确实有些维度的特征相对其他维度,有更好的区分度,比如第11维和14维看起来很有区分度。这两个维度上看,数据点是近似线性可分的。而12维和19维似乎呈现出了很高的负相关性。接下来我们用Seanborn中的corrplot来计算计算各维度特征之间(以及最后的类别)的相关性。代码和结果图如下:

  1. import matplotlib.pyplot as plt
  2. plt.figure(figsize=(12, 10))
  3. _ = sns.corrplot(df, annot=False)
  4. plt.show()


各位特征相关性

相关性图很好地印证了我们之前的想法,可以看到第11维特征和第14维特征和类别有极强的相关性,同时它们俩之间也有极高的相关性。而第12维特征和第19维特征却呈现出极强的负相关性。强相关的特征其实包含了一些冗余的特征,而除掉上图中颜色较深的特征,其余特征包含的信息量就没有这么大了,它们和最后的类别相关度不高,甚至各自之间也没什么先惯性。

插一句,这里的维度只有20,所以这个相关度计算并不费太大力气,然而实际情形中,你完全有可能有远高于这个数字的特征维度,同时样本量也可能多很多,那种情形下我们可能要先做一些处理,再来实现可视化了。别着急,一会儿我们会讲到。

3.2 机器学习算法选择

数据的情况我们大致看了一眼,确定一些特征维度之后,我们可以考虑先选用机器学习算法做一个baseline的系统出来了。这里我们继续参照上面提到过的机器学习算法使用图谱
我们只有1000个数据样本,是分类问题,同时是一个有监督学习,因此我们根据图谱里教的方法,使用LinearSVC(support vector classification with linear kernel)试试。注意,LinearSVC需要选择正则化方法以缓解过拟合问题;我们这里选择使用最多的L2正则化,并把惩罚系数C设为10。我们改写一下sklearn中的学习曲线绘制函数,画出训练集和交叉验证集上的得分:

  1. from sklearn.svm import LinearSVC
  2. from sklearn.learning_curve import learning_curve
  3. #绘制学习曲线,以确定模型的状况
  4. def plot_learning_curve(estimator, title, X, y, ylim=None, cv=None,
  5. train_sizes=np.linspace(.1, 1.0, 5)):
  6. """
  7. 画出data在某模型上的learning curve.
  8. 参数解释
  9. ----------
  10. estimator : 你用的分类器。
  11. title : 表格的标题。
  12. X : 输入的feature,numpy类型
  13. y : 输入的target vector
  14. ylim : tuple格式的(ymin, ymax), 设定图像中纵坐标的最低点和最高点
  15. cv : 做cross-validation的时候,数据分成的份数,其中一份作为cv集,其余n-1份作为training(默认为3份)
  16. """
  17. plt.figure()
  18. train_sizes, train_scores, test_scores = learning_curve(
  19. estimator, X, y, cv=5, n_jobs=1, train_sizes=train_sizes)
  20. train_scores_mean = np.mean(train_scores, axis=1)
  21. train_scores_std = np.std(train_scores, axis=1)
  22. test_scores_mean = np.mean(test_scores, axis=1)
  23. test_scores_std = np.std(test_scores, axis=1)
  24. plt.fill_between(train_sizes, train_scores_mean - train_scores_std,
  25. train_scores_mean + train_scores_std, alpha=0.1,
  26. color="r")
  27. plt.fill_between(train_sizes, test_scores_mean - test_scores_std,
  28. test_scores_mean + test_scores_std, alpha=0.1, color="g")
  29. plt.plot(train_sizes, train_scores_mean, 'o-', color="r",
  30. label="Training score")
  31. plt.plot(train_sizes, test_scores_mean, 'o-', color="g",
  32. label="Cross-validation score")
  33. plt.xlabel("Training examples")
  34. plt.ylabel("Score")
  35. plt.legend(loc="best")
  36. plt.grid("on")
  37. if ylim:
  38. plt.ylim(ylim)
  39. plt.title(title)
  40. plt.show()
  41. #少样本的情况情况下绘出学习曲线
  42. plot_learning_curve(LinearSVC(C=10.0), "LinearSVC(C=10.0)",
  43. X, y, ylim=(0.8, 1.01),
  44. train_sizes=np.linspace(.05, 0.2, 5))


学习曲线1

这幅图上,我们发现随着样本量的增加,训练集上的得分有一定程度的下降,交叉验证集上的得分有一定程度的上升,但总体说来,两者之间有很大的差距,训练集上的准确度远高于交叉验证集。这其实意味着我们的模型处于过拟合的状态,也即模型太努力地刻画训练集,一不小心把很多噪声的分布也拟合上了,导致在新数据上的泛化能力变差了。

3.2.1 过拟合的定位与解决

问题来了,过拟合咋办?
针对过拟合,有几种办法可以处理:

这个比较好理解吧,过拟合的主要原因是模型太努力地去记住训练样本的分布状况,而加大样本量,可以使得训练集的分布更加具备普适性,噪声对整体的影响下降。恩,我们提高点样本量试试:

  1. #增大一些样本量
  2. plot_learning_curve(LinearSVC(C=10.0), "LinearSVC(C=10.0)",
  3. X, y, ylim=(0.8, 1.1),
  4. train_sizes=np.linspace(.1, 1.0, 5))


学习曲线2

是不是发现问题好了很多?随着我们增大训练样本量,我们发现训练集和交叉验证集上的得分差距在减少,最后它们已经非常接近了。增大样本量,最直接的方法当然是想办法去采集相同场景下的新数据,如果实在做不到,也可以试试在已有数据的基础上做一些人工的处理生成新数据(比如图像识别中,我们可能可以对图片做镜像变换、旋转等等),当然,这样做一定要谨慎,强烈建议想办法采集真实数据。

比如在这个例子中,我们之前的数据可视化和分析的结果表明,第11和14维特征包含的信息对识别类别非常有用,我们可以只用它们。

  1. plot_learning_curve(LinearSVC(C=10.0), "LinearSVC(C=10.0) Features: 11&14", X[:, [11, 14]], y, ylim=(0.8, 1.0), train_sizes=np.linspace(.05, 0.2, 5))


特征选择后

从上图上可以看出,过拟合问题也得到一定程度的缓解。不过我们这是自己观察后,手动选出11和14维特征。那能不能自动进行特征组合和选择呢,其实我们当然可以遍历特征的组合样式,然后再进行特征选择(前提依旧是这里特征的维度不高,如果高的话,遍历所有的组合是一个非常非常非常耗时的过程!!):

  1. from sklearn.pipeline import Pipeline
  2. from sklearn.feature_selection import SelectKBest, f_classif
  3. # SelectKBest(f_classif, k=2) 会根据Anova F-value选出 最好的k=2个特征
  4. plot_learning_curve(Pipeline([("fs", SelectKBest(f_classif, k=2)), # select two features
  5. ("svc", LinearSVC(C=10.0))]), "SelectKBest(f_classif, k=2) + LinearSVC(C=10.0)", X, y, ylim=(0.8, 1.0), train_sizes=np.linspace(.05, 0.2, 5))


自动特征选择

如果你自己跑一下程序,会发现在我们自己手造的这份数据集上,这个特征筛选的过程超级顺利,但依旧像我们之前提过的一样,这是因为特征的维度不太高。
从另外一个角度看,我们之所以做特征选择,是想降低模型的复杂度,而更不容易刻画到噪声数据的分布。从这个角度出发,我们还可以有(1)多项式你和模型中降低多项式次数 (2)神经网络中减少神经网络的层数和每层的结点数 (c)SVM中增加RBF-kernel的bandwidth等方式来降低模型的复杂度。
话说回来,即使以上提到的办法降低模型复杂度后,好像能在一定程度上缓解过拟合,但是我们一般还是不建议一遇到过拟合,就用这些方法处理,优先用下面的方法:

  1. plot_learning_curve(LinearSVC(C=0.1), "LinearSVC(C=0.1)", X, y, ylim=(0.8, 1.0), train_sizes=np.linspace(.05, 0.2, 5))


调整正则化参数

调整正则化系数后,发现确实过拟合现象有一定程度的缓解,但依旧是那个问题,我们现在的系数是自己敲定的,有没有办法可以自动选择最佳的这个参数呢?可以。我们可以在交叉验证集上做grid-search查找最好的正则化系数(对于大数据样本,我们依旧需要考虑时间问题,这个过程可能会比较慢):

  1. from sklearn.grid_search import GridSearchCV
  2. estm = GridSearchCV(LinearSVC(),
  3. param_grid={"C": [0.001, 0.01, 0.1, 1.0, 10.0]})
  4. plot_learning_curve(estm, "LinearSVC(C=AUTO)",
  5. X, y, ylim=(0.8, 1.0),
  6. train_sizes=np.linspace(.05, 0.2, 5))
  7. print "Chosen parameter on 100 datapoints: %s" % estm.fit(X[:500], y[:500]).best_params_

在500个点得到的结果是:{'C': 0.01}
使用新的C参数,我们再看看学习曲线:


C取0.01的学习曲线

对于特征选择的部分,我打算多说几句,我们刚才看过了用sklearn.feature_selection中的SelectKBest来选择特征的过程,也提到了在高维特征的情况下,这个过程可能会非常非常慢。那我们有别的办法可以进行特征选择吗?比如说,我们的分类器自己能否甄别那些特征是对最后的结果有益的?这里有个实际工作中用到的小技巧。

我们知道:

那基于这个理论,我们可以把SVC中的正则化替换成l1正则化,让其自动甄别哪些特征应该留下权重。

  1. plot_learning_curve(LinearSVC(C=0.1, penalty='l1', dual=False), "LinearSVC(C=0.1, penalty='l1')", X, y, ylim=(0.8, 1.0), train_sizes=np.linspace(.05, 0.2, 5))


使用l1正则化

好了,我们一起来看看最后特征获得的权重:

  1. estm = LinearSVC(C=0.1, penalty='l1', dual=False)
  2. estm.fit(X[:450], y[:450]) # 用450个点来训练
  3. print "Coefficients learned: %s" % est.coef_
  4. print "Non-zero coefficients: %s" % np.nonzero(estm.coef_)[1]

得到结果:

  1. Coefficients learned: [[ 0. 0. 0. 0. 0. 0.01857999
  2. 0. 0. 0. 0.004135 0. 1.05241369
  3. 0.01971419 0. 0. 0. 0. -0.05665314
  4. 0.14106505 0. ]]
  5. Non-zero coefficients: [5 9 11 12 17 18]

你看,5 9 11 12 17 18这些维度的特征获得了权重,而第11维权重最大,也说明了它影响程度最大。

3.2.2 欠拟合定位与解决

我们再随机生成一份数据[1000*20]的数据(但是分布和之前有变化),重新使用LinearSVC来做分类。

  1. #构造一份环形数据
  2. from sklearn.datasets import make_circles
  3. X, y = make_circles(n_samples=1000, random_state=2)
  4. #绘出学习曲线
  5. plot_learning_curve(LinearSVC(C=0.25),"LinearSVC(C=0.25)",X, y, ylim=(0.5, 1.0),train_sizes=np.linspace(.1, 1.0, 5))


环形数据的学习曲线

简直烂出翔了有木有,二分类问题,我们做随机猜测,准确率都有0.5,这比随机猜测都高不了多少!!!怎么办?

不要盲目动手收集更多资料,或者调整正则化参数。我们从学习曲线上其实可以看出来,训练集上的准确度和交叉验证集上的准确度都很低,这其实就对应了我们说的『欠拟合』状态。别急,我们回到我们的数据,还是可视化看看:

  1. f = DataFrame(np.hstack((X, y[:, None])), columns = range(2) + ["class"])
  2. _ = sns.pairplot(df, vars=[0, 1], hue="class", size=3.5)


环形数据可视化

你发现什么了,数据根本就没办法线性分割!!!,所以你再找更多的数据,或者调整正则化参数,都是无济于事的!!!

那我们又怎么解决欠拟合问题呢?通常有下面一些方法:

  1. # 加入原始特征的平方项作为新特征
  2. X_extra = np.hstack((X, X[:, [0]]**2 + X[:, [1]]**2))
  3. plot_learning_curve(LinearSVC(C=0.25), "LinearSVC(C=0.25) + distance feature", X_extra, y, ylim=(0.5, 1.0), train_sizes=np.linspace(.1, 1.0, 5))


平方映射后的准确度

  1. from sklearn.svm import SVC
  2. # note: we use the original X without the extra feature
  3. plot_learning_curve(SVC(C=2.5, kernel="rbf", gamma=1.0), "SVC(C=2.5, kernel='rbf', gamma=1.0)",X, y, ylim=(0.5, 1.0), train_sizes=np.linspace(.1, 1.0, 5))


rbf核SVM学习曲线

你看,效果依旧很赞。

3.3 关于大数据样本集和高维特征空间

我们在小样本的toy dataset上,怎么捣鼓都有好的方法。但是当数据量和特征样本空间膨胀非常厉害时,很多东西就没有那么好使了,至少是一个很耗时的过程。举个例子说,我们现在重新生成一份数据集,但是这次,我们生成更多的数据,更高的特征维度,而分类的类别也提高到5。

3.3.1 大数据情形下的模型选择与学习曲线

在上面提到的那样一份数据上,我们用LinearSVC可能就会有点慢了,我们注意到机器学习算法使用图谱推荐我们使用SGDClassifier。其实本质上说,这个模型也是一个线性核函数的模型,不同的地方是,它使用了随机梯度下降做训练,所以每次并没有使用全部的样本,收敛速度会快很多。再多提一点,SGDClassifier对于特征的幅度非常敏感,也就是说,我们在把数据灌给它之前,应该先对特征做幅度调整,当然,用sklearn的StandardScaler可以很方便地完成这一点。

SGDClassifier每次只使用一部分(mini-batch)做训练,在这种情况下,我们使用交叉验证(cross-validation)并不是很合适,我们会使用相对应的progressive validation:简单解释一下,estimator每次只会拿下一个待训练batch在本次做评估,然后训练完之后,再在这个batch上做一次评估,看看是否有优化。

  1. #生成大样本,高纬度特征数据
  2. X, y = make_classification(200000, n_features=200, n_informative=25, n_redundant=0, n_classes=10, class_sep=2, random_state=0)
  3. #用SGDClassifier做训练,并画出batch在训练前后的得分差
  4. from sklearn.linear_model import SGDClassifier
  5. est = SGDClassifier(penalty="l2", alpha=0.001)
  6. progressive_validation_score = []
  7. train_score = []
  8. for datapoint in range(0, 199000, 1000):
  9. X_batch = X[datapoint:datapoint+1000]
  10. y_batch = y[datapoint:datapoint+1000]
  11. if datapoint > 0:
  12. progressive_validation_score.append(est.score(X_batch, y_batch))
  13. est.partial_fit(X_batch, y_batch, classes=range(10))
  14. if datapoint > 0:
  15. train_score.append(est.score(X_batch, y_batch))
  16. plt.plot(train_score, label="train score")
  17. plt.plot(progressive_validation_score, label="progressive validation score")
  18. plt.xlabel("Mini-batch")
  19. plt.ylabel("Score")
  20. plt.legend(loc='best')
  21. plt.show()

得到如下的结果:


SGDClassifier学习曲线

从这个图上的得分,我们可以看出在50个mini-batch迭代之后,数据上的得分就已经变化不大了。但是好像得分都不太高,所以我们猜测一下,这个时候我们的数据,处于欠拟合状态。我们刚才在小样本集合上提到了,如果欠拟合,我们可以使用更复杂的模型,比如把核函数设置为非线性的,但遗憾的是像rbf核函数是没有办法和SGDClassifier兼容的。因此我们只能想别的办法了,比如这里,我们可以把SGDClassifier整个替换掉了,用多层感知神经网来完成这个任务,我们之所以会想到多层感知神经网,是因为它也是一个用随机梯度下降训练的算法,同时也是一个非线性的模型。当然根据机器学习算法使用图谱,也可以使用核估计(kernel-approximation)来完成这个事情。

3.3.2 大数据量下的可视化

大样本数据的可视化是一个相对比较麻烦的事情,一般情况下我们都要用到降维的方法先处理特征。我们找一个例子来看看,可以怎么做,比如我们数据集取经典的『手写数字集』,首先找个方法看一眼这个图片数据集。

  1. #直接从sklearn中load数据集
  2. from sklearn.datasets import load_digits
  3. digits = load_digits(n_class=6)
  4. X = digits.data
  5. y = digits.target
  6. n_samples, n_features = X.shape
  7. print "Dataset consist of %d samples with %d features each" % (n_samples, n_features)
  8. # 绘制数字示意图
  9. n_img_per_row = 20
  10. img = np.zeros((10 * n_img_per_row, 10 * n_img_per_row))
  11. for i in range(n_img_per_row):
  12. ix = 10 * i + 1
  13. for j in range(n_img_per_row):
  14. iy = 10 * j + 1
  15. img[ix:ix + 8, iy:iy + 8] = X[i * n_img_per_row + j].reshape((8, 8))
  16. plt.imshow(img, cmap=plt.cm.binary)
  17. plt.xticks([])
  18. plt.yticks([])
  19. _ = plt.title('A selection from the 8*8=64-dimensional digits dataset')
  20. plt.show()



我们总共有1083个训练样本,包含手写数字(0,1,2,3,4,5),每个样本图片中的像素点平铺开都是64位,这个维度显然是没办法直接可视化的。下面我们基于scikit-learn的示例教程对特征用各种方法做降维处理,再可视化。

随机投射
我们先看看,把数据随机投射到两个维度上的结果:

  1. #import所需的package
  2. from sklearn import (manifold, decomposition, random_projection)
  3. rp = random_projection.SparseRandomProjection(n_components=2, random_state=42)
  4. #定义绘图函数
  5. from matplotlib import offsetbox
  6. def plot_embedding(X, title=None):
  7. x_min, x_max = np.min(X, 0), np.max(X, 0)
  8. X = (X - x_min) / (x_max - x_min)
  9. plt.figure(figsize=(10, 10))
  10. ax = plt.subplot(111)
  11. for i in range(X.shape[0]):
  12. plt.text(X[i, 0], X[i, 1], str(digits.target[i]),
  13. color=plt.cm.Set1(y[i] / 10.),
  14. fontdict={'weight': 'bold', 'size': 12})
  15. if hasattr(offsetbox, 'AnnotationBbox'):
  16. # only print thumbnails with matplotlib > 1.0
  17. shown_images = np.array([[1., 1.]]) # just something big
  18. for i in range(digits.data.shape[0]):
  19. dist = np.sum((X[i] - shown_images) ** 2, 1)
  20. if np.min(dist) < 4e-3:
  21. # don't show points that are too close
  22. continue
  23. shown_images = np.r_[shown_images, [X[i]]]
  24. imagebox = offsetbox.AnnotationBbox(
  25. offsetbox.OffsetImage(digits.images[i], cmap=plt.cm.gray_r),
  26. X[i])
  27. ax.add_artist(imagebox)
  28. plt.xticks([]), plt.yticks([])
  29. if title is not None:
  30. plt.title(title)
  31. #记录开始时间
  32. start_time = time.time()
  33. X_projected = rp.fit_transform(X)
  34. plot_embedding(X_projected, "Random Projection of the digits (time: %.3fs)" % (time.time() - start_time))

结果如下:


2方向随机投射图

PCA降维
在维度约减/降维领域有一个非常强大的算法叫做PCA(Principal Component Analysis,主成分分析),它能将原始的绝大多数信息用维度远低于原始维度的几个主成分表示出来。PCA在我们现在的数据集上效果还不错,我们来看看用PCA对原始特征降维至2维后,原始样本在空间的分布状况:

  1. from sklearn import (manifold, decomposition, random_projection)
  2. #TruncatedSVD 是 PCA的一种实现
  3. X_pca = decomposition.TruncatedSVD(n_components=2).fit_transform(X)
  4. #记录时间
  5. start_time = time.time()
  6. plot_embedding(X_pca,"Principal Components projection of the digits (time: %.3fs)" % (time.time() - start_time))

得到的结果如下:


PCA后的可视化

我们可以看出,效果还不错,不同的手写数字在2维平面上,显示出了区域集中性。即使它们之间有一定的重叠区域。

如果我们用一些非线性的变换来做降维操作,从原始的64维降到2维空间,效果更好,比如这里我们用到一个技术叫做t-SNE,sklearn的manifold对其进行了实现:

  1. from sklearn import (manifold, decomposition, random_projection)
  2. #降维
  3. tsne = manifold.TSNE(n_components=2, init='pca', random_state=0)
  4. start_time = time.time()
  5. X_tsne = tsne.fit_transform(X)
  6. #绘图
  7. plot_embedding(X_tsne,
  8. "t-SNE embedding of the digits (time: %.3fs)" % (time.time() - start_time))


非线性降维手写数字分布图

我们发现结果非常的惊人,似乎这个非线性变换降维过后,仅仅2维的特征,就可以将原始数据的不同类别,在平面上很好地划分开。不过t-SNE也有它的缺点,一般说来,相对于线性变换的降维,它需要更多的计算时间。也不太适合在大数据集上全集使用。

3.4 损失函数的选择

损失函数的选择对于问题的解决和优化,非常重要。我们先来看一眼各种不同的损失函数:

  1. import numpy as np
  2. import matplotlib.plot as plt
  3. # 改自http://scikit-learn.org/stable/auto_examples/linear_model/plot_sgd_loss_functions.html
  4. xmin, xmax = -4, 4
  5. xx = np.linspace(xmin, xmax, 100)
  6. plt.plot([xmin, 0, 0, xmax], [1, 1, 0, 0], 'k-',
  7. label="Zero-one loss")
  8. plt.plot(xx, np.where(xx < 1, 1 - xx, 0), 'g-',
  9. label="Hinge loss")
  10. plt.plot(xx, np.log2(1 + np.exp(-xx)), 'r-',
  11. label="Log loss")
  12. plt.plot(xx, np.exp(-xx), 'c-',
  13. label="Exponential loss")
  14. plt.plot(xx, -np.minimum(xx, 0), 'm-',
  15. label="Perceptron loss")
  16. plt.ylim((0, 8))
  17. plt.legend(loc="upper right")
  18. plt.xlabel(r"Decision function $f(x)$")
  19. plt.ylabel("$L(y, f(x))$")
  20. plt.show()

得到结果图像如下:


损失函数对比

不同的损失函数有不同的优缺点:

4. 总结

全文到此就结束了。先走马观花看了一遍机器学习的算法,然后给出了对应scikit-learn的『秘密武器』机器学习算法使用图谱,紧接着从了解数据(可视化)选择机器学习算法定位过/欠拟合及解决方法大量极的数据可视化损失函数优缺点与选择等方面介绍了实际机器学习问题中的一些思路和方法。本文和文章机器学习系列(3)_逻辑回归应用之Kaggle泰坦尼克之灾都提及了一些处理实际机器学习问题的思路和方法,有相似和互补之处,欢迎大家参照着看。

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注