[关闭]
@songying 2019-03-24T20:36:49.000000Z 字数 507 阅读 1012

机器学习:集成学习

machine-learning


为什么要用集成学习

集成学习是通过训练多个分类器,然后将这些分类器组合起来,以达到更好的预测性能。

集成学习算法主要有Bagging, Boosting, stacking 三类。

Bagging

代表算法: Random Forest

Boosting

代表算法: AdaBoost, GBDT

思想: 学习一系列弱分类器,并将其组合为一个强分类器。

Stacking

Stacking方法是指训练一个模型用于组合其他各个模型。

首先我们先训练多个不同的模型,然后把之前训练的各个模型的输出为输入来训练一个模型,以得到一个最终的输出。

Bagging 与 Boosting

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注