[关闭]
@songying 2018-10-11T14:57:00.000000Z 字数 1066 阅读 964

AdaBoost 算法

ensemble-learning


统计学习方法

1. Boosting方法的基本思路

对于Boosting问题,有两个问题要答:
1. 在每一轮中如何改变训练数据的权值和概率分布
2. 如何将弱分类器组成一个强分类器

Adaboost的思想

  1. 对于训练数据,提高那些在前一轮弱分类器错误分类样本的权值, 而降低那些被正确分类样本的权值。
  2. 弱分类器的组合,AdaBoost采用 加权多数表决的方式。通过加大分类误差率小的弱分类器的权值,减小分类误差率大的弱分类器的权值。

AdaBoost 算法描述

第一步: 初始化训练数据的权值分布

假设我们有N个训练样本,那么初始的训练数据权值分布如下:

第二步: 训练M个弱分类器

每个分类器都有以下四个步骤,都需要计算分类器的分类误差率,以及每个分类器的权重系数

  1. 使用具有权值分布 (t表示训练第t轮) 的训练数据集学习,得到M个基本分类器
  2. 计算 在训练数据集上的分类误差率:

  3. 计算第t轮时 的系数

  4. 更新训练数据集的权值分布

其中, D_{m+1} 是规范化因子, 它使得

第三步: 构建基本分类器的线性组合

损失函数

Adaboost 选择 指数损失函数作为其损失函数:

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注