[关闭]
@a335031 2014-10-22 09:16 字数 2799 阅读 3171

经验风险最小化

机器学习 斯坦福


符号及定义

训练集:
训练误差:
ERM:
一般误差:

定理

定理:令,对于任意,至少在的概率下有:

我们可以非正式地认为右式的第一项对应假设类的偏差,第二项对应方差。
证明:

推论:令,对于任意,则为了保证至少在的概率下成立,必须有:

结论

此处偏差与方差权衡指的是选择合适大小的假设类,即:假设类过小导致偏差过大,即欠拟合;假设类过大导致方差过大,即过拟合。

逻辑回归和支持向量机是经验风险最小化这个非凸优化问题的凸性近似,它们实际上也是如经验风险最小化一样的工作。

思考

  1. 是在训练集上的偏差。
  2. 是一般偏差。
  3. 是我们能得到的。
  4. 是理想的,我们无法确定得到的。
  5. 是我们真正关心的,关心它与的近似程度。

实际上无论任何学习算法,我们衡量其好坏的依据都只是其在未知数据上的表现,而不是它对训练集拟合的好坏。

极大似然估计与经验风险最小有何区别?

训练误差也被称为经验风险。

定理的证明策略:step1),step2)存在上界

我们说,逻辑回归是经验风险最小化的凸近似,那么,近似体现在哪里?
《逻辑回归关于经验风险最小化的凸近似体现》

引理

引理(Hoeffding不等式):若:,令:则:
值得注意的是该不等式对任意的均成立。

证明

定理:
证明:令:,则:,由Hoeffding不等式即可得待证明不等式。

定理(依概率一致收敛):
证明:令事件。则

同时用1减两边得:

推论:令:,则:
样本复杂度:

误差界:

ERM——empirical risk minimization——经验风险最小化

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注