@a335031
2014-10-22 09:16
字数 2799
阅读 3171
机器学习
斯坦福
训练集:
训练误差:
ERM:
一般误差:
定理:令,对于任意,至少在的概率下有:
推论:令,对于任意,则为了保证至少在的概率下成立,必须有:
此处偏差与方差权衡指的是选择合适大小的假设类,即:假设类过小导致偏差过大,即欠拟合;假设类过大导致方差过大,即过拟合。
逻辑回归和支持向量机是经验风险最小化这个非凸优化问题的凸性近似,它们实际上也是如经验风险最小化一样的工作。
实际上无论任何学习算法,我们衡量其好坏的依据都只是其在未知数据上的表现,而不是它对训练集拟合的好坏。
极大似然估计与经验风险最小有何区别?
训练误差也被称为经验风险。
定理的证明策略:step1),step2)存在上界
我们说,逻辑回归是经验风险最小化的凸近似,那么,近似体现在哪里?
《逻辑回归关于经验风险最小化的凸近似体现》
引理(Hoeffding不等式):若:,令:则:。
值得注意的是该不等式对任意的均成立。
定理:
证明:令:,则:,由Hoeffding不等式即可得待证明不等式。
定理(依概率一致收敛):
证明:令事件为。则
推论:令:,则:
样本复杂度: