逻辑回归关于经验风险最小化的凸近似体现
机器学习
经验最小化以及逻辑回归的等价问题
经验风险最小化——极小化训练误差(minε^(θ)):
min∑y(i)(1−I(z(i)))+(1−y(i))I(z(i))
逻辑回归——极大化似然函数(
maxl(θ)):
min∑y(i)[−lng(z(i))]+(1−y(i))[−ln(1−g(z(i)))]
其中,
z(i)=θTx(i)、
I为示性函数、
g为逻辑函数。容易看出
1−I(z(i))由
−lng(z(i))近似,
I(z(i))由
−ln(1−g(z(i)))近似。
函数图像
思考
经验风险最小化存在最优解但不一定唯一,而逻辑回归存在唯一解。
逻辑回归由于使用了极大似然估计,所以它不仅关注样本是否被正确分类,还考虑了区分程度。
推导
首先定义一个函数
1{x}={10x=truex=false
经验风险最小化算法:
minε^(θ)min1m∑i=1m1{I(z(i))≠y(i)}min∑1{I(z(i))≠y(i)}min∑y(i)(1−I(z(i)))+(1−y(i))I(z(i))
逻辑回归:
maxl(θ)max∑y(i)lng(z(i))+(1−y(i))ln(1−g(z(i)))min∑y(i)[−lng(z(i))]+(1−y(i))[−ln(1−g(z(i)))]