[关闭]
@gump88 2016-09-08T22:47:43.000000Z 字数 1839 阅读 1647

title: 机器学习笔记(七)Logistic Regression

机器学习笔记(七) 初探Logistic Regression

date: 2015-08-09 10:18:55

MachineLearning

1. Logistic Regression的导出

对于一般的线性回归而言,会有

,但是如果y和x之间不存在这种线性关系时,这种模型就是不成立的。这时,我们可以考虑用线性模型的预测值去逼近y的衍生物,例如,,这样可以得到,从而得到
,当这里的Sigmoid函数,该模型就成为Logistic Regression:

Sigmoid函数

2. 学习方法

这里使用最大似然估计方法学习参数,似然函数写成

,其中

一般地,我们不直接对上述似然函数求解,而是将其转化为对数似然函数:

,最大化似然函数等价于最小化,常常采用的方法有梯度下降法、牛顿法等。下面给出梯度下降法的求解过程:

(1)

对(1)式求w的偏导数,得到

所以,w的更新公式为,这里的是步长。通过迭代,就可以求出最优解

3 随机梯度下降

使用梯度下降存在一些问题,比如,计算梯度时需要遍历所有样本点,计算缓慢;梯度下降容易落到局部最优解。针对这些问题,我们可以使用Stochastic gradient descent,SGD在每次迭代计算时,不是计算所有样本点,而是随机选择一个样本点进行计算

随机梯度下降收敛速度快,不容易落入局部最优解。

4.预测

求得后,预测模型即为:

,如果算得y的值大于0.5,一般可以认为类别为1,否则为0。

5.多分类情况

5.1 softmax函数

softmax函数是将多个标量映射为一个概率分布。对K个标量,softmax函数定义为

这样我们可以将K个向量转换成一个分布:,满足

损失函数:

求解方式:梯度下降

5.2 one vs. one 和 one vs. rest

one vs. one和one vs. rest都是将二分类算法推广到多分类的手段,下面分别简单介绍:

5.3 LR参数的牛顿及拟牛顿解法

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注