[关闭]
@dongxi 2017-08-01T20:04:42.000000Z 字数 4825 阅读 1018

广义线性模型

机器学习 CS229


前言

       在之前的文章中,我们谈到了服从高斯分布的线性回归和服从伯努利分布的逻辑回归,它们的解决过程十分相似。实际上,他们都是广义线性模型的特例,对于这类问题我们有比较统一的解决方案。

指数分布族

       在介绍广义线性模型之前,我们先来引入指数分布族这一概念,一个单参数指数分布族可以表示为:


       在这里,被称为自然参数(natrual parameter)被称为充分统计量(sufficient statistic)(一般来说,),被称为log partition function。这里寄到归一化常数的作用。如果我们确定,通过不断改变,我们就可以得到一个分布组。

伯努利分布

       伯努利分布的具体形式在此就不赘述,对于伯努利分布我们有:


       很显然,伯努利方程是符合指数分布族形式,其中我们假设,那么我们得到一个有意思的公式,也就是Sigmoid函数。根据以上的信息我们有:

高斯分布

       在对高斯分布进行线性回归中,很显然方差是可以忽略的变量,所以为了方便起见我们将设置为1(实际上是因为我们上面引入的指数分布族是基于单参数的,关于多参数的内容以后应该会单独写一篇文章来讲述),那么我们就会有:


       因此,在指数分布族形式下,我们只需要进行如下转换:

       其实还有很多分布服从指数分布族,详细的内容可以浏览维基百科的相关内容。

广义线性模型

       在构建广义线性模型之前,我们需要对给定的分布的分布做出一些假设:

  1. 成线性关系,即
  2. 给定一个,我们需要目标函数为

       关于上面的内容有一点需要注意的是,与基本线性模型不同,也不一定是简单的相等关系,它们的关系可以用描述,其中称为链接函数。
       根据如上假设,我们可以推导出高斯分布的线性回归模型:


       上式中第一个等号是因为假设三,第二个等号则是由于高斯分布的基本性质,第三个等号则是由于前文中高斯分布中推导过的的关系,最后一个等号则是由于假设二。
       同样,我们也可以推导出逻辑回归模型:

       上式中第一个等号是因为假设三,第二个等号则是由于伯努利分布的基本性质,第三个等号则是由于前文中伯努利分布中推导过的的关系,最后一个等号则是由于假设二。
       高斯分布的推导过程比较简单,我们就不仔细分析了,我们以伯努利分布为例进行一下简单的分析,观察上述分析过程,我们很明显的可以发现,在推导过程中这一步显得尤为重要,它起到了一个连接预测值和自然参数的作用,也就是我们在前文中提到的连接函数
       回顾上述推导过程,我们可以看到构建广义线性模型需要两个步骤:

  1. 确定预测变量的分布是一个指数分布族。
  2. 确定连接函数。实际上,在确定指数分布族的同时,我们就可以据此推导出一个标准连接函数。所以一般来说,只要我们确定了第一步,那么第二部中的连接函数也就随之确定了。

Softmax回归

       多项分布推导出的GLM可以解决多分类问题是logistic模型的扩展。所分类问题目标值,我们假设其概率分布为:


       又由于,所以我们可以将参数数量减少为个,使得:

       为了方便表达,我们引入向量,如下:

       在这里我们采用向量中的第个元素,同时我们引入指示函数,定义如下:

       现在我们可以将多项式表示成指数分布族的成员了:

       其中:

       需要注意的是,上面为了简化计算,我们将设置为了维,所以为了简化计算我们定义。由的表达式可知:

       在这里我们多说几句,实际上就是跟函数的链接函数,所谓链接函数就是自然参数与均值的函数关系,而在本式中,所以上一式便是本模型的链接函数,也验证了我们之前所说的只要模型确定,那么链接函数也已经确定了。
       由上式我们又可以知道:

       这个从映射到的函数被称为Softmax函数。
       根据我们上面所推导的那些知识,我们有:

       上述这个模型被称为Softmax回归模型,这是一个广义的逻辑回归模型。不过这里我还是要多说几句,这里的是我们模型的参数,跟之前一样,为了方便起见我们定义,因此,跟我们之前所提及的一样。
       到此为止,我们可以推导出的形式:

       由此可见,拟合函数的输出结果是每一个分类所对应概率组成的向量。
       至于如何求得这个最佳的就十分简单了,还是采用原来的最大似然估计来拟合参数,那么会有(在此就不再细致推导):

       到此为止,我我们关于广义线性回归的内容就都结束了,至于上面的采用牛顿迭代法还是梯度上升法都是很容易求解的,在此就不在赘述了。

结语

       总的来说,本篇文章算是把关于广义线性模型的比较浅层的内容都简单讲述了一遍,虽然大部分都是翻译Andrew Ng讲义中的内容,不过也广泛结合网络上的优秀博客,也有自己对这方面的补充,不过这篇文章也是还有一定的缺陷的,首先便是这里我们讨论的都是单参数指数分布族,比如高斯分布我们就将其中的方差修改成了定值,这方面的内容就需要等我以后的学习研究之后再补充到这里了,所以这篇文章到这里就结束了。

广义线性模型(GLM
广义线性模型(Generalized Linear Model)
牛顿方法、指数分布族、广义线性模型—斯坦福ML公开课笔记4
为什么广义线性模型(GLM)要求被解释变量属于指数分布族(Exponential Families)?

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注