@strivexj
2019-05-18T10:05:39.000000Z
字数 21005
阅读 1357
ML
支持向量机(Support Vector Machine,简称SVM)是一种针对二分类任务设计的分类器,它的理论相对神经网络模型来说更加完备和严密,并且效果显著,结果可预测,是非常值得学习的模型。
这一章的内容大致如下:
间隔与支持向量:如何计算空间中任一点到超平面的距离?什么是支持向量?什么是间隔?支持向量机求解的目标是什么?
对偶问题:求取最大间隔等价于怎样的对偶问题?KKT条件揭示出支持向量机的什么性质?如何用SMO算法进行高效求解?为什么SMO算法能高效求解?
核函数:如何处理非线性可分问题?什么是核函数?为什么需要核函数?有哪些常用的核函数?核函数具有什么性质?
软间隔与正则化:如何应对过拟合问题?软间隔和硬间隔分别指什么?如何求解软间隔支持向量机?0/1损失函数有哪些可选的替代损失函数?支持向量机和对率回归模型有什么联系?结构风险和经验风险分别指什么?
支持向量回归:什么是支持向量回归?与传统回归模型有什么不同?支持向量回归的支持向量满足什么条件?
核方法:什么是表示定理?什么是核方法?如何应用?
给定一个二分类数据集,正类标记为+1,负类标记为-1(对率回归中负类标记是0,这点是不同的)。
分类学习试图从样本空间中找到一个超平面,使得该超平面可以将不同类的样本分隔开。但是满足这样条件的平面可能有很多,哪一个才是最好的呢?
在SVM中,我们试图找到处于两类样本正中间的超平面,因为这个超平面对训练数据局部扰动的容忍性最好,新样本最不容易被误分类。也就是说这个超平面对未见示例的泛化能力最强。
上图的实线就是划分超平面,在线性模型中可以通过方程 来描述,在二维样本空间中就是一条直线。图中的 是使用了核函数进行映射,这里先不讨论。 是线性模型的权重向量(又叫投影向量),也是划分超平面的法向量,决定着超平面的方向。偏置项 又被称为 位移项,决定了超平面和空间原点之间的距离。
假设超平面能够将所有训练样本正确分类,也即对于所有标记为+1的点有 ,所有标记为-1的点有 。只要这个超平面存在,那么我们必然可以对 和 进行适当的线性放缩,使得:
而SVM中定义使得上式等号成立的训练样本点就是支持向量(support vector)(如果叫作支持点可能更好理解一些,因为事实上就是样本空间中的数据点,但因为我们在表示数据点的时候一般写成向量形式,所以就称为支持向量),它们是距离超平面最近的几个样本点,也即上面图中两条虚线上的点(图中存在比支持向量距离超平面更近的点,这跟软间隔有关,这里先不讨论)。
在SVM中,我们希望实现的是最大化两类支持向量到超平面的距离之和,那首先就得知道怎么计算距离。怎样计算样本空间中任意数据点到划分超平面的距离呢?
画了一个图,方便讲解。图中蓝色线即超平面,对应直线方程 。投影向量 垂直于超平面,点 对应向量 ,过点 作超平面的垂线,交点 对应向量 。假设由点 指向 点 的向量为 ,长度(也即点 与超平面的距离)为 。有两种方法计算可以计算出 的大小:
由向量加法定义可得 。
那么向量 等于什么呢?它等于这个方向的单位向量乘上 ,也即有
因此又有 。
由于点 在超平面上,所以有
由 可得 ,代入直线方程消去 :
简单变换即可得到:
又因为我们取距离为正值,所以要加上绝对值符号:
假设直线方程为 ,那么有点到直线距离公式:
令 ,,则可以把 写成向量形式 。把截距项设为,则直线方程变为 ,代入距离公式可得:
该式扩展到多维情况下也是通用的。
前面已经提到,我们希望实现的是最大化两类支持向量到超平面的距离之和,而根据定义,所有支持向量都满足:
代入前面的距离公式可以得到支持向量到超平面的距离为 。
定义间隔(margin)为两个异类支持向量到超平面的距离之和:
SVM的目标便是找到具有最大间隔(maximum margin)的划分超平面,也即找到使 最大的参数 和 :
约束部分指的是全部样本都被正确分类,此时标记值( 或 )乘上预测值( 或 )必定是一个 的数值。
看上去间隔大小只与 有关,但实际上位移项 也通过约束影响着 的取值,进而对间隔产生影响。
由于最大化 等价于最小化 ,所以可以重写目标函数为:
引入 是为了求导时可以约去平方项的2,这便是支持向量机的基本型。
特别地,还有以下定义:
函数间隔:
几何间隔:
式(1)是一个带约束的凸二次规划(convex quadratic programming)问题(凸问题就意味着必定能求到全局最优解,而不会陷入局部最优)。对这样一个问题,可以直接用现成的优化计算包求解,但这一小节介绍的是一种更高效的方法。
首先为式(1)的每条约束添加拉格朗日乘子 (对应m个样本的m条约束),得到该问题的拉格朗日函数:
其中 ,对拉格朗日函数求 和 的偏导,并令偏导为0可以得到:
将式(3)代入式(2)可以消去 ,又因为式(2)中 的系数是 ,由式(4)可知 也可以消去。然后再考虑式(4)的约束就得到了式(1)的对偶问题(dual problem):
只要求出该对偶问题的解 ,就可以推出 和 ,从而得到模型:
不过实际计算时一般不会直接求解 ,特别是需要用核函数映射到高维空间时,因为映射后做内积很困难,而用少量支持向量进行表示,在原始空间进行计算显然更优,这点在后续章节会详细讲解。
注意,由于式(1)的约束条件是不等式约束,所以求解过程要求满足KKT(Karush-Kuhn-Tucker)条件:
这个KKT条件说明了,对任何一个样本 来说,
它揭示了SVM的一个重要性质:最终模型只与支持向量有关,因此训练完成后,大部分的训练样本都不需保留。
可以发现对偶问题式(5)是一个二次规划问题,可以使用通用的二次规划算法求解。但问题规模正比于样本数,因此开销相当大。为了避免这个开销,可以使用高效的SMO(Sequential Minimal Optimization)算法。
初始化参数 后,SMO算法重复下面两个步骤直至收敛:
怎么选取 和 呢?
注意到,只要选取的 和 中有一个不满足KKT条件,那么更新后目标函数的值就会增大。而且违背KKT条件的程度越大,则更新后导致目标函数增幅就越大。
因此,SMO算法先选取一个违背KKT条件程度最大的变量 ,然后再选一个使目标函数增长最快的变量 ,但由于找出 的开销较大,所以SMO算法采用了一个启发式,使选取的两变量对应的样本之间间隔最大。这样两个变量差别很大,与选取两个相似变量相比,这种方法能为目标函数带来更大的变化,从而更快搜索到全局最大值。
由于SMO算法在每次迭代中,仅优化两个选定的参数,其他参数是固定的,所以会非常高效。此时,可将对偶问题式(5)的约束重写为:
其中, 看作是固定的常数。
利用式(7),我们可以把 从式(5)中消去,这样就得到了一个单变量二次规划问题,只需考虑 这个约束。这样的问题具有闭式解,所以我们连数值优化方法都不需要了,可以直接算出 和 。
使用SMO算法计算出最优解之后,我们关注的是如何推出 和 ,从而得到最终模型。获得 很简单,直接用式(3)就可以了。而位移项 则可以通过支持向量导出,因为对于任一支持向量 ,都有函数间隔等于1,所以有:
这里的 是所有支持向量的下标集(事实上,用所有样本的下标也行,不过非支持向量的拉格朗日乘子等于0,对求和没贡献,这一点前面已经提到了)。
理论上,我们只要选取任意一个支持向量代入式(8)就可以把 算出来了。但实际任务中往往采用一种更鲁棒的做法:用所有支持向量求解的平均值。
在现实任务中,我们更常遇到的是在原始样本空间中非线性可分的问题。对这样的问题,一种常用的思路是将样本从原始空间映射到一个更高维的特征空间,使得样本在该特征空间中线性可分。幸运的是,只要原始空间是有限维的(也即属性数目有限),那就必然存在一个高维特征空间使样本线性可分。
举个例子,二维平面上若干样本点呈如下分布:
此时要划分两类样本,需要一个非线性的圆型曲线。假设原始空间中两个属性是 和 ,如果我们做一个映射,把样本点都映射到一个三维特征空间,维度取值分别为 , 和 ,则得到下面的分布:
可以看到这个时候,我们只需要一个线性超平面就可以将两类样本完全分开了,也就是说可以用前面的方法来求解了。
在上面的例子中,我们是把每个样本对应的二维的特征向量 映射为一个三维的特征向量,假设我们用 来表示映射所得的特征向量。则在映射的高维特征空间中,用于划分的线性超平面可以表示为:
类似式(1),可以得到此时的目标函数为:
对应的对偶问题为:
注意到对偶问题中,涉及到 的计算,也即 和 映射到高维特征空间后的内积(比如 ,,那么内积 就等于 ),由于特征空间维数可能很高,所以直接计算映射后特征向量的内积是很困难的,如果映射后的特征空间是无限维,根本无法进行计算。
为了解决这样的问题,就引入了核函数(kernel function)。
打个比方,假设输入空间是二维的,每个样本点有两个属性 和 ,存在映射将每个样本点映射到三维空间:
给定原始空间中的两个样本点 和 ,则它们映射到高维特征空间后的内积可以写作:
可以看到在这个例子里,高维特征空间中两个点的内积,可以写成一个关于原始空间中两个点的函数 ,这就是核函数。
特别地,上面的例子中,映射用的是多项式核,多项式的次数 取2。
这里的例子为了计算方便,映射的空间维数依然很低,这里稍微解释一下为什么需要核函数?假设原始空间是二维的,那么对于两个属性 和 ,取一阶二阶的组合只有5个(也即 ,,,,)。但当原始空间是三维的时候,仍然取一阶二阶,组合就多达19个了(也即 ,,,,,,,,,,z^2x,z^2y,x^2yz,xy^2z,xyz^2,x^2y^2z,x^2yz^2,xy^2z^2,xyz)。随着原始空间维数增长,新空间的维数是呈爆炸性上升的。何况现实中我们遇到的问题的原始空间往往本来就已经是高维的,如果再进行映射,新特征空间的维度是难以想象的。
然而有了核函数,我们就可以在原始空间中通过函数 \kappa(\cdot;\cdot) 计算(这称为核技巧(kernel trick)),而不必直接计算高维甚至无穷维特征空间中的内积。
使用核函数后,对偶问题式(10)可以重写为:
\max_{\mathbf{a}} \sum_{i=1}^m a_i - \frac{1}{2} \sum_{i=1}^m\sum_{j=1}^m a_i a_j y_i y_j \kappa(\mathbf{x}_i;\mathbf{x}_j) \quad s.t. \quad \sum_{i=1}^m a_i y_i = 0, \quad a_i \geq 0, \quad i=1,2,...,m \qquad (11)
求解后得到的模型可以表示为:
\begin{split} f(\mathbf{x}) &= \mathbf{w}^T \phi(\mathbf{x}) + b\\ & = \sum_{i=1}^m a_i y_i \phi(\mathbf{x}_i)^T \phi(\mathbf{x}) + b\\ & = \sum_{i=1}^m a_i y_i \kappa(\mathbf{x}_i;\mathbf{x}) + b \end{split}
这条式子表明了模型最优解可通过训练样本的核函数展开,称为支持向量展式(support vector expansion)。
在需要对新样本进行预测时,我们无需把新样本映射到高维(甚至无限维)空间,而是可以利用保存下来的训练样本(支持向量)和核函数 \kappa 进行求解。
注意,核函数本身不等于映射!!!它只是一个与计算两个数据点映射到高维空间之后的内积等价的函数。
当我们发现数据在原始空间线性不可分时,会有把数据映射到高维空间来实现线性可分的想法,比方说引入原有属性的幂或者原有属性之间的乘积作为新的维度。假设我们把数据点都映射到了一个维数很高甚至无穷维的特征空间,而模型求解和预测的过程需要用到映射后两个数据点的内积,这时直接计算就没辙了。但我们又幸运地发现,原来高维空间中两点的内积在数值上等于原始空间通过某个核函数算出的函数值,无需先映射再求值,就很好地解决了计算的问题了。
核函数定理:给定一个输入空间 \mathcal{X},函数 \kappa(\cdot;\cdot) 是定义在 \mathcal{X} \times \mathcal{X} 上的对称函数。当且仅当对于任意数据集 D = \{\mathbf{x}_1,\mathbf{x}_2,...,\mathbf{x}_m\}, 对应的核矩阵(kernel matrix)都是半正定的时候,\kappa 是核函数。
核矩阵是一个规模为 m \times m 的函数矩阵,每个元素都是一个函数,比如第 i 行 j 列的元素是 \kappa(\mathbf{x}_i,\mathbf{x}_j)。也即是说,任何一个核函数都隐式地定义了一个称为“再生核希尔伯特空间(Reproducing Kernel Hilbert Space,简称RKHS)”的特征空间。
做映射的初衷是希望样本在新特征空间上线性可分,新特征空间的好坏直接决定了支持向量机的性能,但是我们并不知道怎样的核函数是合适的。一般来说有以下几种常用核函数:
名称 | 表达式 | 参数 |
---|---|---|
线性核 | \kappa(\mathbf{x}_i,\mathbf{x}_j)=\mathbf{x}_i^T\mathbf{x}_j | - |
多项式核 | \kappa(\mathbf{x}_i,\mathbf{x}_j)=(\mathbf{x}_i^T\mathbf{x}_j)^d | d \geq 1为多项式的次数,d=1时退化为线性核 |
高斯核(亦称RBF核) | \kappa(\mathbf{x}_i,\mathbf{x}_j)=\exp (-\frac{\Vert \mathbf{x}_i-\mathbf{x}_j \Vert ^2}{2\sigma^2}) | \sigma>0 为高斯核的带宽(width) |
拉普拉斯核 | \kappa(\mathbf{x}_i,\mathbf{x}_j)=\exp (-\frac{\Vert \mathbf{x}_i-\mathbf{x}_j \Vert}{\sigma}) | \sigma>0 |
Sigmoid核 | \kappa(\mathbf{x}_i,\mathbf{x}_j)=\tanh(\beta \mathbf{x}_i^T\mathbf{x}_j+\theta) | tanh 为双曲正切函数,\beta>0,\theta<0 |
特别地,文本数据一般用线性核,情况不明可尝试高斯核。
除了这些常用的核函数,要产生核函数还可以使用组合的方式:
若 \kappa_1 和 \kappa_2 都是核函数,则 a\kappa_1+b\kappa_2 也是核函数,其中 a>0,b>0。
若 \kappa_1 和 \kappa_2 都是核函数,则其直积 \kappa_1 \otimes \kappa_2(\mathbf{x},\mathbf{z}) = \kappa_1(\mathbf{x},\mathbf{z})\kappa_2(\mathbf{x},\mathbf{z}) 也是核函数。
若 \kappa_1 是核函数,则对于任意函数 g(\mathbf{x}),\kappa(\mathbf{x},\mathbf{z}) = g(\mathbf{x}) \kappa_1(\mathbf{x},\mathbf{z}) g(\mathbf{z}) 也是核函数。
上一节中,通过利用核函数映射来解决非线性可分的问题,但现实中很难找到合适的核函数,即使某个核函数能令训练集在新特征空间中线性可分,也难保这不是过拟合造成的结果。
比方说上面这张图,黑色虚线是此时的划分超平面,最大间隔很小。但事实上,黑色圆圈圈起的蓝点是一个 outlier,可能是噪声的原因,它偏离了正确的分布。而训练模型时,我们并没有考虑这一点,这就导致把训练样本中的 outlier当成数据的真实分布拟合了,也即过拟合。
但当我们允许这个 outlier 被误分类时,得到的划分超平面可能就如图中深红色线所示,此时的最大间隔更大,预测新样本时误分类的概率也会降低很多。
在实际任务中,outlier 的情况可能更加严重。比方说,如果图中的 outlier 再往右上移动一些距离的话,我们甚至会无法构造出一个能将数据划分开的超平面。
缓解该问题的一个思路就是允许支持向量机在一些样本上出错,为此,引入软间隔(soft margin)的概念。软间隔是相对于硬间隔(hard margin)的一个概念,硬间隔要求所有样本都必须划分正确,也即约束:
y_i(\mathbf{w}^T\mathbf{x}_i+b) \geq 1
软间隔则允许某些样本不满足约束(根据约束条件的不同,有可能某些样本出现在间隔内,甚至被误分类)。此时目标函数可以重写为:
\min_{\mathbf{w},b} \frac{1}{2} \Vert \mathbf{w} \Vert^2 + C \sum_{i=1}^m \ell_{0/1}(y_i(\mathbf{w}^T\mathbf{x}+b)-1) \qquad (12)
其中 \ell_{0/1} 是0/1损失函数:
\ell_{0/1}(z)= \left \{\begin{array} \\1, \quad if\ z<0; \\0, \quad otherwise. \end{array} \right.
它的含义很简单:如果分类正确,那么函数间隔必定大于等于1,此时损失为0;如果分类错误,那么函数间隔必定小于等于-1,此时损失为1。
而 C 则是一个大于0的常数,当 C 趋于无穷大时,式(12)等效于带约束的式(1),因为此时对误分类的惩罚无限大,也即要求全部样本分类正确。当 C 取有限值时,允许某些样本分类错误。
由于0/1损失函数是一个非凸不连续函数,所以式(12)难以求解,于是在实际任务中,我们采用一些凸的连续函数来取替它,这样的函数就称为替代损失(surrogate loss)函数。
最常用的有以下三种:
hinge损失:\ell_{hinge}(z) = \max (0,1-z)
指数损失(exponential loss):\ell_{\exp}(z) = \exp (-z)
对率损失(logistic loss):\ell_{\log}(z) = \log (1+\exp (-z) )
不妨作图观察比较一下这些损失函数(code文件夹下有实现代码):
这里有个问题是,书中提到对率损失中 \log 指 \ln,也即底数为自然对数,但这种情况下对率损失在 z=0 处不为1,而是0.693。但是书中的插图里,对率损失经过 (0,1) 点,此时底数应为2,上面的插图就是按底数为2计算的。
实际任务中最常用的是hinge损失,这里就以hinge损失为例,替代0/1损失函数,此时目标函数式(12)可以重写为:
\min_{\mathbf{w},b} \frac{1}{2} \Vert \mathbf{w} \Vert^2 + C \sum_{i=1}^m \max(0, 1-y_i(\mathbf{w}^T\mathbf{x}+b)) \qquad (13)
引入松弛变量(slack variables) \xi_i \geq 0,可以把式(13)重写为:
\min_{\mathbf{w},b} \frac{1}{2} \Vert \mathbf{w} \Vert^2 + C \sum_{i=1}^m \xi_i \quad s.t. \quad y_i(\mathbf{w}^T\mathbf{x}+b) \geq 1-\xi_i, \quad \xi_i \geq 0, \quad i=1,2,...,m \qquad (14)
该式描述的就是软间隔支持向量机,其中每个样本都对应着一个松弛变量,用以表示该样本误分类的程度,松弛变量的值越大,程度越高。
式(14)仍然是一个二次规划问题,类似于前面的做法,分以下几步:
通过拉格朗日乘子法把 m 个约束转换 m 个拉格朗日乘子,得到该问题的拉格朗日函数。
分别对 \mathbf{w}, b, \xi 求偏导,代入拉格朗日函数得到对偶问题。
使用SMO算法求解对偶问题,解出所有样本对应的拉格朗日乘子。
需要进行新样本预测时,使用支持向量及其对应的拉格朗日乘子进行求解。
特别地,因为式(14)有两组各 m 个不等式约束,所以该问题的拉格朗日函数有 a_i \geq 0 和 \mu_i \geq 0 两组拉格朗日乘子。特别地,对松弛变量 \xi 求导,令导数为0会得到一条约束式:
C = a_i + \mu_i \qquad (15)
有意思的是,软间隔支持向量机的对偶问题和硬间隔几乎没有不同,只是约束条件修改了一下:
\max_{\mathbf{a}} \sum_{i=1}^m a_i - \frac{1}{2} \sum_{i=1}^m\sum_{j=1}^m a_i a_j y_i y_j \mathbf{x}_i^T \mathbf{x}_j \quad s.t. \quad \sum_{i=1}^m a_i y_i = 0, \quad 0 \leq a_i \leq C, \quad i=1,2,...,m \qquad (16)
这里的 a_i 不仅要求大于等于0,还要求小于等于 C。
类似地,由于式(14)的约束条件是不等式约束,所以求解过程要求满足KKT(Karush-Kuhn-Tucker)条件:
\left \{\begin{array} \\a_i \geq 0; \\\mu_i \geq 0; \\y_i f(\mathbf{x}_i)-1+\xi_i \geq 0; \\a_i (y_i f(\mathbf{x}_i)-1+\xi_i) = 0; \\\xi_i \geq 0; \\\mu_i\xi_i = 0. \end{array} \right.
KKT条件可以理解为下面几点:
对任意训练样本,
如果一个样本的拉格朗日乘子 a_i=0,则它对模型没有任何影响,不需要保留。
如果一个样本的拉格朗日乘子大于0,则它是支持向量。
上图就展示了一个典型的软间隔支持向量机。图中就有一些异常点,这些点有的虽然在虚线与超平面之间(0 < y_i(\mathbf{w}^T\mathbf{x}+b) < 1),但也能被正确分类(比如 \mathbf{x}_3)。有的点落到了超平面的另一侧,就会被误分类(比如 \mathbf{x}_4 h和 \mathbf{x}_5)。
特别地,在 R. Collobert. 的论文 Large Scale Machine Learning 中提到,常数 C 一般取训练集大小的倒数(C = \frac{1}{m})。
上面用的是hinge损失,不过我们也提到了还有其他一些替代损失函数,事实上,使用对率损失时,SVM得到的模型和LR是非常类似的。
支持向量机和逻辑回归的相同点:
支持向量机和逻辑回归的不同点:
LR使用对率损失,SVM一般用hinge损失;
在LR的模型求解过程中,每个训练样本都对划分超平面有影响,影响力随着与超平面的距离增大而减小,所以说LR的解受训练数据本身的分布影响;SVM的模型只与占训练数据少部分的支持向量有关,所以说,SVM不直接依赖数据分布,所得的划分超平面不受某一类点的影响;
如果数据类别不平衡比较严重,LR需要先做相应处理再训练,SVM则不用;
SVM依赖于数据表达的距离测度,需要先把数据标准化,LR则不用(但实际任务中可能会为了方便选择优化过程的初始值而进行标准化)。如果数据的距离测度不明确(特别是高维数据),那么最大间隔可能就变得没有意义;
LR的输出有概率意义,SVM的输出则没有;
LR可以直接用于多分类任务,SVM则需要进行扩展(但更常用one-vs-rest);
LR使用的对率损失是光滑的单调递减函数,无法导出支持向量,解依赖于所有样本,因此预测开销较大;SVM使用的hinge损失有“零区域”,因此解具有稀疏性(书中没有具体说明这句话的意思,但按我的理解是解出的拉格朗日乘子 \mathbf{a} 具有稀疏性,而不是权重向量 \mathbf{w}),从而不需用到所有训练样本。
在实际运用中,LR更常用于大规模数据集,速度较快;SVM适用于规模小,维度高的数据集。
在 Andrew NG 的课里讲到过:
如果Feature的数量很大,跟样本数量差不多,这时候选用LR或者是Linear Kernel的SVM;
如果Feature的数量比较小,样本数量一般,不算大也不算小,选用SVM+Gaussian Kernel;
如果Feature的数量比较小,而样本数量很多,需要手工添加一些feature变成第一种情况。
事实上,无论使用何种损失函数,SVM的目标函数都可以描述为以下形式:
\min_f \Omega(f) + C \sum_{i=1}^m \ell(f(\mathbf{x}_i), y_i) \qquad (17)
在SVM中第一项用于描述划分超平面的“间隔”的大小,第二项用于描述在训练集上的误差。
更一般地,第一项称为结构风险(structural risk),用来描述模型的性质。第二项称为经验风险(empirical risk),用来描述模型与训练数据的契合程度。参数 C 用于权衡这两种风险。
前面学习的模型大多都是在最小化经验风险的基础上,再考虑结构风险(避免过拟合)。SVM却是从最小化结构风险来展开的。
从最小化经验风险的角度来看,\Omega(f) 表述了我们希望得到具有何种性质的模型(例如复杂度较小的模型),为引入领域知识和用户意图提供了路径(比方说贝叶斯估计中的先验概率)。
另一方面,\Omega(f) 还可以帮我们削减假设空间,从而降低模型过拟合的风险。从这个角度来看,可以称 \Omega(f) 为正则化(regularization)项,C 为正则化常数。正则化可以看作一种罚函数法,即对不希望出现的结果施以惩罚,从而使优化过程趋向于期望的目标。
L_p 范数是常用的正则化项,其中 L_2 范数 \Vert \mathbf{w} \Vert_2 倾向于 \mathbf{w} 的分量取值尽量稠密,即非零分量个数尽量多; L_0 范数 \Vert \mathbf{w} \Vert_0 和 L_1 范数 \Vert \mathbf{w} \Vert_1 则倾向于 \mathbf{w} 的分量取值尽量稀疏,即非零分量个数尽量少。
同样是利用线性模型 f(\mathbf{x}) = \mathbf{w}^T\mathbf{x}+b
来预测,回归问题希望预测值和真实值 y 尽可能相近,而不是像分类任务那样,旨在令不同类的预测值可以被划分开。
传统的回归模型计算损失时直接取真实值和预测值的差,支持向量回归(Support Vector Regression,简称SVR)则不然。SVR假设我们能容忍最多有 \epsilon 的偏差,只有当真实值和预测值之间相差超出了 \epsilon 时才计算损失。
如图所示,以SVR拟合出的直线为中心,两边各构建出一个宽度为 \epsilon 的地带,落在这个宽度为 2\epsilon 的间隔带内的点都被认为是预测正确的。
因此,问题可以形式化为目标函数:
\min_{\mathbf{w},b} \frac{1}{2} \Vert \mathbf{w} \Vert^2 + C \sum_{i=1}^m \ell_{\epsilon}(f(\mathbf{x}_i) - y_i) \qquad (18)
其中 C 为正则化常数, \ell_{\epsilon} 称为 \epsilon-不敏感损失(\epsilon-insensitive loss)函数。定义如下:
\ell_{、epsilon}(z)= \left \{\begin{array} \\0, \quad if\ |z| \leq \epsilon; \\|z|-\epsilon, \quad otherwise. \end{array} \right.
引入松弛变量 \xi_i 和 \hat{\xi}_i,分别表示间隔带两侧的松弛程度,它们可以设定为不同的值。此时,目标函数式(18)可以重写为:
\min_{\mathbf{w},b} \frac{1}{2} \Vert \mathbf{w} \Vert^2 + C \sum_{i=1}^m (\xi_i + \hat{\xi}_i) \qquad (19)\\ s.t.\ f(\mathbf{x}_i) - y_i \leq \epsilon + \xi_i,\\ \qquad \quad y_i - f(\mathbf{x}_i) \leq \epsilon + \xi_i\\ \qquad \qquad \qquad \xi_i \geq 0, \hat{\xi}_i \geq 0, i=1,2,...,m.
注意这里有四组 m 个约束条件,所以对应地有四组拉格朗日乘子。
接下来就是用拉格朗日乘子法获得问题对应的拉格朗日函数,然后求偏导再代回拉格朗日函数,得到对偶问题。然后使用SMO算法求解拉格朗日乘子,最后得到模型,这里不一一详述了。
特别地,SVR中同样有支持向量的概念,解具有稀疏性,所以训练好模型后不需保留所有训练样本。此外,SVR同样可以通过引入核函数来获得拟合非线性分布数据的能力。
无论是SVM还是SVR,如果不考虑偏置项b,我们会发现模型总能表示为核函数的线性组合。更一般地,存在表示定理(representer theorem):
令 \mathbb{H} 为核函数 \kappa 对应的再生希尔伯特空间, \Vert h \Vert_{\mathbb{H}} 表示 \mathbb{H} 空间中关于 h 的范数,对于任意单调递增函数 \Omega:[0,\infty] \longmapsto \mathbb{R} 和任意非负损失函数 \ell:\mathbb{R}^m \longmapsto [0,\infty],优化问题
min_{h \in \mathbb{H}} F(h) = \Omega(\Vert h \Vert_\mathbb{H}) + \ell(h(\mathbf{x}_1,h(\mathbf{x}_2,...,h(\mathbf{x}_m)) \qquad (20)
的解总可写为:
h^x(\mathbf{x}) = \sum_{i=1}^m a_i \kappa(\mathbf{x},\mathbf{x}_i)
这个定理表明,对于形如式(20),旨在最小化损失和正则化项之和的优化问题,解都可以表示为核函数的线性组合。
基于核函数的学习方法,统称为核方法(kernal methods)。最常见的就是通过核化(引入核函数),将线性学习器扩展为非线性学习器。这不仅限于SVM,事实上LR和LDA也都可以采用核函数,只是SVM使用hinge损失,解具有稀疏性所以用得更多。
书中还介绍了如何核化LDA,这部分不作详细记录了。
问:试证明样本空间中任一点\mathbf{x}到超平面的距离公式。
问:试使用LIBSVM,在西瓜数据集3.0a上分别用线性核和高斯核训练一个SVM,并比较其支持向量的差别。
问:选择两个UCI数据集,分别用线性核和高斯核训练一个SVM,并与BP神经网络和C4.5决策树进行实验比较。
问:试讨论线性判别分析与线性核支持向量机在何种条件下等价。
问:试述高斯核SVM与RBF神经网络之间的联系。
问:试析SVM对噪声敏感的原因。
问:试给出式(6.52)的完整KKT条件。
问:以西瓜数据集3.0a的“密度”为输入,“含糖率”为输出,试使用LIBSVM训练一个SVR。
问:是使用核技巧推广对率回归,产生“核对率回归”。
问:试设计一个能显著减少SVM中支持向量的数目而不显著降低泛化性能的方法。
分享一些蛮不错的问题和讲解,我在笔记中参考了部分内容: