@Perfect-Demo
2018-03-21T14:37:12.000000Z
字数 1175
阅读 689
统计学习方法
感知机是神经网络与支持向量机的基础
要点:损失函数,利用梯度下降法对损失函数进行极小化。
对于线性可分的数据集感知机学习算法原始形式收敛,即经过有限次的得带可以得到一个将训练数据集完全正确划分的分类超平面及感知机模型
定理2.1(P31),第二条需要注意,对于一组训练集,则感知机用该数据在算法运行中,误分类次数K满足:
可以发现,w和b的更新是一个累加的过程,如果我们假设w和b的初始值都为0,并且知道在更新的过程中,每个点选择了多少次,我们就可以直接得到了w和b的最终值。
我们假设第i个点更新了次,那么w和b的最终值应该是
其中,
这时候我们成功的把求w和b换成了求α和b。
初始值,b为0,为0向量(因为这时候每个点都没有被更新),之后每次找到一个分错类的点,更新α和b,直到每个点都被正确分类。
其中,某个点(xi,yi)分错类意味着(也就是把w向量替换成alpha向量):
更新方法为:
这时候可以发现在训练中,xj与xi的内积可以提前预处理,得到一个巨大的矩阵,之后在训练的过程中就可以直接使用。该矩阵称为Gram矩阵。
即:
举个例子:
则G=