@evilking
2018-04-30T20:23:29.000000Z
字数 6110
阅读 1645
NLP
网上有说基于SVM的情感分析的,有基于深度学习的情感分析的等等,其实大部分都是用某种编码器将文档编码成向量,然后用向量拿去做分类,分成正面、负面、或中性。
其中有用 doc2vec 将文本转换成向量后,再用 SVM
做分类的;有用 CNN 或者 LSTM 将文本转换成向量,再拿去分类的。核心是将文本转换成向量时,要使向量包含并突出情感信息,这样拿去分类时效果才好。
本文主要是将用 递归自编码器(Recursive AutoEncoder,RAE) 将文档转换成向量,然后再模型中追加一层输出分类层,用于情感分类。
在讲递归自编码前,先讲下自编码器。
Auto-Encoder(AE)是 20 世纪 80 年代提出的,基本的 AE 可视为一个三层神经网络结构:一个输入层、一个隐藏层和一个输出层,其中输出层与输入层具有相同的规模;它是一种无监督学习算法,使用了反向传播,让目标值尽可能等于输入值。如图:
其中 为输入向量, 为输出向量,中间隐藏层的向量为 , 为隐藏层神经元数.
自编码器分为两部分: 编码器 (encoder)和 解码器 (decoder). 从输入层到隐藏层是编码过程,从隐藏层到输出层是解码过程. 设 分别表示编码函数和解码函数,则两个过程可写为:
自编码器的目的是学习出参数 ,要尽量使 。
其中 为编码器的激活函数,通常取 sigmoid 函数,即 ; 为解码器的激活函数,通常取 sigmoid 函数或恒等函数,即 或 .权值矩阵 通常取为 (虽然这不是必须的),表示解码阶段是编码阶段的逆过程; 分别为两层神经网络的偏置项。
回想写 AE 的结构,先将 编码成 ,再将 解码成 ,显然解码后的 应该与编码前的 尽可能接近. 若将 AE 看成一个普通的三层神经网络, 就可以看作是 的一个预测(prediction),因此, 和 确实应该尽可能接近. 这种接近程度可以通过 重构误差 (reconstruction error)函数 来进行刻画.
根据解码器函数 的不同, 通常有两种取法:
当 为恒等函数时,取 平方误差 (squared error) 函数
当 为 sigmoid 函数(此时输入 )时,取 交叉熵 (cross-entropy) 函数
有了重构误差函数,我们就可以针对训练数据集 ,提出一个整体的损失函数(loss function)
AE 最初是作为一个 降维 技巧来使用的,隐藏层上的 被视为 的一种降维表示,即 要小于 的维度. 特别地,若进一步要求编码激活函数 为 线性函数,则编码器得到的 相当于是对 做主成分分析(PCA).
AE 还有一些变种算法,为了解决一些特定的问题,详细可参考:http://blog.csdn.net/pi9nc/article/details/27711441
我们了解了自编码器的原理过程,下面将结合递归神经网络和自编码器,讲解有监督的递归自编码器的原理,如何将句子递归的编码成向量.
“有监督的RAE”中的“有监督”体现在要事先知道句子的语法解析结构,如
图中句子“阳光的周崇光帅呆了”,从句法解析上看,词与词之间的组合有个顺序,这个顺序需要事先知道,这就是有监督.
给定句子的各个单词的特定结构后,其实就有了一颗语法解析树,从图中可以看到根结点的向量即可表示整颗树了,也就是能表示整个句子。另外我们还需要用一个向量来表示单词,初始化时一般我们可以用 word2vec 来训练出单词的向量表示,在 RAE 训练的过程中,会更新单词向量表示,从而能捕获特定的结构信息,比如情感信息.
句子的句法解析树我们可以通过对句子进行句法分析得到,此时就可以应用有监督的 RAE 了;但这时模型就变得比较复杂,实验效果还需要依赖于句法分析的准确度.
另一种就是使用后面会讲到的无监督的 RAE ,完全根据自编码器的重构误差来做贪心递归,自动构建出这种特定结构的树.
下面讲解递归自编码器的思想:
例如,“深度”的词向量为 ,“学习”的词向量表示为 ,那么该如何表示“深度学习”呢?
假设“深度学习”是“深度”、“学习”的父节点 ,“深度”是左子节点 ,“学习”是右子节点 ,那么 可以由函数 从 映射得到:
由上述公式即可得到父节点“深度学习”的向量表示,为了验证父节点对子节点 的表示能力,参考自编码器的原理,可在父节点 上建立一个重建层,重建两个子节点的表达式为:
类似的,将自编码网络递归地应用于句子的句法解析树上的每一层,即可得到整个句子的向量表示,即根节点向量.
父节点 为了能在下一次递归,所以父节点的维度要与输入的词向量维度相同.
另外需要注意的是, 在每一层递归自编码时都是共享的,参数一样.
为了评估重建结点 与原始节点的相似度,使用重构误差函数描述,如式:
这种神经网络被称为递归自编码,下图展示了应用于一个二叉树的递归自编码网络,其中圆形节点表示原始节点,矩形节点表示重建节点。对二又树的每一个节点使用自编码器,那么该二叉树最终可 由一个三元组(例如,, 是父节点, 是子节点)集合表示。图中的二叉树可表示为: 。
仔细分析发现,按上面的自编码方式进行训练可能出现两个问题:
节点的向量表示为零向量,这会导致该节点的重建误差 为零,事实上,这是没有意义的;
节点 可能包含的叶子节点数有很大差异,计算重建误差时会导致不平衡;
为了解决问题 (1) ,可以使用单位向量来表示节点 ( 表示任一节点):
为了解决问题 (2),可以在计算重建误差 时,为每个子节点添加权重,权重的设定根据每个子节点所包含叶子节点数计算;假定节点 的叶子节点数为 ,节点 的叶子节点数为 ,重新定义重建误差 :
通过节点权重的添加,可以使得计算重建误差时更多地偏向子节点数目更多的节点,从而达到平衡误差的效果。
“无监督”是指事先不需要知道句子的语法解析结构,如果不知道树的结构了如何来做递归呢?
类似于 Haffuman 树 的构造过程,我们按一定的规则逐渐合并两个节点(这里就是两个单词的词向量),这样递归合并后就能逐渐构造出一颗特定结构的树。
那应按什么样的规则合并好呢?
我们选取 重建误差最小 的一对相邻节点来合并,并构建出其父节点替代这两个子节点。
假设一个句子包含 个单词,即 ,对应的词向量序列为 ,则我们按如下操作合并:
其中自编码器的两个问题也是存在的,也需要用上小节的方法来解决.
即:
通过上面两小节的方法,我们已经将句子编码成一串向量了,下面就需要用这个特征向量做情感分类,分类的方法就比较多了,SVM、logistic回归、神经网络、softmax、高斯判别法等等其实都可以.
自编码器能提取出节点中特定的结构,而我们要应用于情感分类,就需要自编码器能提取出特定的情感结构,于是我们可以扩展 RAE ,如下图,在其顶层加上 softmax 层去预测该句子的情感分布:
softmax层输出的是条件概率:,则交叉熵误差为:
如果使用交叉熵误差来描述情感分类误差和重建误差,则最后基于情感监督的递归自编码模型通过预料库中(句子,情感标签)对 来描述:
而句子的误差是递归树中所有节点的误差之和组成的:
而每一个非叶子节点的误差是由重建误差和情感分类的交叉熵误差加权和构成:
其中,超参数 是为了权衡重建误差和情感分类的交叉熵误差的.
当最小化 softmax 层的交叉熵误差时,误差会反向传播,影响 RAE 的参数和词向量表示.
初始化的时候,单词 good 或者 bad 有相似的表征. 当训练积极或者消极的情感句子时,词向量会被更新,并且捕获少量语法和更多的情感信息.
参数的学习部分,我们发现使用 L-BFGS 能获得很好的效果.
使用的源码 github 地址为:https://github.com/hehuihui1994/RAEs