@ShawnNg
2016-11-03T21:04:09.000000Z
字数 1076
阅读 2168
深度学习
RNN
T Mikolov,S Kombrink,L Burget,JH Cernocky,S Khudanpur
Brno University of Technology(布尔诺科技大学)
language modeling, recurrent neural networks, speech recognition
ICASSP 2011 (http://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=5947611)
对【Recurrent neural network based language model】中提出的模型进行改进。使用变种的BP算法使模型隐藏层记住信息。如何降低计算复杂度和减少参数数量。
简单的BP算法不能保证隐藏层能学习到历史信息,而使用BPTT(Backpropagation through time)算法可以学习到历史信息。BPTT的详细解释可以参考【A Guide to Recurerent Neural Networks and Backpropagation】。训练多个网络并进行等权插值可以获得更好的表现。
原模型的训练计算瓶颈在隐藏层H和输出层Y之间,Y的长度是词表长度V。
为了减少Y的长度,可以将输出层做因式分解:
为了减少参数数量,在隐藏层和输出层之间添加一层压缩层,压缩层的节点数较少,使用sigmoid激活函数,相当于加深网络,减少参数。
这篇文章只是对原有的RNNLM模型进行了一些改进,提高模型表现,并且简化模型。虽然模型较为简单,但是从计算复杂度开始分析模型平静下来,从而改进模型的思路还是值得我们学习的。文章中也提到把多个RNN模型等权插值的方法,这种简单的方法也许能够提高我们的模型表现,也值得一学。