[关闭]
@ShawnNg 2016-11-03T21:04:09.000000Z 字数 1076 阅读 2168

Extensions of Recurrent Neural Network Language Model

深度学习 RNN


作者

T Mikolov,S Kombrink,L Burget,JH Cernocky,S Khudanpur

单位

Brno University of Technology(布尔诺科技大学)

关键词

language modeling, recurrent neural networks, speech recognition

文章来源

ICASSP 2011 (http://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=5947611)

问题

【Recurrent neural network based language model】中提出的模型进行改进。使用变种的BP算法使模型隐藏层记住信息。如何降低计算复杂度和减少参数数量。

模型

1 改进训练算法

简单的BP算法不能保证隐藏层能学习到历史信息,而使用BPTT(Backpropagation through time)算法可以学习到历史信息。BPTT的详细解释可以参考【A Guide to Recurerent Neural Networks and Backpropagation】。训练多个网络并进行等权插值可以获得更好的表现。

2 降低模型复杂度

原模型的训练计算瓶颈在隐藏层H和输出层Y之间,Y的长度是词表长度V。

资源

  1. 数据集
    宾州树库 http://www.cis.upenn.edu/~treebank/
  2. 开源代码
    RNNLM的训练工具 http://www.fit.vutbr.cz/~imikolov/rnnlm/

简评

这篇文章只是对原有的RNNLM模型进行了一些改进,提高模型表现,并且简化模型。虽然模型较为简单,但是从计算复杂度开始分析模型平静下来,从而改进模型的思路还是值得我们学习的。文章中也提到把多个RNN模型等权插值的方法,这种简单的方法也许能够提高我们的模型表现,也值得一学。

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注