@ShawnNg
2016-12-15T15:45:47.000000Z
字数 1019
阅读 2926
深度学习
QA
Sainbayar Sukhbaatar, Arthur Szlam, Jason Weston, Rob Fergus
Facebook AI Research
文中提出一个连续形式的Memory Network(文中称为MemN2N),使原来的Memory Network可以端到端训练,并且可以使用更少的监督来学习模型,比如QA问题中的weak supervision。
模型的输入是一段上下文和一个问题,输出是一个答案。
单层模型中可以分成三个部分
Input Memeory representation
从词向量矩阵A中得到的词向量,从矩阵B中得到的词向量。计算:
Output memory representation
这里相当于使用了Attention。从词向量矩阵C中得到的词向量。计算:
3.Generating the final prediction
使用o和u来计算答案a:
下图直观地表现了单层模型
多层模型就是有多层的memory层,文中将memory层称为hop,将u和o多层迭代:。每一层都有自己的和,答案的预测只需要最后一层的u和o来计算:。
下图展示的是一个三层memory network:
文中还提到两个权重捆绑(weight tying)的trick,可以减少模型的复杂度。
RNNs or LSTM-based models
Neural Turing Machine
该文提出的MemN2N是对原来的MemNN作出的改进,使得训练可以端到端是一个重要的亮点。在弱监督学习下也能取得较好的结果,但还是比不上强监督学习的MemNN,是探索Memory路途上一的一篇好文章。