@ShawnNg
        
        2016-12-15T07:45:47.000000Z
        字数 1019
        阅读 3540
    深度学习 QA
Sainbayar Sukhbaatar, Arthur Szlam, Jason Weston, Rob Fergus
Facebook AI Research
文中提出一个连续形式的Memory Network(文中称为MemN2N),使原来的Memory Network可以端到端训练,并且可以使用更少的监督来学习模型,比如QA问题中的weak supervision。
模型的输入是一段上下文和一个问题,输出是一个答案。
单层模型中可以分成三个部分
Input Memeory representation 
从词向量矩阵A中得到的词向量,从矩阵B中得到的词向量。计算: 
Output memory representation 
这里相当于使用了Attention。从词向量矩阵C中得到的词向量。计算: 
3.Generating the final prediction 
使用o和u来计算答案a: 
下图直观地表现了单层模型 

多层模型就是有多层的memory层,文中将memory层称为hop,将u和o多层迭代:。每一层都有自己的和,答案的预测只需要最后一层的u和o来计算:。
下图展示的是一个三层memory network: 

文中还提到两个权重捆绑(weight tying)的trick,可以减少模型的复杂度。
RNNs or LSTM-based models 
Neural Turing Machine
该文提出的MemN2N是对原来的MemNN作出的改进,使得训练可以端到端是一个重要的亮点。在弱监督学习下也能取得较好的结果,但还是比不上强监督学习的MemNN,是探索Memory路途上一的一篇好文章。