[关闭]
@ShawnNg 2016-12-15T15:45:47.000000Z 字数 1019 阅读 2926

End-To-End Memory Networks

深度学习 QA



一、文章信息

作者

Sainbayar Sukhbaatar, Arthur Szlam, Jason Weston, Rob Fergus

单位

Facebook AI Research

文章来源

NIPS 2015

二、文章内容

1. 解决问题

文中提出一个连续形式的Memory Network(文中称为MemN2N),使原来的Memory Network可以端到端训练,并且可以使用更少的监督来学习模型,比如QA问题中的weak supervision。

2.模型

模型的输入是一段上下文和一个问题,输出是一个答案

2.1 单层模型

单层模型中可以分成三个部分

  1. Input Memeory representation
    从词向量矩阵A中得到的词向量,从矩阵B中得到的词向量。计算:

  2. Output memory representation
    这里相当于使用了Attention。从词向量矩阵C中得到的词向量。计算:

3.Generating the final prediction
使用o和u来计算答案a:

下图直观地表现了单层模型

2.2 多层模型

多层模型就是有多层的memory层,文中将memory层称为hop,将u和o多层迭代:。每一层都有自己的,答案的预测只需要最后一层的u和o来计算:

下图展示的是一个三层memory network:

2.3 Trick

文中还提到两个权重捆绑(weight tying)的trick,可以减少模型的复杂度。

3 相关工作

RNNs or LSTM-based models
Neural Turing Machine

三、简评

该文提出的MemN2N是对原来的MemNN作出的改进,使得训练可以端到端是一个重要的亮点。在弱监督学习下也能取得较好的结果,但还是比不上强监督学习的MemNN,是探索Memory路途上一的一篇好文章。

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注