[关闭]
@songying 2019-03-19T11:55:15.000000Z 字数 1232 阅读 1042

Gated-Attention Readers for Text Comprehension

阅读理解


Abstract

本文提出新的模型: Gated-Attention Reader

数据集: CNN&Daily Mail, Who Did What

Introductioon

阅读理解模型成功的原因有以下两大因素:
1. Multi-hop architectures,模型能够 scan the document and the question iteratively for multiple passes.
2. 注意力机制,使得模型能 focus on appropriate subparts of the context document。

本模型将二者结合起来形成新的attention。

3. Gated-Attention Reader

3.1 Multi-Hop Architecture

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注