@songying
2019-04-23T15:15:25.000000Z
字数 1355
阅读 1400
RACE
本文提出DCNN。
文章采用 Bert 作为 Encoder 来分别对P, Q, A 进行 Embedding, 就像是使用 LSTM 进行上下文Embedding一样:
文章先采用注意力机制来获得 passage 与 answer 之间的注意力权重信息,然后再根据权重信息分别获得 passage, answer 的新的表示:
为了获得最终的表示,文章对 S 的每行做最大池化操作