[关闭]
@songying 2019-01-18T14:42:58.000000Z 字数 624 阅读 1010

Comparing Deep Learning Activation Functions Across NLP tasks

激活函数


激活函数相关文章

Abstract

本文进行了一次大规模的比较,涉及到218个NLP任务。

1. Introduction

2. Theory

激活函数: sigmoid, swish, maxsig, cosid , arctid, maxtanh, tanh, sin, relu, lrelu-0.01, lrelu-0.30, maxout-2, maxout-3, maxout-4, prelu, linear, elu, cube, penalized tanh, selu.

3. Experiments

3.1 MLP & Sentence Classification

我们采用的MLP 为:

其中, 为输入表示, 为隐层的表示, 是输出。

3.2 CNN & Document Classification

3.3 RNN & Sequence Tagging

RNN

4. Analysis & Discussion

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注