@songying
2019-01-18T14:42:58.000000Z
字数 624
阅读 1010
激活函数
本文进行了一次大规模的比较,涉及到218个NLP任务。
激活函数: sigmoid, swish, maxsig, cosid , arctid, maxtanh, tanh, sin, relu, lrelu-0.01, lrelu-0.30, maxout-2, maxout-3, maxout-4, prelu, linear, elu, cube, penalized tanh, selu.
我们采用的MLP 为:
其中, 为输入表示, 为隐层的表示, 是输出。