[关闭]
@songying 2019-03-26T22:46:51.000000Z 字数 1619 阅读 1110

深度学习: 代价函数

deep-learning


为什么代价函数要非负

只要涉及的代价函数有下界,都可以,设置非负更为方便。

1. 交叉熵

用于二分类中的代价函数, 常与sigmoid组合。

根据 的定义,和⼀些运算,我们可以得到 。化简后可得:

这意味着权重的学习速度受到 的影响, 因此有了更快的学习速度。

2. log-likelihood cost

用于softmax的代价函数。

3. 二次代价函数

交叉熵 vs 二次代价函数


回归代价函数

MAE: 最小绝对值误差

MSE: 均平方误差

MAPE:平方绝对百分比误差

RMSE: 均方根误差

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注