[关闭]
@pearl3344 2018-07-23T20:46:39.000000Z 字数 5610 阅读 2974

L0 norm稀疏性: hard concrete门变量

统计, DL

Learning Sparse Neural Networks through L0 Regularization_ICLR 2018


Uniform分布

X Uniform(0,1): X在(0,1)这个范围内取值,取各个点的概率是相同的。

Sigmoid函数, logistic函数


自变量x的取值范围是R,
函数值sigmoid(x)的取值范围是(0,1)。 函数值的范围和概率值的范围正好一致,可以把一个属于R的量x映射为概率值sigmoid(x),数值越大概率值越大。

softmax函数

空间的K维向量,映射到simplex--K维向量,每一维取值在(0,1)范围且K维取值之和等于1。


函数值的范围正好是 离散概率分布。。。。该怎么说?

Logistic 分布

X Logistic(0,1): X在R上取值,但是其cdf是logistic函数,S形状, pdf像高斯的倒钟形但是是厚尾。
cdf是

是Logistic分布的。

Gumbel 分布

用来建模某些分布的采样的最大值/最小值的分布。例如,已知某条河流过去十年里的最大水位值,则今年该条河流的最大水位x的分布可能是Gumbel分布。
X Gumbel(0,1) :X的 CDF是

U Uniform(0,1), 则 是Gumbel分布的。

两个Gumbel分布的随机变量的差服从logistic分布:

Categorical分布,Gumbel-max分布

X Categorical(,...,): X取整数1...K,其中取整数j的概率是.

在神经网络中,输出实数向量 , 通过softmax函数,

得到该输出属于第j类的概率。

  1. 采样K个均匀分布的变量
  2. 得到Gumbel分布的变量的K个采样
  3. 则对K个Gumbel分布变量组成的向量取argmax 得到是一个1...K的整数,是服从分布的, 其中

已知进而采样可以判定得到的变量是Categorical分布的。
已知分布的参数,求采样的参数怎么求呢??? 不会求还是不会采样呢。

考虑向量形式的Categorical分布,
X Categorical(,...,)则X是一个K维的one-hot向量,即某一个向量维取值为1,其它向量维都取值为0。也即K-1维simplex的某一个顶点。

Bernoulli分布,二元Categorical变量

X Bernoulli(p): X取0/1,其中取1的概率是p

按照Gumbel max技巧采样Categorical分布的变量的方法采样Bernoullli分布的变量:
1. 采样2个均匀分布的变量
2. 得到Gumbel分布的变量的2个采样 ,
3. X=1 当且仅当 , 其中


也就是当且仅当
是两个Gumbel分布的变量,两者之差为logistic分布,故只用采样一个logistic分布的变量,采样大于则Bernoulli分布的变量取1,否则取0.

通过采样logistic分布的变量采样Bernoulli分布的变量:
采样u
则采样得到Bernoulli变量X=1,否则采样得到X=0.

concrete分布, Gumbel-Softmax分布, Categorical分布的扩展

X Concrete(): 是一个K维向量,每维取值(0,1)之间,所有K维之和等于1。

该分布是对Categorical分布的连续放松,不是只能取K-1维simplex的某一个顶点,而是取K-1维simplex的内部某一个点。

  1. 采样K个均匀分布的变量
  2. 得到Gumbel分布的变量的K个采样
  3. 则对K个Gumbel分布变量组成的向量取softmax 得到的向量

分布的。

,Concrete分布的向量趋于onehot向量,即Categorical分布。
,其中


比其它维度的取值大的概率是

二元Concrete分布

因为Concrete分布的变量

根据Gumbel-softmax技巧采样得到的Concrete变量为


是两个Gumbel分布的变量,两者之差为logistic分布,故只用采样一个logistic分布的变量即可得到二元concrete分布的变量x_1,1-x_1)$。

通过采样logistic分布的变量采样二元Concrete分布的变量:
采样u
,

二元的只需要一个参数了
,
,
越大则第一个数取值比第二个数取值大的概率越大;越小两个数的差别越大。
,

的CDF为


L0 norm惩罚

hard concrete门变量

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注