@nrailgun
2017-07-26T16:08:59.000000Z
字数 1190
阅读 1777
论文笔记
《Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman coding》
节约的是存储空间。
稀疏行表示:
value = [ ]
col_idx = [ ]
row_ptr = [ ] # `row_ptr[i]` -> 1-st non-zero element of row `i` in `value`
《Convolutional Neural Networks using Logarithmic Data Representation》
论文比较简单,使用加法和位移取代乘法。
《Model compression as constrained optimization, with application to neural nets. Part I: general framework》
有模型 ,求压缩模型 ,且 。 可能是 的量化,也可能是不同的模型:
《Product quantization for nearest neighbor search》
基于prodcut量化的近似最近邻搜索。
KD-Tree等方法在高维度性能并不强于暴力搜索。流行的ANN方法E2LSH在实际数据性能不如启发式方法(FLANN)。
《Optimized Product Quantization for Approximate Nearest Neighbor Search》
《FASTTEXT.ZIP: COMPRESSING TEXT CLASSIFICATION MODELS》
写得很好,文笔清楚。利用 Product 量化做模型压缩。
TODO: Learn BoW, n-gram, LSTM, RNN.
TODO:找到支持激活之后 Product Quantization 的出处。
TODO: Product Norm perform much better.