[关闭]
@songying 2018-10-06T16:02:52.000000Z 字数 1635 阅读 1658

深度学习之Word2Vec原理剖析

deep-learning


参考:

tensorflow 实现源码地址

[NLP] 秒懂词向量Word2vec的本

tensorflow官方

word2vec 中的数学原理详解

Deep Learning in NLP (一)词向量和语言模型 -- 写的很好

Word2vec数学原理全家桶

前言

这篇文章闷了20天左右才真正完成,一方面是觉得自己理解不够(毕竟不是专门做词向量的),另一方面是要学习的内容太多,以至于没有时间对自己的知识进行归纳总结,真是一入NLP深似海啊。

阅读本文之前你需要对整个NLP的发展,包括语言模型,Word Embedding等有基本的了解,如果你对此并不熟悉的话,可以参见:

什么是Word2Vec?

Word2Vec是Word Embedding的一种模型,其与A Neural Probabilistic Language Model中介绍的模型作用相同,但是更有效,是目前使用最广的词向量模型。

如果说要深入了解Word2Vec,我推荐你看以下这几个Paper:

在Word2Vec中,提出了两个模型:

  • CBOW(Continuous Bag-of-Word):以上下文词汇预测当前词: 去预测
  • SkipGram:以当前词预测其上下文词汇: 去预测

CBOW模型

  • CBOW(Continuous Bag-of-Word):以上下文词汇预测当前词: 去预测

这是一个两层的神经网络,并且与A Neural Probabilistic Language Model中的模型类似,不同点在于CBOW去掉了最耗时的非线性隐层且所有词共享隐层。而CBOW模型的目的是预测

Skip-gram模型

  • 已知当前词 的前提下,预测其上下文

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注