词向量2
word2vec
20190305学习得到的新的感悟
之前,我一直认为word2vec得到的词向量是输入层和隐层之间的参数,我其实对这句话的理解并不深入。
这句话本质上是没有错的,但是更加准确的说法应该是:
每个单词的one-hot词向量模式乘以这个权重矩阵得到的是相对应的单词的word2vec词向量。
这一次学习我主要参考了几篇文章
word2vec是如何得到词向量的? - crystalajj的回答 - 知乎
https://www.zhihu.com/question/44832436/answer/266068967
一篇通俗易懂的word2vec - susht的文章 - 知乎
https://zhuanlan.zhihu.com/p/35500923
[NLP] 秒懂词向量Word2vec的本质 - 穆文的文章 - 知乎
https://zhuanlan.zhihu.com/p/26306795
理解word2vec的训练过程
word2vec和word embedding有什么区别? - Scofield的回答 - 知乎
https://www.zhihu.com/question/53354714/answer/155313446
理解 Word2Vec 之 Skip-Gram 模型 - 天雨粟的文章 - 知乎
https://zhuanlan.zhihu.com/p/27234078
下面这个博文介绍了词向量的发展史
词向量表示方法梳理 - 一只松鼠的文章 - 知乎
https://zhuanlan.zhihu.com/p/46026058
NLP的游戏规则从此改写?从word2vec, ELMo到BERT - 夕小瑶的文章 - 知乎
https://zhuanlan.zhihu.com/p/47488095
深度学习(Deep Learning)·自然语言处理(NLP)·表示(Representation)