摘要: 本文简述了以下内容: 神经概率语言模型NPLM,训练语言模型并同时得到词表示 word2vec:CBOW / Skip-gram,直接以得到词表示为目标的模型 (一)原始CBOW(Continuous Bag-of-Words)模型 (二)原始Skip-gram模型 (三)word analogy 阅读全文
posted @ 2016-08-25 03:16 Determined22 阅读(19273) 评论(7) 推荐(3) 编辑