2018年5月27日

摘要: 本文简述了以下内容: 神经概率语言模型NPLM,训练语言模型并同时得到词表示 word2vec:CBOW / Skip-gram,直接以得到词表示为目标的模型 (一)原始CBOW(Continuous Bag-of-Words)模型 (二)原始Skip-gram模型 (三)word analogy 阅读全文
posted @ 2018-05-27 16:19 Josie_chen 阅读(377) 评论(0) 推荐(0) 编辑
摘要: word2vec训练中文模型 1.准备数据与预处理 首先需要一份比较大的中文语料数据,可以考虑中文的维基百科(也可以试试搜狗的新闻语料库)。中文维基百科的打包文件地址为 https://dumps.wikimedia.org/zhwiki/latest/zhwiki-latest-pages-art 阅读全文
posted @ 2018-05-27 15:50 Josie_chen 阅读(2838) 评论(0) 推荐(0) 编辑

导航