摘要: Word2Vec也称为Word Embeddings,或者是“词向量”、“词嵌入”。 常见的Word2Vec模型有CBOW模型和Skip-gram模型。其中CBOW模型是根据语境来推测目标单词,而Skip-gram则相反,是根据目标单词推测语境。 理论知识不再赘述,可自行查阅资料。 本文主要使用Sk 阅读全文
posted @ 2018-07-28 15:02 松花酿酒春水煎茶 阅读(601) 评论(0) 推荐(0) 编辑