Word2vec学习
什么是Word2vec?为什么要有这么一个东西?
word2vec是 word embedding 的方式之一, 属于NLP领域。他是将词转化为「可计算」「结构化」的向量的过程。
Word2vec的两种训练方式
CBOW(Continuous Bag-of-Words Model)和Skip-gram (Continuous Skip-gram Model),是Word2vec 的两种训练模式。
CBOW
通过上下文(Context)来预测当前值,相当于一句话里抠掉一个词,让你来猜这个词是什么意思(类似小学填空题)。
eg:我 _____ 大便,(“我”和“大便”都是输入(input),_____为我们预测要输出的内容(output))
Skip-gram
用当前词来预测上下文。相当于给你一个词(input word),让你猜前面和后面可能出现什么词。(大概感觉就是和CBOW反过来)
eg:___ 拉 _____
类似的数学模型:
本文作者:Jev_0987
本文链接:https://www.cnblogs.com/jev-0987/p/14980554.html
版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 2.5 中国大陆许可协议进行许可。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步