李宏毅unsupervised learning-Word Embedding 课堂笔记

有多少个词汇就有多少维向量,只有表示它那维是1其他都是0。这样不知道词汇之间的关系,所以可以采用class。但是这样太粗糙了,引入word embedding。

word embedding简介:

 

 

根据词汇的上下文找出它的vector

 

 count based:两个词经常一起出现,给他们一个相似的向量

 

  prediction based:

 这种推词可以用在language modeling

 

   先把1-of-N encoding通过第一层网络,乘以一个matrix降维

  

 

 

 

 

  

 

 

 

 

 

 

 

  

   

 

posted @ 2019-09-12 10:59  路文希  阅读(350)  评论(0编辑  收藏  举报