LSTM(long short term memory)长短期记忆网络

 

bags of word(WOE)

它的基本思想是假定对于一个文本,忽略其词序和语法、句法,仅仅将其看做是一些词汇的集合,而文本中的每个词汇都是独立的

 

循环神经网络(recurrent neural networks)

会考虑到词序,基于对先前所见词的理解来推断当前词的真实含义

当相关的信息和预测的词位置之间的间隔是非常小时,RNN 可以学会使用先前的信息。但是,在这个间隔不断增大时,RNN 会丧失学习到连接如此远的信息的能力

 

LSTM(long short term memory)长短期记忆网络

是一种 RNN 特殊的类型,可以学习长期依赖信息

 LSTM 拥有三个门,来保护和控制细胞状态:遗忘门、输入门、输出门

 

RNN生成古诗词http://blog.csdn.net/u014365862/article/details/53868544 tensorflow python

RNN LSTM https://mp.weixin.qq.com/s/tL2uFJV7EISa6WjbJaVa6g 电影评论 R tensorflow

posted @ 2018-01-03 11:26  Hyacinth-Yuan  阅读(311)  评论(0编辑  收藏  举报