GRU网络

1.GRU(Gated Recurrent Unit)

  为了克服RNN无法远距离依赖而提出了LSTM,而GRU是LSTM的一个变体,GRU保持LSTM效果的同时,又使结构变得简单。

2.GRU结构

  

 

   

   

 

   GRU只有两个gate,一个是reset gate,一个是update gate,update gate类似于input gate 和forget gate,

   重置门用于控制忽略前一时刻的状态信息程度,重置门的值越小,说明忽略的越多

  更新门用于控制前一时刻的状态信息被带入到当前状态中的程度,,更新门越大,说明前一时刻的状态信息带入越多。

  输入两个值,输出为一个值,输入为此使时刻x和上一时刻ht-1,输出这个时刻的ht

 

3.LSTM和GRU的不同

  3.1结构上

    LSTM 3个输入Xt Ht-1 Ct-1,两个输出Ht Ct。GRU两个输入,Xt,Ht-1,一个输出Ht。

    LSTM有3个门,而GRU只有两个门

  3.2功能上

    GRU参数更少,训练更快,相比之下需要的数据量更少

  3.3记忆方式不同

    LSTM是Xt和Ht-1分别权重相乘相加,经过tanh函数,此时得到新memory

    GRU为Ht-1权重乘积之后和reset gate相乘,再经过tanh函数,最终得到new memory,reset gate作用是让这个new memory包括之前ht-1的信息的多少。

 

 

 

 

 

 

 

 

 

posted @ 2019-11-07 10:31  大大大大芋圆  阅读(1174)  评论(0编辑  收藏  举报