various Sequence to Sequence Model

1. A basic LSTM  encoder-decoder.

Encoder:

X 是 input sentence. C 是encoder 产生的最后一次的hidden state, 记作 Context Vector.

\[C=LSTM(X).\]

Decoder:

每次的输出值就是下一次的输入值, 第一次的输入值就是 encoder 产生的 Context Vector. Encoder最后输出的 hidden state 通常用来初始化 Decoder的 $y_{0}$.

基本公式:

\[y_{0} = LSTM(s_{0}, C);\]

$C$ 就是encoder 产生的 context vector.
\[y_t = LSTM(s_{t-1}, y_{t-1});\]

$s$ 是LSTM的 hidden state 状态 LSTM ($h$ and $c$).

\[s_t=[h_t,c_t]\]

 

2. A basic LSTM  encoder-decoder with peek.

Encoder部分与上面相同。Decoder部分,每次的输入值为${s_{t-1},y_{t-1},C}$. 这边的peek value就是 每次迭代的时候都将 Context Vector作为输入。

初始化: \[y(0) = LSTM(s0, C, C)\]

每次的迭代公式: \[y(t) = LSTM(s(t-1), y(t-1), C)\]

 




posted @ 2016-04-20 22:17  姜楠  阅读(509)  评论(0编辑  收藏  举报