摘要:
注意力seq2seq模型 大部分的seq2seq模型,对所有的输入,一视同仁,同等处理。 但实际上,输出是由输入的各个重点部分产生的。 比如: (举例使用,实际比重不是这样) 对于输出“晚上”, 各个输入所占比重: 今天 50%,晚上 50%,吃 100%,什么 0% 对于输出“吃”, 各个输入所占 阅读全文
摘要:
在做seq2seq的时候,经常需要使用sequence_loss这是损失函数。 现在分析一下sequence_loss这个函数到底在做什么 求loss值 $$ logits=\left[\begin{matrix} [1.0, 2.0] & [1.0, 2.0] \cr [1.0, 2.0] & [ 阅读全文