02 2020 档案
摘要:什么是Attention 在 seq to seq 模型中, 我们常常在 decoder 阶段加入Attention 机制, 主要是对于decoder 的隐含层输入, 引入更多的有关 encoder 序列中, 中间步骤的信息. 在这里就不详细解释了, 我们将Attention 从模型中剥离出来, 以
阅读全文
摘要:什么是线索二叉树 线索二叉树主要体现在二叉树的 DFS 中, 也就是前序, 中序, 与后序遍历, 我们以中序遍历为例, 讲述线索二叉树线索的原理. 线索主要表现在, DFS 的过程中记录遍历的前驱与后继节点, 可以用下面的图来表示节点, lbitlbitlchildlchilddatadatarch
阅读全文
摘要:C. Obtain The String You are given two strings $s$ and $t$ consisting of lowercase Latin letters. Also you have a string $z$ which is initially empty.
阅读全文

浙公网安备 33010602011771号