上一页 1 ··· 18 19 20 21 22 23 24 25 26 ··· 60 下一页
摘要: 2019-11-03 21:37:59 一、Diameter of Binary Tree 问题描述: 问题求解: 解法一、第一反应是树上动归,每个节点保存一下左右的最大深度,最后以每个节点作为中枢计算最大的长度即可。 解法二、不求直径,而是转求每个节点的最大深度,遍历的时候可以顺便得到直径。 二、 阅读全文
posted @ 2019-11-03 21:38 hyserendipity 阅读(211) 评论(0) 推荐(0) 编辑
摘要: 2019-11-03 20:35:18 总体感受:本周的赛题完全是反过来的,第一题最难,第二题次之,最后的hard反而是最简单的。 注意点:心态放平稳,慢慢来。 阅读全文
posted @ 2019-11-03 20:36 hyserendipity 阅读(106) 评论(0) 推荐(0) 编辑
摘要: 2019-10-31 17:16:51 阅读全文
posted @ 2019-10-31 17:17 hyserendipity 阅读(109) 评论(0) 推荐(0) 编辑
摘要: 2019-10-29 16:36:24 阅读全文
posted @ 2019-10-29 16:38 hyserendipity 阅读(66) 评论(0) 推荐(0) 编辑
摘要: 2019-10-29 16:36:24 总体感受:有一段时间没有打比赛,手居然有生疏的感觉,这次肯定是要掉分了,然后在做combination问题的时候没有敲对代码,很伤。 注意点:依然需要多练习,很多题目不练习就会手生。 1238. Circular Permutation in Binary R 阅读全文
posted @ 2019-10-29 16:38 hyserendipity 阅读(94) 评论(0) 推荐(0) 编辑
摘要: 2019-10-24 20:20:27 阅读全文
posted @ 2019-10-24 20:21 hyserendipity 阅读(85) 评论(0) 推荐(0) 编辑
摘要: 2019-10-24 20:18:43 问题描述:Soft Attention和Hard Attention的区别是什么。 问题求解: Soft Attention是通常使用的Attention机制,其选择的信息是所有输入信息在注意力分布下的期望。 Hard Attention是只关注到某一个位置上 阅读全文
posted @ 2019-10-24 20:19 hyserendipity 阅读(573) 评论(0) 推荐(0) 编辑
摘要: 2019-10-24 20:16:59 阅读全文
posted @ 2019-10-24 20:17 hyserendipity 阅读(139) 评论(0) 推荐(0) 编辑
摘要: 2019-10-24 20:13:07 一、自回归语言模型 Autoregressive LM 在ELMO/BERT出来之前,大家通常讲的语言模型其实是根据上文内容预测下一个可能跟随的单词,就是常说的自左向右的语言模型任务,或者反过来也行,就是根据下文预测前面的单词,这种类型的LM被称为自回归语言模 阅读全文
posted @ 2019-10-24 20:13 hyserendipity 阅读(813) 评论(0) 推荐(0) 编辑
摘要: 2019-10-21 10:35:33 问题描述: 问题求解: 阅读全文
posted @ 2019-10-21 10:37 hyserendipity 阅读(280) 评论(0) 推荐(0) 编辑
上一页 1 ··· 18 19 20 21 22 23 24 25 26 ··· 60 下一页