上一页 1 ··· 18 19 20 21 22 23 24 25 26 ··· 60 下一页
摘要: 2019-11-03 20:35:18 总体感受:本周的赛题完全是反过来的,第一题最难,第二题次之,最后的hard反而是最简单的。 注意点:心态放平稳,慢慢来。 阅读全文
posted @ 2019-11-03 20:36 hyserendipity 阅读(106) 评论(0) 推荐(0) 编辑
摘要: 2019-10-31 17:16:51 阅读全文
posted @ 2019-10-31 17:17 hyserendipity 阅读(109) 评论(0) 推荐(0) 编辑
摘要: 2019-10-29 16:36:24 总体感受:有一段时间没有打比赛,手居然有生疏的感觉,这次肯定是要掉分了,然后在做combination问题的时候没有敲对代码,很伤。 注意点:依然需要多练习,很多题目不练习就会手生。 1238. Circular Permutation in Binary R 阅读全文
posted @ 2019-10-29 16:38 hyserendipity 阅读(94) 评论(0) 推荐(0) 编辑
摘要: 2019-10-29 16:36:24 阅读全文
posted @ 2019-10-29 16:38 hyserendipity 阅读(66) 评论(0) 推荐(0) 编辑
摘要: 2019-10-24 20:20:27 阅读全文
posted @ 2019-10-24 20:21 hyserendipity 阅读(85) 评论(0) 推荐(0) 编辑
摘要: 2019-10-24 20:18:43 问题描述:Soft Attention和Hard Attention的区别是什么。 问题求解: Soft Attention是通常使用的Attention机制,其选择的信息是所有输入信息在注意力分布下的期望。 Hard Attention是只关注到某一个位置上 阅读全文
posted @ 2019-10-24 20:19 hyserendipity 阅读(546) 评论(0) 推荐(0) 编辑
摘要: 2019-10-24 20:16:59 阅读全文
posted @ 2019-10-24 20:17 hyserendipity 阅读(137) 评论(0) 推荐(0) 编辑
摘要: 2019-10-24 20:13:07 一、自回归语言模型 Autoregressive LM 在ELMO/BERT出来之前,大家通常讲的语言模型其实是根据上文内容预测下一个可能跟随的单词,就是常说的自左向右的语言模型任务,或者反过来也行,就是根据下文预测前面的单词,这种类型的LM被称为自回归语言模 阅读全文
posted @ 2019-10-24 20:13 hyserendipity 阅读(787) 评论(0) 推荐(0) 编辑
摘要: 2019-10-21 10:35:33 问题描述: 问题求解: 阅读全文
posted @ 2019-10-21 10:37 hyserendipity 阅读(278) 评论(0) 推荐(0) 编辑
摘要: 2019-10-20 14:42:34 末名湖边的桃花儿开了,就在前几天。 我曾经无数次梦想过,陌生花开的时候湖边折枝的人群里会有自己的身影。那个时候,我的心思和大家一样单纯而迫切,我的目光却是比你们更加迷茫和恍惚。那年高三。 十年磨一剑,我得到的却几乎只是一块废铁。 高一那年,我真的差点就把自己废 阅读全文
posted @ 2019-10-20 14:43 hyserendipity 阅读(169) 评论(0) 推荐(0) 编辑
上一页 1 ··· 18 19 20 21 22 23 24 25 26 ··· 60 下一页