上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 15 下一页
摘要: from : https://www.julyedu.com/question/big/kp_id/26/ques_id/2084 阅读全文
posted @ 2019-05-28 22:24 凌波微步_Arborday 阅读(873) 评论(0) 推荐(0) 编辑
摘要: from: https://zhuanlan.zhihu.com/p/31547842 补充一篇mark : https://zhuanlan.zhihu.com/p/47613793 Attention是一种用于提升基于RNN(LSTM或GRU)的Encoder + Decoder模型的效果的的机 阅读全文
posted @ 2019-05-27 15:24 凌波微步_Arborday 阅读(475) 评论(0) 推荐(0) 编辑
摘要: from: https://blog.csdn.net/sinat_22594309/article/details/60957594 在上一篇博客里,我们讨论了关于Bagging的内容,其原理是从现有数据中有放回抽取若干个样本构建分类器,重复若干次建立若干个分类器进行投票,今天我们来讨论另一种算法 阅读全文
posted @ 2019-05-23 16:57 凌波微步_Arborday 阅读(647) 评论(0) 推荐(0) 编辑
摘要: from:https://www.cnblogs.com/peizhe123/p/5086128.html GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree),是一种迭代的决策树算法,该算法 阅读全文
posted @ 2019-05-23 16:12 凌波微步_Arborday 阅读(905) 评论(0) 推荐(0) 编辑
摘要: 有个视频讲的不错,mark一下 https://vimeo.com/306156327 阅读全文
posted @ 2019-05-21 23:00 凌波微步_Arborday 阅读(342) 评论(0) 推荐(0) 编辑
摘要: 形式一样,推导过程与代表意义不同 from: https://zhuanlan.zhihu.com/p/27719875 在我重新抱起概率统计的课本之前,我一直都不清楚似然函数为什么是那样子的,只知道照着公式敲代码(那时候还没有tensorflow),于是出过各种糗: “啊?似然函数不就是交叉熵吗? 阅读全文
posted @ 2019-05-19 19:56 凌波微步_Arborday 阅读(1917) 评论(0) 推荐(0) 编辑
摘要: 两篇讲ELMO的好文,mark from : https://zhuanlan.zhihu.com/p/63115885 and: https://blog.csdn.net/triplemeng/article/details/82380202 介绍 之前的glove以及word2vec的word 阅读全文
posted @ 2019-05-19 16:33 凌波微步_Arborday 阅读(897) 评论(0) 推荐(0) 编辑
摘要: 作者:魏秀参链接:https://www.zhihu.com/question/38102762/answer/85238569来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 这里分五部分简单解释一下Batch Normalization (BN)。1. What i 阅读全文
posted @ 2019-05-19 11:51 凌波微步_Arborday 阅读(148) 评论(0) 推荐(0) 编辑
摘要: from: https://www.kaggle.com/pavansanagapati/covariate-shift-what-is-it Covariate Shift – What is it ? Introduction You may have heard from various pe 阅读全文
posted @ 2019-05-19 11:42 凌波微步_Arborday 阅读(536) 评论(0) 推荐(0) 编辑
摘要: https://jalammar.github.io/illustrated-transformer/ 图文并茂 mark 阅读全文
posted @ 2019-05-18 22:42 凌波微步_Arborday 阅读(600) 评论(0) 推荐(0) 编辑
上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 15 下一页