摘要:
from : https://www.julyedu.com/question/big/kp_id/26/ques_id/2084 阅读全文
摘要:
from: https://zhuanlan.zhihu.com/p/31547842 补充一篇mark : https://zhuanlan.zhihu.com/p/47613793 Attention是一种用于提升基于RNN(LSTM或GRU)的Encoder + Decoder模型的效果的的机 阅读全文
摘要:
from: https://blog.csdn.net/sinat_22594309/article/details/60957594 在上一篇博客里,我们讨论了关于Bagging的内容,其原理是从现有数据中有放回抽取若干个样本构建分类器,重复若干次建立若干个分类器进行投票,今天我们来讨论另一种算法 阅读全文
摘要:
from:https://www.cnblogs.com/peizhe123/p/5086128.html GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree),是一种迭代的决策树算法,该算法 阅读全文
摘要:
有个视频讲的不错,mark一下 https://vimeo.com/306156327 阅读全文
摘要:
形式一样,推导过程与代表意义不同 from: https://zhuanlan.zhihu.com/p/27719875 在我重新抱起概率统计的课本之前,我一直都不清楚似然函数为什么是那样子的,只知道照着公式敲代码(那时候还没有tensorflow),于是出过各种糗: “啊?似然函数不就是交叉熵吗? 阅读全文
摘要:
两篇讲ELMO的好文,mark from : https://zhuanlan.zhihu.com/p/63115885 and: https://blog.csdn.net/triplemeng/article/details/82380202 介绍 之前的glove以及word2vec的word 阅读全文
摘要:
作者:魏秀参链接:https://www.zhihu.com/question/38102762/answer/85238569来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 这里分五部分简单解释一下Batch Normalization (BN)。1. What i 阅读全文
摘要:
from: https://www.kaggle.com/pavansanagapati/covariate-shift-what-is-it Covariate Shift – What is it ? Introduction You may have heard from various pe 阅读全文
摘要:
https://jalammar.github.io/illustrated-transformer/ 图文并茂 mark 阅读全文