摘要:https://blog.csdn.net/cindy_1102/article/details/89010066一、既然我们已经对消失梯度问题的本质和它在深度神经网络中的表现有了直观的认识,那么让我们关注一个简单而实用的启发式方法来解决这些问题。 为了解决梯度爆炸的问题,Thomas Mikolo
阅读全文
摘要:https://blog.csdn.net/cindy_1102/category_8804737.html
阅读全文
摘要:https://leetcode-cn.com/problems/combination-sum/solution/xue-yi-tao-zou-tian-xia-hui-su-suan-fa-by-powcai/ 回溯法的解体框架是什么呢,解决一个回溯问题,实际上就是一个决策树的遍历过程。一般来说
阅读全文
摘要:https://zhuanlan.zhihu.com/p/38296950
阅读全文
摘要:https://allennlp.org 入门例子:https://github.com/allenai/allennlp-as-a-library-example
阅读全文
摘要:https://www.jianshu.com/p/093c234bb7ef 对比K-Means算法和GMM的EM解法,我们会发现二者具有很强的相似性。K-Means算法对数据点的聚类进行了“硬分配”,即每个数据点只属于唯一的聚类;而GMM的EM解法则基于后验概率分布,对数据点进行“软分配”,即每个
阅读全文
摘要:Linux下常用压缩 解压命令和压缩比率对比
阅读全文
摘要:[LeetCode] 43. Multiply Strings 字符串相乘 #coding=utf8 def cal_str(str1, str2): num1_len = len(str1) num2_len = len(str2) #l1存较小的 l1 = '' l2 = '' if num1_
阅读全文
摘要:思想:facebook 利用GBDT进行特征筛选和组合,进而生成新的离散特征向量,把该特征向量当做LR模型的输入。 什么是GBDT模型: GBDT基本结构是决策树组成的森林,作为集成模型,预测方式是把所有子树的结果加起来,学习方式是梯度提升。 当前子树学习的是:残差 = 目标拟合函数 - 已有森林预
阅读全文
摘要:https://blog.csdn.net/Cyiano/article/details/74928415 https://ziyubiti.github.io/2016/11/06/gradvanish/ https://blog.csdn.net/qq_25737169/article/deta
阅读全文
摘要:https://github.com/baidu/AnyQ AnyQ(ANswer Your Questions) 开源项目主要包含面向FAQ集合的问答系统框架、文本语义匹配工具SimNet。
阅读全文
摘要:https://aistudio.baidu.com/aistudio/projectdetail/453240 https://www.jiqizhixin.com/articles/122304 http://codewithzhangyi.com/2018/09/09/NLP%E5%AE%9E
阅读全文
摘要:http://neuralnetworksanddeeplearning.com/chap3.html#the_cross-entropy_cost_function
阅读全文
摘要:https://aistudio.baidu.com/aistudio/projectdetail/124373
阅读全文
摘要:https://zhuanlan.zhihu.com/p/71200936 https://zhuanlan.zhihu.com/p/112277874 学习分成三个部分: 变换(transform):对当前的节点特征进行变换学习,这里就是乘法规则(Wx); 聚合(aggregate):聚合领域节点
阅读全文