上一页 1 2 3 4 5 6 7 ··· 27 下一页

2020年6月8日

摘要: 矩阵相乘的另外一种看法: 阅读全文
posted @ 2020-06-08 16:53 TMatrix52 阅读(244) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2020-06-08 16:49 TMatrix52 阅读(192) 评论(0) 推荐(0)

2020年6月7日

摘要: 阅读全文
posted @ 2020-06-07 21:11 TMatrix52 阅读(262) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2020-06-07 15:50 TMatrix52 阅读(172) 评论(0) 推荐(0)

2020年5月26日

摘要: https://blog.csdn.net/cindy_1102/article/details/89010066一、既然我们已经对消失梯度问题的本质和它在深度神经网络中的表现有了直观的认识,那么让我们关注一个简单而实用的启发式方法来解决这些问题。 为了解决梯度爆炸的问题,Thomas Mikolo 阅读全文
posted @ 2020-05-26 18:52 TMatrix52 阅读(537) 评论(0) 推荐(0)
摘要: https://blog.csdn.net/cindy_1102/category_8804737.html 阅读全文
posted @ 2020-05-26 08:25 TMatrix52 阅读(159) 评论(0) 推荐(0)

2020年5月22日

摘要: https://leetcode-cn.com/problems/combination-sum/solution/xue-yi-tao-zou-tian-xia-hui-su-suan-fa-by-powcai/ 回溯法的解体框架是什么呢,解决一个回溯问题,实际上就是一个决策树的遍历过程。一般来说 阅读全文
posted @ 2020-05-22 11:06 TMatrix52 阅读(152) 评论(0) 推荐(0)

2020年5月21日

摘要: https://zhuanlan.zhihu.com/p/38296950 阅读全文
posted @ 2020-05-21 11:47 TMatrix52 阅读(345) 评论(0) 推荐(0)

2020年5月20日

摘要: https://allennlp.org 入门例子:https://github.com/allenai/allennlp-as-a-library-example 阅读全文
posted @ 2020-05-20 15:23 TMatrix52 阅读(125) 评论(0) 推荐(0)

2020年5月18日

摘要: https://www.jianshu.com/p/093c234bb7ef 对比K-Means算法和GMM的EM解法,我们会发现二者具有很强的相似性。K-Means算法对数据点的聚类进行了“硬分配”,即每个数据点只属于唯一的聚类;而GMM的EM解法则基于后验概率分布,对数据点进行“软分配”,即每个 阅读全文
posted @ 2020-05-18 10:51 TMatrix52 阅读(149) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 7 ··· 27 下一页

导航