上一页 1 2 3 4 5 6 ··· 13 下一页
摘要: paper Learning Convolutional Neural Networks for Graphs论文导读及代码链接(比较细,全面) [论文笔记]Learning Convolutional Neural Networks for Graphs(与上面这篇互为补充) Learning C 阅读全文
posted @ 2020-04-06 14:57 hugh.wei 阅读(112) 评论(0) 推荐(0) 编辑
摘要: 聚类Agglomerative Clustering 及其三种方法Single-linkage、Complete-linkage,Group average 词干提取(stemming)和词形还原(lemmatization) 凝聚法层次聚类之ward linkage method Stemming 阅读全文
posted @ 2020-01-30 17:11 hugh.wei 阅读(173) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2019-12-25 22:31 hugh.wei 阅读(25) 评论(0) 推荐(0) 编辑
摘要: 神经网络中,各种AutoEncoder应当是最有效地无监督学习方法,下面是偏向机器学习方面的半监督学习总结,来源周志华的【machine learning】。 半监督学习【机器学习】 前面我们一直围绕的都是监督学习与无监督学习,监督学习指的是训练样本包含标记信息的学习任务,例如:常见的分类与回归算法 阅读全文
posted @ 2019-11-12 09:47 hugh.wei 阅读(574) 评论(0) 推荐(0) 编辑
摘要: 附加内容:透彻理解熵(包括信息熵和交叉熵) 一文搞懂交叉熵在机器学习中的使用,透彻理解交叉熵背后的直觉 第一篇: 利用一些饱和激活函数的如sigmoid激活时,假如利用均方误差损失,那么损失函数向最后一层的权重传递梯度时,梯度公式为 可见梯度与最后一层的激活函数的导数成正比,因此,如果起始输出值比较 阅读全文
posted @ 2019-10-17 12:50 hugh.wei 阅读(3732) 评论(0) 推荐(0) 编辑
摘要: 我们在科研中会发现这样的现象:做相似或相关的研究,付出了同样艰辛的劳动,有些实验室能经常发表许多很好的论文,而有些实验室发表的论文却在低档次水平徘徊。为什么会发生这种现象呢?低水平论文变成高水平论文的到底难度在哪呢?在回答这个问题前,首先归纳一下高水平论文的特点: 1)论文的假说要新,有创造性,而且 阅读全文
posted @ 2019-09-24 16:58 hugh.wei 阅读(132) 评论(0) 推荐(0) 编辑
摘要: 该论文主要针对LSTM并无法很好处理Long Range Dependence, 提出分块处理技术,能够保证不影响运算速度的情况下,提供对长范围依赖特性的建模。 Belletti, Francois, Alex Beutel, Sagar Jain, and Ed Chi. "Factorized 阅读全文
posted @ 2019-09-20 11:47 hugh.wei 阅读(159) 评论(0) 推荐(0) 编辑
摘要: 1) Francois Belletti, Alex Beutel, Sagar Jain, Ed Huai-hsin Chi: Factorized Recurrent Neural Architectures for Longer Range Dependence. AISTATS 2018: 阅读全文
posted @ 2019-09-18 10:29 hugh.wei 阅读(225) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2019-09-17 18:29 hugh.wei 阅读(0) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2019-09-17 17:26 hugh.wei 阅读(2) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 13 下一页