09 2019 档案

摘要:我们在科研中会发现这样的现象:做相似或相关的研究,付出了同样艰辛的劳动,有些实验室能经常发表许多很好的论文,而有些实验室发表的论文却在低档次水平徘徊。为什么会发生这种现象呢?低水平论文变成高水平论文的到底难度在哪呢?在回答这个问题前,首先归纳一下高水平论文的特点: 1)论文的假说要新,有创造性,而且 阅读全文
posted @ 2019-09-24 16:58 hugh.wei 阅读(136) 评论(0) 推荐(0) 编辑
摘要:该论文主要针对LSTM并无法很好处理Long Range Dependence, 提出分块处理技术,能够保证不影响运算速度的情况下,提供对长范围依赖特性的建模。 Belletti, Francois, Alex Beutel, Sagar Jain, and Ed Chi. "Factorized 阅读全文
posted @ 2019-09-20 11:47 hugh.wei 阅读(161) 评论(0) 推荐(0) 编辑
摘要:1) Francois Belletti, Alex Beutel, Sagar Jain, Ed Huai-hsin Chi: Factorized Recurrent Neural Architectures for Longer Range Dependence. AISTATS 2018: 阅读全文
posted @ 2019-09-18 10:29 hugh.wei 阅读(228) 评论(0) 推荐(0) 编辑
该文被密码保护。
posted @ 2019-09-17 18:29 hugh.wei 阅读(0) 评论(0) 推荐(0) 编辑
该文被密码保护。
posted @ 2019-09-17 17:26 hugh.wei 阅读(2) 评论(0) 推荐(0) 编辑
摘要:本文基于GCN补全路网在不同时段中各个路段的速度分布,以实现对路径在给定未来某时段下时间消耗的估计。 1)以路段为节点,路段间的流通关系为边,构建基于边的图 2)不同与直观的路网图,本文的边图需要考虑节点间的拓扑关系,作者采用ChebNet实现边之间的特征提取。 3)作者为体现模型的可扩展性,提出了 阅读全文
posted @ 2019-09-17 15:31 hugh.wei 阅读(368) 评论(0) 推荐(0) 编辑
摘要:作者将MF和Graph-based模型融合在一起。实际上,在原有BPR-MF基础上,通过Graph上的随机游走,并结合顶点的度,以一定概率采样不同的正样本(这些item并不是与user直接连接,不确定这样选取正样本是否合适),并为不同跳数得到的排序对赋予衰减系数。 本文的intuition: 1)矩 阅读全文
posted @ 2019-09-16 15:10 hugh.wei 阅读(1177) 评论(2) 推荐(0) 编辑
摘要:Transformer —— attention is all you need Transformer模型是2018年5月提出的,可以替代传统RNN和CNN的一种新的架构,用来实现机器翻译,论文名称是attention is all you need。无论是RNN还是CNN,在处理NLP任务时都有 阅读全文
posted @ 2019-09-15 22:32 hugh.wei 阅读(390) 评论(0) 推荐(0) 编辑
摘要:该篇文章在推荐算法日益迅增的今天,给研究者敲了一记醒钟:在关注基于深度学习模型效果的同时,也要更加严谨的对待实验的baseline、dataset和metric。 code: https://github.com/MaurizioFD/RecSys2019_DeepLearning_Evaluati 阅读全文
posted @ 2019-09-15 21:04 hugh.wei 阅读(607) 评论(0) 推荐(0) 编辑
摘要:从拉普拉斯矩阵说到谱聚类 阅读全文
posted @ 2019-09-01 17:27 hugh.wei 阅读(103) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示