上一页 1 2 3 4 5 6 7 ··· 13 下一页
摘要: 本文基于GCN补全路网在不同时段中各个路段的速度分布,以实现对路径在给定未来某时段下时间消耗的估计。 1)以路段为节点,路段间的流通关系为边,构建基于边的图 2)不同与直观的路网图,本文的边图需要考虑节点间的拓扑关系,作者采用ChebNet实现边之间的特征提取。 3)作者为体现模型的可扩展性,提出了 阅读全文
posted @ 2019-09-17 15:31 hugh.wei 阅读(368) 评论(0) 推荐(0) 编辑
摘要: 作者将MF和Graph-based模型融合在一起。实际上,在原有BPR-MF基础上,通过Graph上的随机游走,并结合顶点的度,以一定概率采样不同的正样本(这些item并不是与user直接连接,不确定这样选取正样本是否合适),并为不同跳数得到的排序对赋予衰减系数。 本文的intuition: 1)矩 阅读全文
posted @ 2019-09-16 15:10 hugh.wei 阅读(1175) 评论(2) 推荐(0) 编辑
摘要: Transformer —— attention is all you need Transformer模型是2018年5月提出的,可以替代传统RNN和CNN的一种新的架构,用来实现机器翻译,论文名称是attention is all you need。无论是RNN还是CNN,在处理NLP任务时都有 阅读全文
posted @ 2019-09-15 22:32 hugh.wei 阅读(387) 评论(0) 推荐(0) 编辑
摘要: 该篇文章在推荐算法日益迅增的今天,给研究者敲了一记醒钟:在关注基于深度学习模型效果的同时,也要更加严谨的对待实验的baseline、dataset和metric。 code: https://github.com/MaurizioFD/RecSys2019_DeepLearning_Evaluati 阅读全文
posted @ 2019-09-15 21:04 hugh.wei 阅读(606) 评论(0) 推荐(0) 编辑
摘要: 从拉普拉斯矩阵说到谱聚类 阅读全文
posted @ 2019-09-01 17:27 hugh.wei 阅读(102) 评论(0) 推荐(0) 编辑
摘要: NAACL 2019最佳论文:量子概率驱动的神经网络 知其然,知其所以然:基于多任务学习的可解释推荐系统 阅读全文
posted @ 2019-08-27 09:21 hugh.wei 阅读(79) 评论(0) 推荐(0) 编辑
摘要: 图神经网络(GNN)也许是 AI 的未来 CNN已老,GNN来了!清华大学孙茂松组一文综述GNN 图神经网络综述:模型与应用 深度学习时代的图模型,清华发文综述图网络 图神经网络笔记 阅读全文
posted @ 2019-08-26 17:15 hugh.wei 阅读(468) 评论(0) 推荐(0) 编辑
摘要: Multimodal Machine Learning:A Survey and Taxonomy 综述阅读笔记 这可能是「多模态机器学习」最通俗易懂的介绍 阅读全文
posted @ 2019-08-17 21:22 hugh.wei 阅读(260) 评论(0) 推荐(0) 编辑
摘要: 两个多元高斯分布之间的wasserstein 距离 阅读全文
posted @ 2019-08-08 20:40 hugh.wei 阅读(1805) 评论(0) 推荐(0) 编辑
摘要: 分解机(Factorization Machines)推荐算法原理 阅读全文
posted @ 2019-05-16 23:02 hugh.wei 阅读(145) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 ··· 13 下一页