摘要:
本文基于GCN补全路网在不同时段中各个路段的速度分布,以实现对路径在给定未来某时段下时间消耗的估计。 1)以路段为节点,路段间的流通关系为边,构建基于边的图 2)不同与直观的路网图,本文的边图需要考虑节点间的拓扑关系,作者采用ChebNet实现边之间的特征提取。 3)作者为体现模型的可扩展性,提出了 阅读全文
摘要:
作者将MF和Graph-based模型融合在一起。实际上,在原有BPR-MF基础上,通过Graph上的随机游走,并结合顶点的度,以一定概率采样不同的正样本(这些item并不是与user直接连接,不确定这样选取正样本是否合适),并为不同跳数得到的排序对赋予衰减系数。 本文的intuition: 1)矩 阅读全文
摘要:
Transformer —— attention is all you need Transformer模型是2018年5月提出的,可以替代传统RNN和CNN的一种新的架构,用来实现机器翻译,论文名称是attention is all you need。无论是RNN还是CNN,在处理NLP任务时都有 阅读全文
摘要:
该篇文章在推荐算法日益迅增的今天,给研究者敲了一记醒钟:在关注基于深度学习模型效果的同时,也要更加严谨的对待实验的baseline、dataset和metric。 code: https://github.com/MaurizioFD/RecSys2019_DeepLearning_Evaluati 阅读全文
摘要:
NAACL 2019最佳论文:量子概率驱动的神经网络 知其然,知其所以然:基于多任务学习的可解释推荐系统 阅读全文
摘要:
图神经网络(GNN)也许是 AI 的未来 CNN已老,GNN来了!清华大学孙茂松组一文综述GNN 图神经网络综述:模型与应用 深度学习时代的图模型,清华发文综述图网络 图神经网络笔记 阅读全文
摘要:
Multimodal Machine Learning:A Survey and Taxonomy 综述阅读笔记 这可能是「多模态机器学习」最通俗易懂的介绍 阅读全文
摘要:
两个多元高斯分布之间的wasserstein 距离 阅读全文
摘要:
分解机(Factorization Machines)推荐算法原理 阅读全文