随笔分类 -  Paper Reading

摘要:Monti, Federico, et al. "Geometric deep learning on graphs and manifolds using mixture model CNNs." arXiv preprint arXiv:1611.08402 (2016). 摘要:作者提出课一个 阅读全文
posted @ 2017-05-03 13:11 Shiyu_Huang 阅读(2223) 评论(0) 推荐(0) 编辑
摘要:Kipf, Thomas N., and Max Welling. "Semi-supervised classification with graph convolutional networks." arXiv preprint arXiv:1609.02907 (2016). 作者对Convo 阅读全文
posted @ 2017-05-02 19:58 Shiyu_Huang 阅读(2543) 评论(0) 推荐(0) 编辑
摘要:Defferrard, Michaël, Xavier Bresson, and Pierre Vandergheynst. "Convolutional neural networks on graphs with fast localized spectral filtering." Advan 阅读全文
posted @ 2017-05-02 14:13 Shiyu_Huang 阅读(6404) 评论(2) 推荐(0) 编辑
摘要:没看,但是论文UI和视频做的很好。 论文地址:https://papers.nips.cc/paper/6509-deep-learning-for-predicting-human-strategic-behavior.pdf 视频地址:https://www.youtube.com/watch? 阅读全文
posted @ 2017-04-10 21:38 Shiyu_Huang 阅读(215) 评论(0) 推荐(0) 编辑
摘要:没看论文,但看了介绍视频,简直做了一个小型纪录片。 视频地址:https://www.youtube.com/watch?v=jfB_lWZA4Qo 中文翻译:http://blog.csdn.net/qq_19828477/article/details/55667816 阅读全文
posted @ 2017-04-10 21:16 Shiyu_Huang 阅读(395) 评论(0) 推荐(0) 编辑
摘要:作者提出的方法是Algotithm 2。简单来说就是,训练的时候,在几个模型中,选取预测最准确的(也就是loss最低的)模型进行权重更新。 阅读全文
posted @ 2017-04-10 21:05 Shiyu_Huang 阅读(757) 评论(0) 推荐(0) 编辑
摘要:论文提出了一种loss: x是原始数据,y是对应的label,h(x)是一个判别函数,r(x)相当于训练了一个信心函数,r(x)越大,代表对自己做的判断的信息越大,当r(x)<0的时候,就拒绝进行分类。那么这个loss函数分为前后两项,前面一项就是通常的分类错误的loss,后面一样是对不进行分类的惩 阅读全文
posted @ 2017-04-10 20:35 Shiyu_Huang 阅读(328) 评论(0) 推荐(0) 编辑
摘要:Ba, Jimmy Lei, Jamie Ryan Kiros, and Geoffrey E. Hinton. "Layer normalization." arXiv preprint arXiv:1607.06450 (2016). Batch Normalization是对每个神经元做归一化 阅读全文
posted @ 2017-03-31 20:14 Shiyu_Huang 阅读(7290) 评论(0) 推荐(0) 编辑
摘要:Ba, Jimmy, et al. "Using Fast Weights to Attend to the Recent Past." Advances In Neural Information Processing Systems. 2016. 感觉就是引入了memory的机制,多了一个矩阵A 阅读全文
posted @ 2017-03-31 16:13 Shiyu_Huang 阅读(749) 评论(0) 推荐(0) 编辑
摘要:论文地址:https://128.84.21.199/abs/1703.09831 这篇论文来自于百度的机器学习研究院,作者为:徐伟、余昊男、张海超 这篇论文用了多种技术的组合: reinforcement learning, word embedding, attention, question 阅读全文
posted @ 2017-03-31 14:38 Shiyu_Huang 阅读(362) 评论(0) 推荐(0) 编辑
摘要:Laine, Samuli, and Timo Aila. "Temporal Ensembling for Semi-Supervised Learning." arXiv preprint arXiv:1610.02242 (2016). 这篇论文投在ICLR 2017上:https://ope 阅读全文
posted @ 2017-03-28 13:49 Shiyu_Huang 阅读(4261) 评论(0) 推荐(3) 编辑
摘要:Paper Link : https://arxiv.org/pdf/1703.06283 Github: https://github.com/huangshiyu13/RPNplus 摘要: 这篇paper探索了如何用虚拟数据或者叫做人工生成的数据对行人检测进行辅助的方式。通过Unity3D产生 阅读全文
posted @ 2017-03-23 12:09 Shiyu_Huang 阅读(701) 评论(0) 推荐(0) 编辑
摘要:论文介绍ppt:https://pan.baidu.com/s/1gfDURyb Tamar, Aviv, et al. "Value iteration networks." Advances in Neural Information Processing Systems. 2016. 这篇论文 阅读全文
posted @ 2017-03-07 20:24 Shiyu_Huang 阅读(1649) 评论(0) 推荐(0) 编辑
摘要:Joseph, Williams. "Style: Lessons in Clarity and Grace." Pearson Schweiz Ag (2014). 下载地址:https://pan.baidu.com/s/1cH26v0 目录: 第一部分 选择样式 1 理解样式 2 正确性 第二 阅读全文
posted @ 2017-03-03 13:58 Shiyu_Huang 阅读(4442) 评论(0) 推荐(0) 编辑
摘要:1.Li, Ke, and Jitendra Malik. "Learning to optimize." arXiv preprint arXiv:1606.01885 (2016). 2.Learning to Optimize Neural Nets link:https://arxiv.or 阅读全文
posted @ 2017-03-03 13:02 Shiyu_Huang 阅读(223) 评论(0) 推荐(0) 编辑
摘要:1.Robot gains Social Intelligence through Multimodal Deep Reinforcement Learning 这篇文章使用DQN去训练一个机器人,使其能够模仿人类的交际。作者认为可以通过多模态学习来提高性能,作者用了灰度图和深度图分别训练两个神经网 阅读全文
posted @ 2017-02-27 11:38 Shiyu_Huang 阅读(224) 评论(0) 推荐(0) 编辑
摘要:1.Kipf, Thomas N., and Max Welling. "Semi-supervised classification with graph convolutional networks." arXiv preprint arXiv:1609.02907 (2016). 2.Deff 阅读全文
posted @ 2016-12-24 15:36 Shiyu_Huang 阅读(1054) 评论(0) 推荐(0) 编辑
摘要:首先解释一下什么叫做embedding。举个例子:地图就是对于现实地理的embedding,现实的地理地形的信息其实远远超过三维 但是地图通过颜色和等高线等来最大化表现现实的地理信息。 embedding就是用固定的维度来最大化表现原始信息。embedding可以翻译为向量或者表示。 1.Hashi 阅读全文
posted @ 2016-12-11 14:50 Shiyu_Huang 阅读(390) 评论(0) 推荐(0) 编辑
摘要:1.Tang, Jian, et al. "Understanding the Limiting Factors of Topic Modeling via Posterior Contraction Analysis." ICML. 2014. This is the best paper of 阅读全文
posted @ 2016-12-07 20:30 Shiyu_Huang 阅读(249) 评论(0) 推荐(0) 编辑
摘要:GAN(Generative Adversarial Nets),产生式对抗网络 存在问题: 1.无法表示数据分布 2.速度慢 3.resolution太小,大了无语义信息 4.无reference 5.intend to generate same image 6.梯度消失 论文摘要: 1、Goo 阅读全文
posted @ 2016-10-21 15:51 Shiyu_Huang 阅读(3987) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示