随笔分类 -  Attention Model

1
摘要:MAST: A Memory-Augmented Self-Supervised Tracker 2020-03-24 20:12:56 Paper: https://arxiv.org/pdf/2002.07793 Code: https://github.com/zlai0/MAST 1. Ba 阅读全文
posted @ 2020-03-24 20:15 AHU-WangXiao 阅读(237) 评论(0) 推荐(0) 编辑
摘要:Attention is All you need 2020-03-22 00:29:11 Paper: https://papers.nips.cc/paper/7181-attention-is-all-you-need.pdf Doc: https://huggingface.co/trans 阅读全文
posted @ 2020-03-22 00:30 AHU-WangXiao 阅读(824) 评论(0) 推荐(0) 编辑
该文被密码保护。
posted @ 2020-03-22 00:23 AHU-WangXiao 阅读(0) 评论(0) 推荐(0) 编辑
摘要:ViLBERT: Pretraining Task-Agnostic Visiolinguistic Representations for Vision-and-Language Tasks 2020-03-12 23:10:53 Paper: NeurIPS 2019 Code: https:/ 阅读全文
posted @ 2020-03-12 23:14 AHU-WangXiao 阅读(2878) 评论(0) 推荐(1) 编辑
该文被密码保护。
posted @ 2020-03-07 16:39 AHU-WangXiao 阅读(0) 评论(0) 推荐(0) 编辑
摘要:Attention U-Net: Learning Where to Look for the Pancreas 2019-09-10 09:50:43 Paper: https://arxiv.org/pdf/1804.03999.pdf Poster: https://www.doc.ic.ac 阅读全文
posted @ 2019-09-10 07:55 AHU-WangXiao 阅读(1542) 评论(0) 推荐(0) 编辑
该文被密码保护。
posted @ 2019-06-16 19:35 AHU-WangXiao 阅读(1) 评论(0) 推荐(0) 编辑
该文被密码保护。
posted @ 2019-03-21 22:21 AHU-WangXiao 阅读(12) 评论(0) 推荐(0) 编辑
摘要:Convolutional Image Captioning 2018-11-04 20:42:07 Paper: http://openaccess.thecvf.com/content_cvpr_2018/papers/Aneja_Convolutional_Image_Captioning_C 阅读全文
posted @ 2018-11-04 20:44 AHU-WangXiao 阅读(849) 评论(0) 推荐(0) 编辑
摘要:CBAM: Convolutional Block Attention Module 2018-09-14 21:52:42 Paper:http://openaccess.thecvf.com/content_ECCV_2018/papers/Sanghyun_Woo_Convolutional_ 阅读全文
posted @ 2018-09-14 22:01 AHU-WangXiao 阅读(5931) 评论(0) 推荐(1) 编辑
摘要:A Structured Self-Attentive Sentence Embedding ICLR 2017 2018-08-19 14:07:29 Paper:https://arxiv.org/pdf/1703.03130.pdf Code(PyTorch): https://github. 阅读全文
posted @ 2018-08-19 15:44 AHU-WangXiao 阅读(5577) 评论(2) 推荐(2) 编辑
摘要:Show, Attend and Tell: Neural Image Caption Generation with Visual Attention Updated on 2020-03-11 21:43:52 Paper (ICML-2015):http://proceedings.mlr.p 阅读全文
posted @ 2018-08-10 10:20 AHU-WangXiao 阅读(1546) 评论(0) 推荐(0) 编辑
摘要:Multi-attention Network for One Shot Learning 2018-05-15 22:35:50 本文的贡献点在于: 1. 表明类别标签信息对 one shot learning 可以提供帮助,并且设计一种方法来挖掘该信息; 2. 提出一种 attention ne 阅读全文
posted @ 2018-05-15 22:54 AHU-WangXiao 阅读(1069) 评论(0) 推荐(0) 编辑
摘要:Attention Is All You Need 2018-04-17 10:35:25 Paper:http://papers.nips.cc/paper/7181-attention-is-all-you-need.pdf Code(PyTorch Version):https://githu 阅读全文
posted @ 2018-04-17 10:46 AHU-WangXiao 阅读(1554) 评论(0) 推荐(0) 编辑
摘要:Attention in Long Short-Term Memory Recurrent Neural Networks by Jason Brownlee on June 30, 2017 in Deep Learning The Encoder-Decoder architecture is 阅读全文
posted @ 2017-07-01 19:04 AHU-WangXiao 阅读(685) 评论(0) 推荐(0) 编辑
摘要:注意力机制(Attention Mechanism)在自然语言处理中的应用 本文转自:http://www.cnblogs.com/robert-dlut/p/5952032.html 近年来,深度学习的研究越来越深入,在各个领域也都获得了不少突破性的进展。基于注意力(attention)机制的神经 阅读全文
posted @ 2016-10-16 12:34 AHU-WangXiao 阅读(1058) 评论(0) 推荐(0) 编辑
摘要:本文转自:http://www.cosmosshadow.com/ml/%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C/2016/03/08/Attention.html Attention Index 参考列表 Attention Attention在视觉上的递归模型 模 阅读全文
posted @ 2016-08-30 23:51 AHU-WangXiao 阅读(1014) 评论(0) 推荐(0) 编辑
摘要:End-to-End Localization and Ranking for Relative Attributes arXiv Paper 摘要:本文提出一种 end-to-end 的属性识别方法,能够同时定位和相对属性的排序(simultaneously localize and rank r 阅读全文
posted @ 2016-08-10 11:55 AHU-WangXiao 阅读(731) 评论(0) 推荐(0) 编辑
摘要:Multiple Object Recognition With Visual Attention Google DeepMind ICRL 2015 本文提出了一种基于 attention 的用于图像中识别多个物体的模型。该模型是利用RL来训练 Deep RNN,以找到输入图像中最相关的区域。尽管 阅读全文
posted @ 2016-06-05 00:41 AHU-WangXiao 阅读(5839) 评论(0) 推荐(0) 编辑
摘要:Attention For Fine-Grained Categorization Google ICLR 2015 本文说是将Ba et al. 的基于RNN 的attention model 拓展为受限更少,或者说是非受限的视觉场景。这个工作和前者很大程度上的不同在于,用一个更加有效的视觉网络, 阅读全文
posted @ 2016-06-04 23:47 AHU-WangXiao 阅读(1576) 评论(1) 推荐(0) 编辑

1
点击右上角即可分享
微信分享提示