05 2016 档案

该文被密码保护。
posted @ 2016-05-31 17:11 AHU-WangXiao 阅读(36) 评论(0) 推荐(0) 编辑
摘要:Bilinear CNN Models for Fine-grained Visual Recognition CVPR 2015 本文提出了一种双线性模型( bilinear models),一种识别结构,该结构由两个特征提取器产生,两个输出是图像每一个位置的外积(outer product),然 阅读全文
posted @ 2016-05-30 01:08 AHU-WangXiao 阅读(6598) 评论(0) 推荐(0) 编辑
摘要:The first time use Lua for programing Wang Xiao 1. 关于 lua 的变量类型: lua 变量的定义与matlab有点不同: local d , f = 5 ,10 --声明局部变量 d,f。 d , f = 5, 10; --声明全局变量 d,f。 阅读全文
posted @ 2016-05-28 20:54 AHU-WangXiao 阅读(288) 评论(0) 推荐(0) 编辑
摘要:Recurrent Models of Visual Attention Google DeepMind 模拟人类看东西的方式,我们并非将目光放在整张图像上,尽管有时候会从总体上对目标进行把握,但是也是将目光按照某种次序(例如,从上倒下,从左到右等等)在图像上进行扫描,然后从一个区域转移到另一个区域 阅读全文
posted @ 2016-05-28 15:06 AHU-WangXiao 阅读(20912) 评论(1) 推荐(1) 编辑
摘要:解决ssh的"Write failed: Broken pipe"问题 问题场景 服务器环境:阿里云 Linux CentOS 主机 客户端:Mac OSX Terminal 问题现象 用 ssh 命令连接服务器之后,如果一段时间不操作,再次进入 Terminal 时会有一段时间没有响应,然后就出现 阅读全文
posted @ 2016-05-28 13:36 AHU-WangXiao 阅读(674) 评论(0) 推荐(0) 编辑
摘要:Localizing by Describing: Attribute-Guided Attention Localization for Fine-Grained Recognition Baidu Research 本文主要是将part描述利用起来,协助进行part定位,针对每一个定位好的par 阅读全文
posted @ 2016-05-27 21:45 AHU-WangXiao 阅读(803) 评论(0) 推荐(0) 编辑
摘要:转载自:维基百科 蒙特卡洛方法 https://zh.wikipedia.org/wiki/%E8%92%99%E5%9C%B0%E5%8D%A1%E7%BE%85%E6%96%B9%E6%B3%95 蒙特卡洛方法[编辑] 维基百科,自由的百科全书 蒙特卡洛方法(英语:Monte Carlo met 阅读全文
posted @ 2016-05-27 20:38 AHU-WangXiao 阅读(921) 评论(0) 推荐(0) 编辑
该文被密码保护。
posted @ 2016-05-27 17:54 AHU-WangXiao 阅读(5) 评论(0) 推荐(0) 编辑
摘要:Fully Convolutional Attention Localization Networks: Efficient Attention Localization for Fine-Grained Recognition 细粒度的识别(Fine-grained recognition)的挑战 阅读全文
posted @ 2016-05-26 20:38 AHU-WangXiao 阅读(4883) 评论(0) 推荐(0) 编辑
摘要:Wide Residual Networks 阅读全文
posted @ 2016-05-25 20:45 AHU-WangXiao 阅读(832) 评论(0) 推荐(0) 编辑
摘要:浅谈 Hellinger Distance 2016.05.24 最近在看 Hellinger Distance(海林格距离), 平时看多了欧式距离,马氏距离等等,貌似介绍这个的材料不是很多,例如:维基百科上的一些,和 下列这个链接上的pdf材料:http://www.tcs.tifr.res.in 阅读全文
posted @ 2016-05-24 14:26 AHU-WangXiao 阅读(14302) 评论(1) 推荐(0) 编辑
摘要:Dynamic Label Propagation for Semi-supervised Multi-class Multi-label Classification ICCV 2013 在基于Graph的半监督学习方法中,分类的精度高度依赖于可用的有标签数据 和 相似性度量的精度。此处,本文提出 阅读全文
posted @ 2016-05-23 15:50 AHU-WangXiao 阅读(1220) 评论(1) 推荐(0) 编辑
摘要:MatchNet: Unifying Feature and Metric Learning for Patch-Based Matching CVPR 2015 本来都写到一半了,突然笔记本死机了,泪崩!好吧,重新写!本文提出了一种联合的学习patch表示的一个深度网络 和 鲁棒的特征比较的网络结 阅读全文
posted @ 2016-05-21 17:53 AHU-WangXiao 阅读(8115) 评论(1) 推荐(0) 编辑
摘要:Compute Mean Value of Train and Test Dataset of Caltech-256 dataset in matlab code clc;imPath = '/home/wangxiao/Downloads/Link to caltech_256_dataset/ 阅读全文
posted @ 2016-05-13 10:00 AHU-WangXiao 阅读(488) 评论(0) 推荐(0) 编辑
摘要:SoftmaxLayer and SoftmaxwithLossLayer 代码解读 Wang Xiao 先来看看 SoftmaxWithLoss 在prototext文件中的定义: 再看SoftmaxWithLossLayer的.cpp文件: 接下来是对输入数据进行 reshape 操作: 阅读全文
posted @ 2016-05-12 22:04 AHU-WangXiao 阅读(5347) 评论(1) 推荐(0) 编辑
摘要:1. caffe matlab 接口提供了提取feature的脚本,但是由于中间要对这些图像进行RGB > BGR 的变换,卧槽,灰度图没有三通道啊?怎么破?从上午就在纠结怎么会跑着跑着程序就报错了,尼玛,坑啊。。。 如何解决这个问题 ?? 我把灰度图给扔了,谢谢! 2. If I use the 阅读全文
posted @ 2016-05-10 14:59 AHU-WangXiao 阅读(514) 评论(0) 推荐(0) 编辑
该文被密码保护。
posted @ 2016-05-09 17:27 AHU-WangXiao 阅读(4) 评论(0) 推荐(0) 编辑
该文被密码保护。
posted @ 2016-05-06 18:02 AHU-WangXiao 阅读(9) 评论(0) 推荐(0) 编辑
该文被密码保护。
posted @ 2016-05-05 23:34 AHU-WangXiao 阅读(5) 评论(0) 推荐(0) 编辑
该文被密码保护。
posted @ 2016-05-05 00:49 AHU-WangXiao 阅读(4) 评论(0) 推荐(0) 编辑
该文被密码保护。
posted @ 2016-05-04 23:12 AHU-WangXiao 阅读(3) 评论(0) 推荐(0) 编辑
摘要:Tutorial: Triplet Loss Layer Design for CNN Xiao Wang 2016.05.02 Triplet Loss Layer could be a trick for further improving the accuracy of CNN. Today, 阅读全文
posted @ 2016-05-02 14:56 AHU-WangXiao 阅读(7038) 评论(3) 推荐(0) 编辑
该文被密码保护。
posted @ 2016-05-02 00:29 AHU-WangXiao 阅读(7) 评论(0) 推荐(0) 编辑
摘要:import random from urllib import urlopen import sys WORD_URL = "http://learncodethehardway.org/words.txt" WORDS = [] PHRASES = { "class ###(###):": "Make a class named ### that is-a ###.", "class ###... 阅读全文
posted @ 2016-05-01 17:54 AHU-WangXiao 阅读(232) 评论(0) 推荐(0) 编辑
该文被密码保护。
posted @ 2016-05-01 16:05 AHU-WangXiao 阅读(50) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示