[论文笔记]ECCV2016_A Siamese Long Short-Term Memory Architecture for Human Re-Identication
Title: A Siamese Long Short-Term Memory Architecture for Human Re-Identification
Authors: Rahul Rama Variora1, Bing Shuaia1, Jiwen Lub2, Dong Xuc3, Gang Wanga1
Affiliations:
- School of Electrical and Electronic Engineering, Nanyang Technological University, Singapore, Singapore.
- Department of Automation, Tsinghua University, Beijing, China.
- School of Electrical and Information Engineering, University of Sydney, Sydney, Australia.
Contribution:
- 将Long Short-Term Memory (LSTM)融入到了孪生网络(siamese network)中。能够以序列的方式处理局部图像,从而提高局部特征表达能力。
- Market-1501, CUHK03 and VIPeR数据集上达到当时的最优。
1. Introduction
当计算直方图或者卷积+池化操作时,得到的特征是局部的,并且特征之间互相独立。而引入RNN可以学习局部特征之间的关系。
2. Related Works
略。见深度学习行人重识别进展
3. 系统框架
框架图如下图
流程:
A. 输入:将图像划分成若干个条带,对每个条带子图像块,不是输入原始图像,而是输入两个计算的特征。
- 一个是Local Maximal Occurrence (LOMO)
- 一个是Color Names (CN)
B. 对于影像对对应的第个水平条带(行)的特征,分别形成两个向量送入平行的LSTM网络(即孪生网络)。这里作者用单层LSTM网络。分别得到两个隐藏层输出
C. 然后按下述公式再乘以权重(这里是全连接层?)得到
D. 最后,两个特征向量的距离用欧式距离计算得到
E. 损失计算是按照contrastive loss,在基础上得到
训练
- 正负样本对是1:2
- 优化器是RMSProp
测试
query和gallery数据集中各有和张图像,各自两两配对送入孪生网络,那么就有个样本对。最后的决策取决于之间的欧氏距离。如果使用了多个特征,就分别计算,最后算平均距离。
4. 实验
评价指标有三:
- CMC
- rank 1 accuracy(R1 Acc)
- mean average precision (mAP)
Baseline:同样的网络删除掉LSTM。将所有水平条带(行)的特征concatenate到一起作为输入(而不是用LSTM的隐藏层特征)。单层baseline可用下式表示
表示非线性函数;可学习。contrastive loss function是一样的。文章也用了多层的baseline。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 无需6万激活码!GitHub神秘组织3小时极速复刻Manus,手把手教你使用OpenManus搭建本
· C#/.NET/.NET Core优秀项目和框架2025年2月简报
· Manus爆火,是硬核还是营销?
· 一文读懂知识蒸馏
· 终于写完轮子一部分:tcp代理 了,记录一下