Cross-Domain Visual Matching,即跨域视觉匹配。所谓跨域,指的是数据的分布不一样,简单点说,就是两种数据「看起来」不像。如下图中,(a)一般的正面照片和各种背景角度下拍摄的照片;(b)摄像头不同角度下拍到的照片;(c)年轻和年老时的人脸照;(d)证件照和草图风格的人脸照,这些图像都存在对应关系,但由于它们属于不同的域,因此必须针对不同的域采用不同的特征提取方法,之后再做特征匹配。这篇论文提出用一种通用的相似模型来匹配两个域之间的特征,并将其和特征提取流程融合在一起,统一成一个 end-to-end 的框架。
论文动机
针对这种跨域图片检索,常用的方法是:先用深度学习方法提取出不同域之间的特征,然后选择一种相似度模型来度量特征之间的相似性,并以此作为网络的代价函数来训练网络参数。如下图就是一种很常用的 Siamese 网络结构:
这里说的相似模型可以是欧氏距离、余弦相似度等等。但很多时候,我们并不知道哪种相似度模型最合适。这篇论文提出了一种通用的相似度模型——一种 Affine 变换。它表明,很多相似模型都可以用这个统一的模型来表示,而这个通用的模型也可以认为是多种相似模型的综合。因此,我们与其纠结选择哪种相似度模型,不如让网络自己学习出这个通用模型的参数,让网络自己选择最适合的模型。本文的另一个贡献在于将特征的提取与相似模型的学习融合进一个统一的框架内。
论文方法
通用的相似模型
论文认为,大多数相似模型都可以归纳为如下形式:
S ( x , y ) = [ x T y T 1 ] ⎡ ⎢ ⎣ A C d C T B e d T e T f ⎤ ⎥ ⎦ ⎡ ⎢ ⎣ x y 1 ⎤ ⎥ ⎦ (1) (1) S ( x , y ) = [ x T y T 1 ] [ A C d C T B e d T e T f ] [ x y 1 ]
(A A 、B B 、C C 是矩阵,d d 和 e e 是两个向量,x x 和 y y 分别表示两个待匹配的向量)
举个例子,如果 A A =B = I B = I ,C = − I C = − I ,d = e = 0 d = e = 0 ,f = 0 f = 0 ,则该模型退化为欧式距离:S ( x , y ) = x T x − 2 x y + y T y = | | x − y | | 2 S ( x , y ) = x T x − 2 x y + y T y = | | x − y | | 2 。
同时,论文还限制 A A 、B B 为半正定矩阵,表示同域内的自相关性,C C 为两个域之间的相关性矩阵。根据半正定矩阵的性质以及 ( C ) ( C ) 的对称性,我们可以将 A A 、B B 、C C 表示为:
A = L A T L A B = L B T L B C = − L x C T L y C (2) A = L A T L A (2) B = L B T L B C = − L C x T L C y
这样,(1) 式可以展开为:
~ S ( x , y ) = S ( f 1 ( x ) , f 2 ( y ) ) = [ f 1 ( x ) T f 2 ( y ) T 1 ] ⎡ ⎢ ⎣ A C d C T B e d T e T f ⎤ ⎥ ⎦ ⎡ ⎢ ⎣ f 1 ( x ) f 2 ( y ) 1 ⎤ ⎥ ⎦ = f 1 ( x ) T A f 1 ( x ) + f 1 ( x ) T C f 2 ( y ) + f 1 ( x ) T d + f 2 ( y ) T C f 1 ( x ) + f 2 ( y ) T B f 2 ( y ) + f 2 ( y ) T e + d T f 1 ( x ) + e T f 2 ( y ) + f = | | L A f 1 ( x ) | | 2 + | | L B f 2 ( y ) | | 2 + 2 d T f 1 ( x ) − 2 ( L x C f 1 ( x ) ) T ( L y C f 2 ( y ) ) + 2 e T f 2 ( y ) + f (3) S ~ ( x , y ) = S ( f 1 ( x ) , f 2 ( y ) ) (3) = [ f 1 ( x ) T f 2 ( y ) T 1 ] [ A C d C T B e d T e T f ] [ f 1 ( x ) f 2 ( y ) 1 ] = f 1 ( x ) T A f 1 ( x ) + f 1 ( x ) T C f 2 ( y ) + f 1 ( x ) T d + f 2 ( y ) T C f 1 ( x ) + f 2 ( y ) T B f 2 ( y ) + f 2 ( y ) T e + d T f 1 ( x ) + e T f 2 ( y ) + f = | | L A f 1 ( x ) | | 2 + | | L B f 2 ( y ) | | 2 + 2 d T f 1 ( x ) − 2 ( L C x f 1 ( x ) ) T ( L C y f 2 ( y ) ) + 2 e T f 2 ( y ) + f
(3) 式中的 f 1 ( x ) f 1 ( x ) 和 f 2 ( y ) f 2 ( y ) 分别代表 x x 、y y 两个样本经过提取得到的向量。这样一来,我们就将半正定矩阵等限制引入到这个度量关系中。
接下来,我们考虑如何优化这个相似模型。
假设 D = { ( { x i , y i } , ℓ i ) } N i = 1 D = { ( { x i , y i } , ℓ i ) } i = 1 N 表示训练的数据集,{ x i , y i } { x i , y i } 表示来自两个不同域的样本,ℓ i ℓ i 标记两个样本是否属于同一类,如果是同一类则记为 -1,否则为 1:
ℓ i = ℓ ( x i , y i ) = { − 1 c ( x ) = c ( y ) 1 o t h e r w i s e (4) (4) ℓ i = ℓ ( x i , y i ) = { − 1 c ( x ) = c ( y ) 1 o t h e r w i s e
我们的目标是,当两个样本属于同一类时,相似度要小于 -1,否则大于 1:
~ S ( x i , y i ) = { < − 1 i f ℓ i = − 1 ≥ 1 o t h e r w i s e (5) (5) S ~ ( x i , y i ) = { < − 1 i f ℓ i = − 1 ≥ 1 o t h e r w i s e
基于此,论文提出如下目标函数:
G ( W , ϕ ) = N ∑ i = 1 ( 1 − ℓ i ~ S ( x i , y i ) ) + + Ψ ( W , ϕ ) (6) (6) G ( W , ϕ ) = ∑ i = 1 N ( 1 − ℓ i S ~ ( x i , y i ) ) + + Ψ ( W , ϕ )
其中,W , ϕ W , ϕ 分别表示网络参数和相似模型参数,ϕ = ( L A , L B , L x C , L y C , d , e , f ) ϕ = ( L A , L B , L C x , L C y , d , e , f ) ,Ψ ( W , ϕ ) Ψ ( W , ϕ ) 表示正则化项。
特征学习与相似度融合
接下来要解决的是如何用一个框架将特征学习与相似模型融合在一起。论文采用如下网络结构:
首先,我们用两个子网络分支分别提取两个不同域的图片特征,然后用一个共享的网络将两种特征融合起来,最后再用两个子网络分支计算相似模型的参数。
接下来分析一下网络训练的流程。首先,我们将网络的输出结果记为:
~ x ≜ [ L A f 1 ( x ) L x C f 1 ( x ) d T f 1 ( x ) ] T ~ y ≜ [ L B f 2 ( x ) L y C f 2 ( y ) e T f 2 ( y ) ] T x ~ ≜ [ L A f 1 ( x ) L C x f 1 ( x ) d T f 1 ( x ) ] T y ~ ≜ [ L B f 2 ( x ) L C y f 2 ( y ) e T f 2 ( y ) ] T
为了将 ~ x x ~ 和 ~ y y ~ 代入 (3) 式,我们再引入三个辅助矩阵:
P 1 = [ I r × r 0 r × ( r + 1 ) ] P 2 = [ 0 r × r I r × r 0 r × 1 ] P 3 = [ 0 1 × 2 r 1 1 × 1 ] T P 1 = [ I r × r 0 r × ( r + 1 ) ] P 2 = [ 0 r × r I r × r 0 r × 1 ] P 3 = [ 0 1 × 2 r 1 1 × 1 ] T
r r 表示网络输出的特征维度,即 f 1 ( x ) f 1 ( x ) 和 f 2 ( y ) f 2 ( y ) 的维度。
借助这三个矩阵,可以得到:L A f 1 ( x ) = P 1 ~ x L A f 1 ( x ) = P 1 x ~ ,L B f 2 ( y ) = P 1 ~ y L B f 2 ( y ) = P 1 y ~ 等。
然后我们可以把 (3) 式表示为:
~ S ( x , y ) = ( P 1 ~ x ) T P 1 ~ x + ( P 1 ~ y ) T P 1 ~ y − 2 ( P 2 ~ x T ) P 2 ~ y + 2 P 3 T ~ x + 2 P 3 T ~ y + f S ~ ( x , y ) = ( P 1 x ~ ) T P 1 x ~ + ( P 1 y ~ ) T P 1 y ~ − 2 ( P 2 x ~ T ) P 2 y ~ + 2 P 3 T x ~ + 2 P 3 T y ~ + f
目标函数调整为:
G ( W , ϕ ; D ) = N ∑ i = 1 ( 1 − ℓ i ~ S ( x i , y i ) ) + + Ψ ( W , ϕ ) = N ∑ i = 1 { 1 − ℓ i [ ( P 1 ~ x i ) T P 1 ~ x i + ( P 1 ~ y i ) T P 1 ~ y i − 2 ( P 2 ~ x i ) T P 2 ~ y i + 2 P 3 T ~ x i + 2 P 3 T ~ y i + f ] } + + Ψ ( W , ϕ ) (13) G ( W , ϕ ; D ) = ∑ i = 1 N ( 1 − ℓ i S ~ ( x i , y i ) ) + + Ψ ( W , ϕ ) = ∑ i = 1 N { 1 − ℓ i [ ( P 1 x i ~ ) T P 1 x i ~ + ( P 1 y i ~ ) T P 1 y i ~ − (13) 2 ( P 2 x i ~ ) T P 2 y i ~ + 2 P 3 T x i ~ + 2 P 3 T y i ~ + f ] } + + Ψ ( W , ϕ )
公式中的 D D 表示训练的样本对。
训练细节优化
值得注意的是,(13) 式是一种 sample-pair-based 的表示,每次计算目标函数的时候,我们需要生成很多的样本对,而且,由于同一张图片可能出现在多个 pair 中,这样就容易造成很多重复计算(例如,计算 ~ x 1 x 1 ~ 时需要一次前向传播,如果 x 1 x 1 这张图片又出现在同一个 batch 的其他 pair 中,那我们又需要计算一次前向传播,而这个计算结果其实是可以复用的)。所以,下一步是将它表示成 sample-based 的形式,以减少这种重复计算。
sample-based 的基本想法是,在每次 batch 训练时,我们不是用一个个 pair 计算,而是针对每张图片,把与该图片相关的操作都放在一起计算。
具体点说,假设一个 batch 中的数据为 { { x 1 , y 1 } , … , { x n , y n } } { { x 1 , y 1 } , … , { x n , y n } } ,在原始的 sample-pair-based 的算法中,我们会针对网络的两个输入计算两个导数。
对 ~ x i x i ~ 而言:
∂ G ( Ω x ; D ) ∂ Ω x = n ∑ i = 1 − ∂ ( ℓ i ~ S ( x i , y i ) ) ∂ ~ x i ∂ ~ x i ∂ Ω x + ∂ Ψ ∂ Ω x ∂ G ( Ω x ; D ) ∂ Ω x = ∑ i = 1 n − ∂ ( ℓ i S ~ ( x i , y i ) ) ∂ x i ~ ∂ x i ~ ∂ Ω x + ∂ Ψ ∂ Ω x
对 ~ y i y i ~ 而言:
∂ G ( Ω y ; D ) ∂ Ω y = n ∑ i = 1 − ∂ ( ℓ i ~ S ( x i , y i ) ) ∂ ~ y i ∂ ~ y i ∂ Ω y + ∂ Ψ ∂ Ω y ∂ G ( Ω y ; D ) ∂ Ω y = ∑ i = 1 n − ∂ ( ℓ i S ~ ( x i , y i ) ) ∂ y i ~ ∂ y i ~ ∂ Ω y + ∂ Ψ ∂ Ω y
在上面两个公式中,Ω = { W , ϕ } Ω = { W , ϕ } ,n n 表示sample的数量。不难发现,∂ ~ x i ∂ Ω x ∂ x i ~ ∂ Ω x 和 ∂ ~ y i ∂ Ω y ∂ y i ~ ∂ Ω y 都只跟各自的输入图片有关,跟样本对中的另一张图片无关,而这一项也是重复计算的根源,所以,sample-based 的计算过程是把这两项单独提取出来,重复利用。以 ~ x i x i ~ 为例:
∂ G ( Ω x ; D ) ∂ Ω x = m ∑ i = 1 { ∂ ~ x i ∂ Ω x ∑ j ( − ∂ ( ℓ i ~ S ( x i , y j ) ) ∂ ~ x i ) } + ∂ Ψ ∂ Ω x ∂ G ( Ω x ; D ) ∂ Ω x = ∑ i = 1 m { ∂ x i ~ ∂ Ω x ∑ j ( − ∂ ( ℓ i S ~ ( x i , y j ) ) ∂ x i ~ ) } + ∂ Ψ ∂ Ω x
上式中的 y j y j 表示与 x i x i 组成一个 pair 的另一张图片。注意这里我们用m m 替换n n ,因为现在只需要针对m m 张不同的图片(n n 个样本对中可能只有m m 张x i x i 是不同的)计算导数平均值即可。
基于上述思想,论文给出了如下更加符号化的表述。对于 D D 中的每一个样本对 { x i , y i } { x i , y i } ,我们假设 z j i , 1 = x i z j i , 1 = x i ,z j i , 2 = y i z j i , 2 = y i ,其中,1 ≤ j i , 1 ≤ M x 1 ≤ j i , 1 ≤ M x ,M x + 1 ≤ j i , 2 ≤ M z ( = M x + M y ) M x + 1 ≤ j i , 2 ≤ M z ( = M x + M y ) ,M x M x 是样本 x x 的数量,M y M y 是样本 y y 的数量。同理,~ z j i , 1 = ~ x i z ~ j i , 1 = x i ~ ,~ z j i , 2 = ~ y i z ~ j i , 2 = y i ~ 。
然后,我们可以将 (13) 式改写成 sample-based 的形式:
G ( Ω ; Z ) = L ( Ω ; Z ) + Ψ ( Ω ) = N ∑ i = 1 { 1 − ℓ i [ ( P 1 ~ z j i , 1 ) T P 1 ~ z j i , 1 + ( P 1 ~ z j i , 2 ) T P 1 ~ z j i , 2 − 2 ( P 2 ~ z j i , 1 ) T P 2 ~ z j i , 2 + 2 P 3 T ~ z j i , 1 + 2 P 3 T ~ z j i , 2 + f ] } + + Ψ ( Ω ) (14) G ( Ω ; Z ) = L ( Ω ; Z ) + Ψ ( Ω ) = ∑ i = 1 N { 1 − ℓ i [ ( P 1 z ~ j i , 1 ) T P 1 z ~ j i , 1 + ( P 1 z ~ j i , 2 ) T P 1 z ~ j i , 2 − 2 ( P 2 z ~ j i , 1 ) T P 2 z ~ j i , 2 + 2 P 3 T z ~ j i , 1 + 2 P 3 T z ~ j i , 2 + f ] } + (14) + Ψ ( Ω )
其中,Ω = ( W , ϕ ) Ω = ( W , ϕ ) 。
梯度下降的导数为:
Ω = Ω − α ∂ G ( Ω ) ∂ Ω = Ω − α ( ∂ L ( Ω ) Ω + ∂ Ψ ∂ Ω ) Ω = Ω − α ∂ G ( Ω ) ∂ Ω = Ω − α ( ∂ L ( Ω ) Ω + ∂ Ψ ∂ Ω )
其中,α α 是学习率。
这里的重点是要计算 ∂ L ( Ω ) ∂ Ω ∂ L ( Ω ) ∂ Ω :
∂ L ( Ω ) ∂ Ω = ∑ j ∂ L ∂ ~ z j ∂ ~ z j ∂ Ω ∂ L ( Ω ) ∂ Ω = ∑ j ∂ L ∂ z ~ j ∂ z ~ j ∂ Ω
由于存在两个子网络分支,上式中,~ z j = ~ z j i , x z ~ j = z ~ j i , x 或 ~ z j = ~ z j i , y z ~ j = z ~ j i , y ,∂ ~ z j ∂ Ω ∂ z ~ j ∂ Ω
分别对应两个网络分支的导数(论文中 ~ z j i , x z ~ j i , x 、~ z j i , y z ~ j i , y 和 (14) 式中的 ~ z j i , 1 z ~ j i , 1 、~ z j i , 2 z ~ j i , 2 等符号混用了)。在梯度下降中,我们需要针对两个网络分支计算两次导数。
对处理 x x 的分支,计算得到:
∂ L ∂ ~ z j i , x = − ∑ j i , y 2 ℓ j i , x , j i , y ( P 1 T P 1 ~ z j i , x − P 2 T P 2 ~ z j i , y + P 3 ) ∂ L ∂ z ~ j i , x = − ∑ j i , y 2 ℓ j i , x , j i , y ( P 1 T P 1 z ~ j i , x − P 2 T P 2 z ~ j i , y + P 3 )
这里的 ℓ j i , x , j i , y ℓ j i , x , j i , y 就是 (4) 式中定义的 ℓ ( x i , y i ) ℓ ( x i , y i ) 。
另外,有些样本可能已经具备一定的区分度了,因此训练时要剔除这些样本。论文中引入一个标识函数 1 z j i , x ( z j i , y ) 1 z j i , x ( z j i , y ) ,当 ℓ j i , x , j i , y ~ S ( z j i , x , z j i , y ) < 1 ℓ j i , x , j i , y S ~ ( z j i , x , z j i , y ) < 1 时「由 (5) 式可知,此时 ( z j i , x , z j i , y ) ( z j i , x , z j i , y ) 还达不到要求的区分度」,1 z j i , x ( z j i , y ) = 1 1 z j i , x ( z j i , y ) = 1 ,否则为 0。于是,得到最终的导数公式:
∂ L ∂ ~ z j i , x = − ∑ j i , y 2 1 z j i , x ( z j i , y ) ℓ j i , x , j i , y ( P 1 T P 1 ~ z j i , x − P 2 T P 2 ~ z j i , y + P 3 ) (18) (18) ∂ L ∂ z ~ j i , x = − ∑ j i , y 2 1 z j i , x ( z j i , y ) ℓ j i , x , j i , y ( P 1 T P 1 z ~ j i , x − P 2 T P 2 z ~ j i , y + P 3 )
对于另一个分支,我们可以用同样的方法计算 ∂ L ∂ ~ z j i , y ∂ L ∂ z ~ j i , y 。
最后,把 (18) 式代回到 (17) 式,就可以得到 sample-based 的梯度公式。
论文给出了计算公式 (18) 的具体执行算法:
这个算法总结起来就是,对于每张输入图片 z j z j ,收集跟它组成 pair 的所有图片,按照公式 (18) 计算 ∂ L ∂ ~ z j ∂ L ∂ z ~ j 。
下面给出的是完整的梯度下降算法:
注意到,对于每次迭代训练的 batc h数据,算法中会将每张图片前向传播和后向传播的计算结果都保存下来,然后再针对之前提及的 sample-based 的方法计算梯度。因此,相比 sample-pair-based 的形式,我们实际上只需要对每张图片计算一次前向和后向即可,节省了大量重复计算。
样本生成
最后,在训练样本对的生成上,论文采用如下方法:
每次迭代时,先随机挑选 K 个目录(每个目录都包含两个不同的域),然后从每个目录的两个域中,分别随机挑选 O 1 O 1 和 O 2 O 2 张图片。接着,对第一个域中的每张图片 A A ,从第二个域中随机挑选若干图片和它组成样本对,注意,从第二个域中挑选的图片,有一半和 A A 属于同一目录,另一半与 A A 属于不同目录。
参考
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· .NET10 - 预览版1新功能体验(一)