LEAD:用于无源通用域自适应的学习分解
通用领域适应(UniDA)的目标是在存在协变量和标签转移的情况下进行知识转移。最近,出现了无源通用域适配(SF UniDA),可以在不访问源数据的情况下实现UniDA,由于数据保护政策,这往往更实用。主要的挑战在于确定协变量移位样本是否属于目标私有未知类别。现有的方法通过手工制作阈值或开发耗时的迭代聚类策略来解决这个问题。提出了一种新的学习分解(LEAD)思想,该思想将特征解耦为源已知和未知成分,以识别目标私有数据。从技术上讲,LEAD最初利用正交分解分析进行特征分解。然后,LEAD构建实例级决策边界,以自适应地识别目标私有数据。在各种UniDA场景中进行的广泛实验证明了LEAD的有效性和优越性。值得注意的是,在VisDA数据集的OPDA场景中,LEAD的总体H得分比GLC高出3.5%,并减少了75%的时间来推导伪标签决策边界。此外,LEAD也很有吸引力,因为它是对大多数现有方法的补充。
传统通用域适配(UniDA)和无源通用域适配图(SF-UniDA)学习分解(LEAD),如图3-30所示。
图3-30 传统通用域适配(UniDA)和无源通用域适配图(SF-UniDA)学习分解(LEAD)
在图3-30中,(a)传统通用域适配(UniDA)和无源通用域适配图(SF-UniDA)。传统的UniDA方法需要同时来自源域和目标域的数据。在SF-UniDA中,源数据仅用于预训练。通过利用目标数据和源模型进行自适应。(b)学习分解(LEAD)框架概述。伪标记是UniDA和SF UniDA的一项重要技术。主要目标是识别与公共标签集关联的目标数据,并排除目标私有标签空间内的数据。与现有的通过手工制作预测阈值或迭代全局聚类来执行私有数据识别的方法不同,从特征分解的角度来解决这个问题。其基本原理是,尽管特征空间可能发生变化,但目标私有数据预计将包含源模型正交补码(源未知)空间中的更多成分。从技术上讲,LEAD首先执行正交分解,将目标特征分解为源已知和未知部分,即
和
,
被认为是私人数据的指标。接下来,LEAD采用双分量高斯混合模型来估计
的分布。此后,LEAD设计了一个名为共同得分
的指标,该指标考虑了到目标原型和源锚点(从
导出)的距离,以促进导出实例级决策边界
。LEAD提供了一个优雅的解决方案来区分目标私有数据,减少了繁琐的手工阈值调整或对耗时的迭代聚类的依赖。LEAD还可以作为大多数现有SF-UniDA方法的补充方法。