随笔分类 -  迁移学习

摘要:迁移学习:互信息的变分上下界在机器学习,尤其是涉及异构数据的迁移学习/联邦学习中,我们常常会涉及互信息相关的优化项,我上半年的第一份工作也是致力于此。其思想虽然简单,但其具体的估计与优化手段而言却大有门道,我们今天来好好总结一下,也算是对我研一下学期一个收尾。为了解决互信息估计的的难解性,我们的方法是不直接对互信息进行估计,而是采用变分近似的手段,来得出互信息的下界/上界做为近似,转而对互信息的下界/上界进行最大化/最小化。 阅读全文
posted @ 2023-09-21 00:22 orion-orion 阅读(2372) 评论(6) 推荐(3) 编辑
摘要:寻找领域不变量:从生成模型到因果表征在迁移学习/领域自适应中,我们常常需要寻找领域不变的表征(Domain-invariant Representation),这种表示可被认为是学习到各领域之间的共性,并基于此共性进行迁移。而获取这个表征的过程就与深度学习中的“表征学习”联系紧密。生成模型,自监督学习/对比学习和最近流行的因果表征学习都可以视为获取良好的领域不变表征的工具。 阅读全文
posted @ 2022-09-26 01:18 orion-orion 阅读(1357) 评论(0) 推荐(2) 编辑
摘要:多任务学习中的数据分布问题今天这个专题源于我在做联邦/分布式多任务学习实验时在选取数据集的时候的疑惑,以下我们讨论多任务学习中(尤其是在分布式的环境下)如何选择数据集和定义任务。多任务学习最初的定义是:"多任务学习是一种归纳迁移机制,基本目标是提高泛化性能。多任务学习通过相关任务训练信号中的领域特定信息来提高泛化能力,利用共享表示采用并行训练的方法学习多个任务"。然而其具体实现手段却有许多(如基于神经网络的和不基于神经网络的,这也是容易让人糊涂的地方),但是不管如何,其关键点——**共享表示**是核心。 阅读全文
posted @ 2021-11-29 22:50 orion-orion 阅读(899) 评论(1) 推荐(2) 编辑
摘要:基于正则化的多任务学习最近导师让我做分布式多任务学习方面的工作,我开始着手阅读这方面的论文并归纳一个大致的速览。首先,我们看看什么是多任务学习,然后我们主要聚焦于基于正则化的多任务学习方法(这也是目前学术界主要的并行对象),并在此基础上讨论如何分布式并行。类似于迁移学习,多任务学习也运用了知识迁移的思想,即在不同任务间泛化知识。但二者的区别在于:迁移学习可能有多个源域;而多任务学习没有源域而只有多个目标域;且迁移学习注重提升目标任务性能,并不关心源任务的性能(知识由源任务→目标任务;而多任务学习旨在提高所有任务的性能(知识在所有任务间相互传递)。 阅读全文
posted @ 2021-10-29 16:22 orion-orion 阅读(2209) 评论(0) 推荐(1) 编辑

点击右上角即可分享
微信分享提示