Online Continual Learning with Maximally Interfered Retrieval---阅读笔记

Online Continual Learning with Maximally Interfered Retrieval---阅读笔记

摘要:

本文主要提出了一种可控的样本采集策略的重放方法。我们检索受干扰最大的样本,即它们的预测将受到预测参数更新的最大负面影响。

1 Introduction

人工神经网络在完成个体狭窄任务方面的性能已经超过了人类的水平。然而,与能够不断学习和执行无限数量的任务的人类智力相比,这种成功仍然是有限的。人类一生中学习和积累知识的能力对现代机器学习算法,特别是神经网络来说一直是一个挑战。从这个角度来看,持续学习的目标是通过为人工智能代理提供从非固定的、无源不断的数据流中在线学习的能力,从而获得更高水平的机器智能。这是这种永无休止的学习过程的一个关键部分是克服灾难性遗忘。到目前为止开发的解决方案通常将持续学习的问题简化为更容易的任务增量设置,其中数据流可以划分为边界明确的任务,每个任务都是离线学习的。这里的一个任务可以是识别手写的数字,而另一种不同类型的车辆。

根据关于先前任务数据的信息如何被存储和用于减轻遗忘和潜在地支持新任务的学习,现有的方法可以分为三个主要的类型。这些方法包括存储先前样本的基于重放的方法,添加和删除组件的动态架构,以及依赖于正则化的优先聚焦的方法。

在这项工作中,我们考虑一个在线连续设置,其中样本流只看到一次,并且不是iid。这是一个比更温和的增量任务假设更困难和更现实的设置,可以在实践中遇到,例如社交媒体应用程序。我们关注的是基于重放的方法,与其他方法相比,该方法已被证明在在线持续学习设置中被证明是成功的。在这类方法中,以前的知识要么直接存储在重放缓冲区中,要么被压缩在生成模型中。当从新数据中学习时,旧的例子会从回放缓冲区或生成模型中复制。

在这项工作中,假设有一个重放缓冲区或生成模型,我们将注意力转向回答当收到新样本时,应该从以前的历史中重播什么样本的问题。考虑到模型的估计参数更新,我们选择检索遭受损失增加的样本。这种方法也从神经科学中获得了一些动机,其中先前记忆的重放被假设存在于哺乳动物的大脑中,但可能不是随机的。类似的机制可能发生,以适应最近的事件,同时保留旧的记忆。

我们表示了我们的方法,最大限度地干扰检索(MIR),并提出了使用存储的记忆和生成模型的变体。

2 Related work

持续学习的主要挑战是一旦获得新知识,先前知识的灾难性遗忘,这与生物和人工神经网络中存在的稳定性/可塑性困境密切相关。虽然这些问题在早期的研究工作中被研究,但自从神经网络的复兴以来,它们受到越来越多的关注。

已经发展了几种方法来预防或减轻灾难性的遗忘现象。在固定的架构设置下,可以确定两个主要的工作: i)方法依赖于回放样本或虚拟(生成)样本从以前的历史而学习新的和ii)方法编码之前的任务的知识之前用于规范化的训练新任务。虽然先前关注的方法可能在具有少量不相交任务的任务增量设置中很有效,但当任务相似和训练模型面对长序列时,这个家庭往往表现较差。

从以前的历史中重放的样本可以用来约束基于新样本的参数更新,以保持在前一个的可行区域,或者用于排练。在这里,我们考虑一种对以前历史的样本的排练方法,因为它是约束优化方法更便宜和有效的替代方法。排练方法通常使用来自缓冲区的随机样本,或来自根据先前数据训练的生成模型的伪样本。这些工作在离线增量任务设置中显示出了很有希望的结果,最近被扩展到在线设置,其中一系列的任务形成了一个非i.i.d.一次考虑一个或几个样本。然而,在在线设置中,给定有限的计算预算,不能每次重放所有缓冲样本对于选择要重播的最佳候选人变得至关重要。在这里,我们提出了一个比随机抽样更好的策略来改善学习行为和减少干扰。持续学习最近也被研究用于学习生成模型的案例。使用了一个自动编码器来存储压缩表示,而不是原始样本。在这项工作中,我们将利用这一研究方向,并将首次考虑在在线持续学习设置中的生成式建模。

3 Methods

我们的目标是学习一个由θ参数化的分类器f,它使数据流中新样本的预定义损失L最小化,而不干扰或增加之前观察到的样本的损失。鼓励这种情况的一种方法是对存储历史中的旧样本进行更新,或者对基于以前数据训练的生成模型进行更新。我们建议的主要思想是,我们不是使用从以前的历史中随机选择或生成的样本,而是发现受到最大新传入样本(s)的干扰的样本。这是由于观察到,对以前的一些样本的丢失可能不会受到影响,甚至会得到改进,因此对它们进行再训练是一种浪费。

3.1 Maximally Interfered Sampling from a Replay Memory

我们首先在经验重放(ER)的上下文中实例我们的方法,这是一种最近成功的排练方法,它存储了以前样本的一小部分,并使用它们来增加传入的数据。在这种方法中,learner被分配一个有限大小的内存M,当样本流到达时,通过使用水库采样进行更新。通常,样本是从内存中随机抽取的,并与传入的批处理相连接起来。给定一个标准的目标minθL(fθ(Xt),Yt) ,当接收到样本Xt 时,我们估计输入批次的参数更新为θv=θαL(fθ(Xt),Yt) 我们现在可以使用该准则sMI1(x)=l(fθv(x),y)l(fθ(x),y)搜索前k值xM ,其中l是样本损失。我们还可以增加内存,以额外存储迄今为止观察到的最佳l(fθ(x),y) 即为l(fθ(x),y) 。因此,我们可以进行评估sMI2(x)=l(fθv(x),y)min(l(fθ(x),y),l(fθ(x),y))

3.2 Maximally Interfered Sampling from a Generative Model

我们现在考虑从生成模型中回放的情况。假设一个由θ参数化的函数f和一个分别由φγ参数化的编码器qφ和解码器gγ模型。我们可以像前一节一样计算潜在的参数更新θv。我们希望在给定的特征空间数据点中找到最大的估计参数更新前后的损失之间的差异:

(1)maxZL(fθv(gγ(gγ(Z)),Y)L(fθ(gγ(Z)),Y)s.t.||zizj||22>ϵzi,zjZwithzizj

这里的θ可以对应于当前的模型参数或者历史模型的参数, 此外,y表示真实标签,即真实数据分布给生成样本的标签。我们将简短的解释如何近似这个值。我们将约束转换为正则化器,并对方程1进行优化,表示多样性项的强度为λ。从这些点上,我们重建了完整对应的输入样本X=gγ(Z),并使用它们来估计新的参数更新minθL(fθ(XtX))

为了评估公式1中的损失,我们还需要对y进行评估,一种简单的方法是基于生成回放思想存储先验模型的预测。因此,我们建议使用fθ给出的预测标签作为伪标签来估计yypre=fθ(gγ(z))y^=fθv(gγ(z)) 我们计算KL散度,作为干扰的代理。

生成模型如VAEs 可以生成模糊的图像和混合类别的图像。为了在优化过程中避免这样的噪声源,我们最小化熵惩罚,以鼓励生成对前一个模型有信心的点。基于生成器的检索的最终目标是:

maxzZ[DKLL(yprey^)αH(ypre)]s.t.zizj22>ϵzi,zjZwithzizj,(2)

到目前为止,我们已经假设有一个完美的编码器/解码器,我们使用它从以前的历史中检索被干扰的样本来进行被学习的函数。由于我们假设一个在线持续学习设置,我们需要解决编码器/解码器的学习.

对于分类器,我们也可以根据输入的样本和重放的样本来更新VAE。在等式中1我们只检索在分类器更新条件下会受到干扰的样本,假设是一个良好的特征表示。我们也可以使用相同的策略来减少生成器中的灾难性遗忘,通过检索受干扰最多的估计样本(φ,γ)。在这种情况下,干扰是关于VAE的损失,明显的下界(ELBO)。让我们表示γvφv,给定输入批处理的编码器和解码器的虚拟更新。我们考虑以下标准来检索生成器的样本:

(3)maxZgen Ezqϕv[log(pγv(gγv(Zgen )z))]Ezqϕ[log(pγ(gγ(Zgen )z))]+DKL(qϕv(zgγv(Zgen ))p(z))DKL(qϕ(zgγ(Zgen ))p(z)) s.t. zizj22>ϵzi,zjZgen  s.t. zizj

3.3 A Hybrid Approach

在像CIFAR- 10这样更具有挑战性的数据集上的持续学习设置中训练生成模型仍然是一个开放的研究问题。存储样本进行重放也有问题,因为它受到存储成本的限制,而且非常大的内存可能变得难以搜索。为了利用这两个方法的好处,同时避免训练噪声产生的复杂性。我们使用了一种混合的方法,即首先离线训练一个自动编码器来存储和压缩传入的内存。不同的是,在我们的方法中,我们使用等式在自动编码器的潜在空间中执行MIR搜索 .然后,我们从存储的压缩内存中选择最近的邻居,以确保真实的样本。我们的策略有几个好处:通过存储轻量级表示,缓冲区可以为相同的固定数量的内存存储更多的数据。此外,编码样本所在的特征空间是完全可微的。这使得使用梯度方法来搜索大多数受干扰的样本。我们注意到,这不是在中提出的离散自动编码器的情况。最后,具有更简单目标的自动编码器比变分自动编码器在在线设置中更容易进行训练。该方法在附录中总结为算法3。

4 Experiments

4.1 Experience Replay

image-20230402193137667

由上表可以观察到加上MIR的方法,精确度上升,遗忘度下降,性能提升。

image-20230402193155074

由上表可以得出内存越大,性能提升的越高

随着迭代册数的增加,性能有所提升!

ER-MIR的性能比ER的性能有所提升。

4.2 Generative Replay

4.3 Hybrid Approach

首先注意到,随着压缩样本数量的增加,我们继续看到性能的提高,这表明可以利用自动编码器获得的存储容量。我们接下来观察到,尽管AE-MIR获得了与AE-Random几乎相同的平均精度,但它在遗忘指标上实现了大幅下降,表明在学习任务的表现上有更好的权衡。

5 Conclusion

我们提出并研究了一个在在线持续学习环境中检索相关记忆的标准。我们已经在一些设置中表明,检索受干扰的样本减少了遗忘,并显著改善了随机抽样和标准基线。我们的结果和分析也阐明了在在线持续学习设置中使用生成建模的可行性和挑战。我们还展示了利用编码的记忆来实现更紧凑的记忆和更有效的检索的第一个结果。

posted @   ZLey  阅读(288)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· Docker 太简单,K8s 太复杂?w7panel 让容器管理更轻松!
点击右上角即可分享
微信分享提示