随笔分类 -  连续学习

摘要:前置知识:【EM算法深度解析 - CSDN App】http://t.csdnimg.cn/r6TXM Motivation 目前的语义分割通常采用判别式分类器,然而这存在三个问题:这种方式仅仅学习了决策边界,而没有对数据分布进行建模;每个类仅学习一个向量,没有考虑到类内差异;OOD数据效果不好。生 阅读全文
posted @ 2023-12-07 20:58 脂环 阅读(121) 评论(0) 推荐(0) 编辑
摘要:前置知识:VAE(可以参考https://zhuanlan.zhihu.com/p/348498294) Motivation 之前的方法通常使用判别式分类器,对条件分布p(y|x)进行建模(classifier+softmax+ce)。其问题在于分类器会偏向最新学的类别, 阅读全文
posted @ 2023-12-07 11:13 脂环 阅读(68) 评论(0) 推荐(0) 编辑
摘要:摘要 本文的主要贡献是提出了一种连续学习的方法L2P,可以自动学习提示(Prompt)一个预训练的模型,从而能够在学习一系列的任务的同时减轻灾难性遗忘,并且这个过程无需使用记忆回放等方法。本文的方法中提示是小的可学习的参数,最终目的是优化提示从而在保证可塑性的同时指导模型的预测以及明确地管理任务变量 阅读全文
posted @ 2023-01-29 21:34 脂环 阅读(703) 评论(0) 推荐(0) 编辑
摘要:摘要 作者首先回顾CLIP,说道使用图像-文本对进行大规模预训练得到的模型可以很容易迁移到下游任务。然后指出目前还没有人做过将从图像-文本对学到的知识应用于密集预测任务的工作。由此引出本文的核心,即作者提出了一个密集预测框架,将图像-文本匹配问题转化为像素-文本匹配问题,利用图像的上下文信息指导语言 阅读全文
posted @ 2022-10-11 22:25 脂环 阅读(635) 评论(0) 推荐(0) 编辑
摘要:SSUL: Semantic Segmentation with Unknown Label for Exemplar-based Class-Incremental Learning 论文阅读笔记 摘要 之前对于类增量语义分割的算法无法完全解决导致灾难性遗忘的关键问题:背景漂移以及多标签预测。因此 阅读全文
posted @ 2022-09-09 10:34 脂环 阅读(322) 评论(0) 推荐(0) 编辑
摘要:Incremental Learning Techniques for Semantic Segmentation 论文阅读笔记 摘要 当需要增量学习新任务时,由于灾难性的遗忘,深度学习架构表现出严重的性能下降。 之前增量学习框架专注于图像分类和对象检测,本文正式提出了语义分割的增量学习任务。作者设 阅读全文
posted @ 2022-09-08 20:16 脂环 阅读(231) 评论(0) 推荐(0) 编辑
摘要:PLOP: Learning without Forgetting for Continual Semantic Segmentation论文阅读笔记 提出了多尺度的局部池化蒸馏和伪标签思想,使用伪标签实现对过去类别的保留,避免背景漂移。 视频讲解:https://www.bilibili.com/ 阅读全文
posted @ 2022-09-08 19:09 脂环 阅读(486) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示
主题色彩