06 2020 档案
摘要:尽管深度结构在许多任务中都有效,但它们仍然受到一些重要限制。尤其是,它们容易遭受灾难性的遗忘,即,由于需要新的类而未保留原始训练集时,当要求他们更新模型时,他们的表现很差。本文在语义分割的背景下解决了这个问题。当前的策略无法完成此任务,因为他们没有考虑语义分割的特殊方面:由于每个训练步骤仅为所有可能
阅读全文
摘要:Dissecting Catastrophic Forgetting in Continual Learning by Deep Visualization 解释深度神经网络的行为(通常被认为是黑匣子)是至关重要的,尤其是当它们已被人类生活的各个方面广泛采用时。结合可解释人工智能的发展,本文提出了一
阅读全文
摘要:A NEURAL DIRICHLET PROCESS MIXTURE MODEL FOR TASK-FREE CONTINUAL LEARNING 尽管人们对持续学习的兴趣日益浓厚,但大多数当代作品都是在相当局限的环境下进行研究的,其中任务可以清晰地区分,并且在训练过程中任务边界是已知的。但是,如果
阅读全文