凯鲁嘎吉
用书写铭记日常,最迷人的不在远方

随笔分类 -  Meta Learning

Meta-RL——Efficient Off-Policy Meta-Reinforcement Learning via Probabilistic Context Variables
摘要:Meta-RL——Efficient Off-Policy Meta-Reinforcement Learning via Probabilistic Context Variables 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/ 这篇博客是“Ef 阅读全文
posted @ 2021-11-23 13:04 凯鲁嘎吉 阅读(976) 评论(5) 推荐(0) 编辑
Meta-RL——Decoupling Exploration and Exploitation for Meta-Reinforcement Learning without Sacrifices
摘要:Meta-RL——Decoupling Exploration and Exploitation for Meta-Reinforcement Learning without Sacrifices 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/ 这篇 阅读全文
posted @ 2021-11-10 15:22 凯鲁嘎吉 阅读(308) 评论(0) 推荐(0) 编辑
元学习——Meta-Amortized Variational Inference and Learning
摘要:元学习——Meta-Amortized Variational Inference and Learning 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/ 这篇博客是论文“Meta-Amortized Variational Inference an 阅读全文
posted @ 2021-11-05 16:00 凯鲁嘎吉 阅读(1162) 评论(0) 推荐(1) 编辑
双层优化问题:统一GAN,演员-评论员与元学习方法(Bilevel Optimization Problem unifies GAN, Actor-Critic, and Meta-Learning Methods)
摘要:双层优化问题:统一GAN,演员-评论员与元学习方法 (Bilevel Optimization Problem unifies GAN, Actor-Critic, and Meta-Learning Methods) 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kai 阅读全文
posted @ 2021-10-21 13:15 凯鲁嘎吉 阅读(5203) 评论(2) 推荐(1) 编辑
元学习——MAML、Reptile与ANIL
摘要:元学习——MAML、Reptile与ANIL 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/ 之前介绍过元学习——从MAML到MAML++,这次在此基础上进一步探讨,深入了解MAML的本质,引出MAML高效学习的原因究竟是快速学习,学到一个很厉害的初始 阅读全文
posted @ 2021-08-18 15:05 凯鲁嘎吉 阅读(3944) 评论(0) 推荐(1) 编辑
元学习——Meta-Learning in Neural Networks: A Survey
摘要:元学习——Meta-Learning in Neural Networks: A Survey 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/ 这篇博文是对“Meta-Learning in Neural Networks: A Survey”的阅读理 阅读全文
posted @ 2021-07-16 15:46 凯鲁嘎吉 阅读(953) 评论(0) 推荐(0) 编辑
元学习——从MAML到MAML++
摘要:元学习——从MAML到MAML++ 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/ Few-shot learning领域最近有了实质性的进展。这些进步大多来自于将few-shot learning作为元学习问题。Model-Agnostic Meta 阅读全文
posted @ 2021-07-08 10:43 凯鲁嘎吉 阅读(2698) 评论(0) 推荐(1) 编辑