Meta-RL——Efficient Off-Policy Meta-Reinforcement Learning via Probabilistic Context Variables
摘要:Meta-RL——Efficient Off-Policy Meta-Reinforcement Learning via Probabilistic Context Variables 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/ 这篇博客是“Ef
阅读全文
posted @
2021-11-23 13:04
凯鲁嘎吉
阅读(976)
推荐(0) 编辑
Meta-RL——Decoupling Exploration and Exploitation for Meta-Reinforcement Learning without Sacrifices
摘要:Meta-RL——Decoupling Exploration and Exploitation for Meta-Reinforcement Learning without Sacrifices 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/ 这篇
阅读全文
posted @
2021-11-10 15:22
凯鲁嘎吉
阅读(308)
推荐(0) 编辑
元学习——Meta-Amortized Variational Inference and Learning
摘要:元学习——Meta-Amortized Variational Inference and Learning 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/ 这篇博客是论文“Meta-Amortized Variational Inference an
阅读全文
posted @
2021-11-05 16:00
凯鲁嘎吉
阅读(1162)
推荐(1) 编辑
双层优化问题:统一GAN,演员-评论员与元学习方法(Bilevel Optimization Problem unifies GAN, Actor-Critic, and Meta-Learning Methods)
摘要:双层优化问题:统一GAN,演员-评论员与元学习方法 (Bilevel Optimization Problem unifies GAN, Actor-Critic, and Meta-Learning Methods) 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kai
阅读全文
posted @
2021-10-21 13:15
凯鲁嘎吉
阅读(5203)
推荐(1) 编辑
元学习——MAML、Reptile与ANIL
摘要:元学习——MAML、Reptile与ANIL 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/ 之前介绍过元学习——从MAML到MAML++,这次在此基础上进一步探讨,深入了解MAML的本质,引出MAML高效学习的原因究竟是快速学习,学到一个很厉害的初始
阅读全文
posted @
2021-08-18 15:05
凯鲁嘎吉
阅读(3944)
推荐(1) 编辑
元学习——Meta-Learning in Neural Networks: A Survey
摘要:元学习——Meta-Learning in Neural Networks: A Survey 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/ 这篇博文是对“Meta-Learning in Neural Networks: A Survey”的阅读理
阅读全文
posted @
2021-07-16 15:46
凯鲁嘎吉
阅读(953)
推荐(0) 编辑
元学习——从MAML到MAML++
摘要:元学习——从MAML到MAML++ 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/ Few-shot learning领域最近有了实质性的进展。这些进步大多来自于将few-shot learning作为元学习问题。Model-Agnostic Meta
阅读全文
posted @
2021-07-08 10:43
凯鲁嘎吉
阅读(2698)
推荐(1) 编辑