打 multi-fidelity RL 旗号,但是幼稚监督学习 + 迁移学习
- 文章名称:Multi-fidelity reinforcement learning framework for shape optimization
- 链接:https://www.sciencedirect.com/science/article/pii/S0021999123001134#se0020
- Journal of Computational Physics (JCP),计算力学领域 国际三大顶刊之一。
0 abstract
- 提出了一个受控的(controlled)迁移学习(transfer learning)框架(被称为 CTL),来解决 DRL 需要大量数据的问题。
- 利用来自 low-fidelity 和 high-fidelity env 的信息。
- 优化翼型的计算成本降低 30%。
2 method
- 细节:一个 episode 长度为 1… wait 这算什么 RL 呀?😖
- 首先与 low-fidelity env 交互,算法为 PPO。
- 维护一个
,防止过拟合 low-fidelity env。 ,其中 是长度为 k 的 look-back window 的 reward 的方差。 - 如果 agent 在学,那么 β 应当变小,因为越来越熟练的 agent 在最近这段时间的表现会越来越稳定。(也可能是稳定输出离谱 action 呢?😈)
- 定义一个 Γ = 0.3,如果 β<Γ,那么我们认为在 low-fidelity env 上学足够了,去 high-fidelity env。
为什么这种工作能发顶刊??😫
本文作者:MoonOut
本文链接:https://www.cnblogs.com/moonout/p/17321741.html
版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 2.5 中国大陆许可协议进行许可。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步