读论文——《基于知识辅助深度强化学习的巡飞弹组动态突防决策》

地址:

http://www.co-journal.com/CN/rich_html/10.12382/bgxb.2023.0827

image



image


利用领域知识、专家知识等先验知识对巡飞弹避障模型进行探索引导,能够使算法快速学会基础规则与策略,降低算法在无效状态空间中的探索时间。模仿学习是其中最为行之有效的引导技巧之一,通过专家样本直接模仿专家策略,主要包括以下两种构造形式:1)行为克隆方法,利用采集历史经验采集或先验模型求解得到的专家轨迹对策略模型进行预训练;2)逆向强化学习,利用专家轨线反向优化回报函数,回报函数的构造形式既可以由人指定,也可以利用深度神经网络代替[24]。

本文采用行为克隆方法,引入巡飞弹避障规则知识(此处以文献[9]提出的VAAPF法为例)生成大量专家轨线,并与仿真环境交互,生成每一步实时回报。将以上历史经验轨线拆分构造成标准SAC算法经验组的形式,存入经验池、形成优质经验。这种方法能够减少算法在训练初期的大量无效探索,快速学习到有效的机动策略。

本文算法建立在知识静态不变的假设之上。当知识更新迭代时,可以利用迁移学习、增量学习等方法,在已训练好的模型基础上进行参数微调,学习新任务差异。另一方面模型学会的新策略也能为知识更新提供参考。建立知识差异性评价,构建闭环动态训练机制,是值得后续研究的开放性问题。图7为LMG突防决策算法伪代码。


image



PS:

论文中并没有给出太多细节,这个论文感觉是生搬硬套的感觉,就是要把DRL往上套,啥具体描述都没有,也说不好这个东西到底是否有用。



posted on   Angry_Panda  阅读(24)  评论(0编辑  收藏  举报

相关博文:
阅读排行:
· 微软正式发布.NET 10 Preview 1:开启下一代开发框架新篇章
· 没有源码,如何修改代码逻辑?
· PowerShell开发游戏 · 打蜜蜂
· 在鹅厂做java开发是什么体验
· WPF到Web的无缝过渡:英雄联盟客户端的OpenSilver迁移实战
历史上的今天:
2023-12-06 如何看待以色列的“全民兵役制度”
2023-12-06 韩国网费比其他国家贵10倍?—— 因网费太高,直播平台 Twitch 宣布2024年2月退出韩国市场
2022-12-06 机器学习领域中假设检验的使用
2020-12-06 【转载】 CNN训练Cifar-10技巧
2020-12-06 【转载】 ReLu(Rectified Linear Units)激活函数

导航

< 2025年2月 >
26 27 28 29 30 31 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 1
2 3 4 5 6 7 8

统计

点击右上角即可分享
微信分享提示