Attacks for RL

1. http://rll.berkeley.edu/adversarial/   Adversarial Attacks on Neural Network Policies

就是对test时候的policy进行构造对抗样本,方法还是用的分类对抗样本的方法,对于DQN,把Q value做个softmax,一样地构造对抗样本。

posted @ 2019-04-08 14:39  Shiyu_Huang  阅读(267)  评论(0编辑  收藏  举报