Attacks for RL

1. http://rll.berkeley.edu/adversarial/   Adversarial Attacks on Neural Network Policies

就是对test时候的policy进行构造对抗样本,方法还是用的分类对抗样本的方法,对于DQN,把Q value做个softmax,一样地构造对抗样本。

posted @   Shiyu_Huang  阅读(268)  评论(0编辑  收藏  举报
编辑推荐:
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
阅读排行:
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
历史上的今天:
2018-04-08 GRAPH ATTENTION NETWORKS
点击右上角即可分享
微信分享提示