• 博客园logo
  • 会员
  • 周边
  • 众包
  • 新闻
  • 博问
  • 闪存
  • 赞助商
  • Chat2DB
    • 搜索
      所有博客
    • 搜索
      当前博客
  • 写随笔 我的博客 短消息 简洁模式
    用户头像
    我的博客 我的园子 账号设置 会员中心 简洁模式 ... 退出登录
    注册 登录
将者,智、信、仁、勇、严也。
Hi,我是李智华,华为-安全AI算法专家,欢迎来到安全攻防对抗的有趣世界。
博客园    首页    新随笔    联系   管理    订阅  订阅

MITRE ATLAS™ 人工智能系统的对抗性威胁全景——里面还有一些案例,可以参考,不过目前缺失防御技术

https://atlas.mitre.org/

MITRE ATLAS™(人工智能系统的对抗性威胁全景)是基于真实世界观察、机器学习红队和安全小组的演示的机器学习 (ML) 系统的对抗性策略、技术和案例研究的知识库,以及来自学术研究的可能状态。ATLAS 以MITRE ATT&CK ®框架为蓝本,其战术和技术与 ATT&CK 中的相辅相成。

ATLAS 使研究人员能够驾驭 机器学习系统面临的威胁 。ML 越来越多地用于各种行业。ML 中存在越来越多的漏洞,它的使用增加了现有系统的攻击面。我们开发了 ATLAS 来提高对这些威胁的认识,并以安全研究人员熟悉的方式呈现它们。

下面的 ATLAS 矩阵从左到右显示了攻击中使用的策略的进展情况,ML 技术属于下面的每个策略。单击链接以了解有关每个项目的更多信息,或使用顶部导航栏上的链接查看 ATLAS 战术和技术。

侦察 资源开发 初始访问 机器学习模型访问 执行 持久性 防御规避 发现 收藏 机器学习攻击分期 渗出 影响
5 种技术 7 种技术 2 种技术 4 种技术 1 种技术 2 种技术 1 种技术 3 种技术 2 种技术 4 种技术 2 种技术 6 种技术
搜索受害者的公开研究材料
=
 
搜索公开可用的对抗性漏洞分析
 
搜索受害者拥有的网站
 
搜索应用程序存储库
 
主动扫描
 
获取公共 ML 工件
=
 
获得能力
=
 
开发对抗性机器学习攻击能力
 
获取基础设施
=
 
发布中毒数据集
 
毒药训练数据
 
建立账户
 
机器学习供应链妥协
=
 
有效账户
 
机器学习模型推理 API 访问
 
支持机器学习的产品或服务
 
物理环境访问
 
完整的 ML 模型访问
 
用户执行
=
 
毒药训练数据
 
后门机器学习模型
=
 
规避 ML 模型
 
探索机器学习模型本体
 
发现 ML 模型系列
 
发现机器学习工件
 
ML 工件集合
 
来自信息存储库的数据
 
创建代理 ML 模型
=
 
后门机器学习模型
=
 
验证攻击
 
制作对抗性数据
=
 
通过 ML Inference API 进行渗透
=
 
通过网络手段渗透
 
规避 ML 模型
 
拒绝机器学习服务
 
使用箔条数据向 ML 系统发送垃圾邮件
 
侵蚀 ML 模型的完整性
 
成本收集
 
ML 知识产权盗窃
posted @ 2022-06-22 10:31  bonelee  阅读(559)  评论(0)    收藏  举报
刷新页面返回顶部
博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3