摘要:
Adversarial Robustness Toolbox 是 IBM 研究团队开源的用于检测模型及对抗攻击的工具箱,为开发人员加强 AI模型被误导的防御性,让 AI 系统变得更加安全,目前支持 TensorFlow 和 Keras 框架,未来预计会支持更多框架。 支持以下攻击和防御的方法 Dee 阅读全文
摘要:
https://atlas.mitre.org/ MITRE ATLAS™(人工智能系统的对抗性威胁全景)是基于真实世界观察、机器学习红队和安全小组的演示的机器学习 (ML) 系统的对抗性策略、技术和案例研究的知识库,以及来自学术研究的可能状态。ATLAS 以MITRE ATT&CK ®框架为蓝本, 阅读全文
摘要:
能逃避机器学习检测的 Cerber 勒索变种 2017-08-01 1184 简介: 摘要 CERBER勒索家族已经被发现通过一种新技术来逃避检测:使用了一种新的方法用加载出来的程序来逃避机器学习检测技术。其被设计为把一个二进制文件掏空,然后把CERBER的代码替换进去,再使用其他手段加载运行。 行 阅读全文