摘要:
微软开源AI安全风险评估工具Counterfit 地址:https://github.com/Azure/counterfit/ 目前看比ART的攻击支持多一些 如何保证AI系统的稳定性和安全性,正成为一个问题。 作者 | 王德清 近日,微软开源了AI安全风险评估工具Counterfit,该工具旨在 阅读全文
摘要:
AugLy 是一个数据增强库,目前支持四种模式(音频、图像、文本和视频)和 100 多种增强。每个模态的扩充都包含在其自己的子库中。这些子库包括基于函数和基于类的变换、组合运算符,并且可以选择提供有关所应用变换的元数据,包括其强度。 AugLy 是一个很棒的库,可用于在模型训练中扩充数据,或评估模型 阅读全文
摘要:
Adversarial Robustness Toolbox 是 IBM 研究团队开源的用于检测模型及对抗攻击的工具箱,为开发人员加强 AI模型被误导的防御性,让 AI 系统变得更加安全,目前支持 TensorFlow 和 Keras 框架,未来预计会支持更多框架。 支持以下攻击和防御的方法 Dee 阅读全文
摘要:
https://atlas.mitre.org/ MITRE ATLAS™(人工智能系统的对抗性威胁全景)是基于真实世界观察、机器学习红队和安全小组的演示的机器学习 (ML) 系统的对抗性策略、技术和案例研究的知识库,以及来自学术研究的可能状态。ATLAS 以MITRE ATT&CK ®框架为蓝本, 阅读全文
摘要:
能逃避机器学习检测的 Cerber 勒索变种 2017-08-01 1184 简介: 摘要 CERBER勒索家族已经被发现通过一种新技术来逃避检测:使用了一种新的方法用加载出来的程序来逃避机器学习检测技术。其被设计为把一个二进制文件掏空,然后把CERBER的代码替换进去,再使用其他手段加载运行。 行 阅读全文