摘要:
教程:开始使用 Microsoft Sentinel 中的 Jupyter Notebook 和 MSTICPy 项目 2022/05/02 6 个参与者 备注 Azure Sentinel 现在称为 Microsoft Sentinel,我们将在几周内更新相关页面。 详细了解最近的 Microso 阅读全文
摘要:
EDR上进程注入可以使用。Volatility3 内存提取。--无文件攻击典型场景 项目地址:https://github.com/visma-prodsec/columbo 哥伦布和机器学习 Columbo 使用数据预处理来组织数据和机器学习模型以识别可疑行为。它的输出要么是 1(可疑)要么是 0 阅读全文
摘要:
偏见和公平审计工具包 http://aequitas.dssg.io/ 偏见报告由Aequitas提供支持,这是一个开源偏见审计工具包,供机器学习开发人员、分析师和政策制定者审计机器学习模型的歧视和偏见,并围绕开发和部署预测性风险评估工具做出明智和公平的决策。 请参阅有关 COMPAS 风险评估分数 阅读全文
摘要:
地址:https://github.com/IBM/ai-privacy-toolkit 人工智能隐私工具包 与 AI 模型的隐私和合规性相关的工具和技术的工具包。 匿名化模块包含用于匿名化 ML 模型训练数据的方法,因此当模型在匿名数据上重新训练时,模型本身也将被视为匿名。这可能有助于使模型免于 阅读全文
摘要:
微软开源AI安全风险评估工具Counterfit 地址:https://github.com/Azure/counterfit/ 目前看比ART的攻击支持多一些 如何保证AI系统的稳定性和安全性,正成为一个问题。 作者 | 王德清 近日,微软开源了AI安全风险评估工具Counterfit,该工具旨在 阅读全文
摘要:
AugLy 是一个数据增强库,目前支持四种模式(音频、图像、文本和视频)和 100 多种增强。每个模态的扩充都包含在其自己的子库中。这些子库包括基于函数和基于类的变换、组合运算符,并且可以选择提供有关所应用变换的元数据,包括其强度。 AugLy 是一个很棒的库,可用于在模型训练中扩充数据,或评估模型 阅读全文
摘要:
Adversarial Robustness Toolbox 是 IBM 研究团队开源的用于检测模型及对抗攻击的工具箱,为开发人员加强 AI模型被误导的防御性,让 AI 系统变得更加安全,目前支持 TensorFlow 和 Keras 框架,未来预计会支持更多框架。 支持以下攻击和防御的方法 Dee 阅读全文
摘要:
https://atlas.mitre.org/ MITRE ATLAS™(人工智能系统的对抗性威胁全景)是基于真实世界观察、机器学习红队和安全小组的演示的机器学习 (ML) 系统的对抗性策略、技术和案例研究的知识库,以及来自学术研究的可能状态。ATLAS 以MITRE ATT&CK ®框架为蓝本, 阅读全文
摘要:
能逃避机器学习检测的 Cerber 勒索变种 2017-08-01 1184 简介: 摘要 CERBER勒索家族已经被发现通过一种新技术来逃避检测:使用了一种新的方法用加载出来的程序来逃避机器学习检测技术。其被设计为把一个二进制文件掏空,然后把CERBER的代码替换进去,再使用其他手段加载运行。 行 阅读全文