RSA 2022人工智能安全洞察——在对抗中前进
RSA 2022人工智能安全洞察——在对抗中前进
李智华 中科院博士,华为安全AI算法专家
人工智能和机器学习在安全中的应用是一个屡见不鲜的话题,同样在2022 RSA大会中出现了围绕AI/ML为重点的焦点议题。此次会议中重点探讨了AI对抗和隐私合规问题,还有时下热门的零信任、API安全和威胁狩猎等。
表1 RSA 2022人工智能安全议题
类别 |
话题 |
演讲者来源 |
一句话总结 |
AI对抗 |
Fake or Real, Catch Me if You Can. A Real Life Event Using Deepfake Tech |
SAP |
利用收集的语音和图像样本,构建深度虚假社会形象 |
Measuring the Difference: Metric Development at NCCoE’s Securing AI Testbed |
NIST |
利用NCCoE的安全AI测试平台Dioptra评估人工智能防御模型脆弱性 |
|
Adversarial Machine Learning - Learn Why and How to Break AI! |
IBM |
对抗机器学习,通过IBM ART工具,以欺骗或破坏基于AI的应用程序 |
|
Red Teaming AI Systems: The Path, the Prospect and the Perils |
Google、Microsoft和MITRE |
主打各厂商AI对抗工具Counterfit、Augly、ART以及Mitre的ATLAS |
|
Generative Email Attacks and How to Defend Against Them (Session Viewing Point) |
Armorblox |
文本生成技术如何用于钓鱼攻击、生成虚假角色和博客文章,安全防御如何应对 |
|
隐私合规 |
Privacy and Compliance for AI – Open Source Tools and Industry Perspective |
IBM |
通过IBM APT开源工具实现AI模型的隐私和合规性 |
Can Innovation and Regulation Coexist? |
Microsoft |
在保护创新的同时,如何构建合规和隐私保护的AI系统 |
|
It's Not Fair! Detecting Algorithmic Bias with Open Source Tools |
SailPoint |
AI道德问题,讨论通过一些开源工具来如aequitas检测AI算法偏见 |
|
AI: Legal and Policy Considerations and Landmines to Avoid |
Paul Hastings LLP |
探讨欧盟和美国的法律和政策应对人工智能合规问题 |
|
What Matters Most |
Harvard Kennedy School |
探讨涉及云计算、地缘政治、供应链、隐私、国家安全、物联网、人工智能和最新网络安全问题 |
|
Better Bug Bounties? Lessons on Disclosure of Security Vulns v. AI Harms |
PayPal |
分享算法正义联盟(Algorithmic Justice League)最近进行的研究结果 |
|
xGitGuard: ML-Based Secret Scanner for GitHub |
Comcast |
通过xGitGuard帮助开发人员检查发布到GitHub的代码中是否存在敏感信息 |
|
零信任 |
Why Zero Trust Network Access is Broken, and How to Fix It |
Jefferies |
随时随地的远程办公对传统安全体系结构带来的挑战 |
PKI, Crypto, and Machine Identities: Keys to IAM Strategy |
Keyfactor |
PKI、加密、机器身份在IAM中的使中快速增长 |
|
Can You Hear Me Now? Security Implications of Voice as the New Keyboard |
Venable LLP |
依赖语音的生物识别存在的风险和挑战 |
|
Zero Trust's New Frontier: Application Workloads |
TRUEFORT |
如何通过workload segmentation降低攻击风险 |
|
API安全 |
BoF: IOCs in your APIs - How to Find the Attacks |
Cequence Security |
通过共享IOC查找API账户接管等自动化攻击行为 |
威胁分析&狩猎 |
CHRYSALIS: Age of the AI-Enhanced Threat Hunters & Forensicators |
One eSecurity |
通过DS4N6工具集增强威胁狩猎 |
Conti Playbook: Infiltrate the Most Profitable Ransomware Gang |
Vectra AI |
通过Conti勒索团伙攻击案例演示如何防御APT |
|
The Challenges of Building Safe End-to-End Encrypted Services for Business |
|
使用端到端加密服务在E2EE中提供的价值和工作方式,利弊权衡 |
|
Machine Learning to Ultimately Defeat Advanced Ransomware Threats |
Acronis |
通过机器学习和堆栈分析应对高级勒索软件威胁 |
|
响应处置 |
Don't Let Nostalgia Slow You Down. Investigate & Respond at Cloud Speed |
Cado Security |
如何使安全团队能够自动化调查和响应违规行为 |
AI加速 |
Adaptively Fingerprinting Users/Applications at Scale with GPU Acceleration |
Nvidia |
使用Morpheus开源框架实现自适应恶意行为检测 |
AI评估 |
Assessing Vendor AI Claims like a Data Scientist, Even if You Aren't One |
Sophos |
非AI的专家如何评估供应商的AI系统规格声明 |
以智能对抗智能是数字化时代下的安全趋势
在数字化转型时代,对抗愈发严峻,攻击工具更加智能化。相信有过安全分析工作经验的人都对ATT&CK矩阵并不陌生,而对抗性机器学习威胁矩阵ATLAS(全称Adversarial Threat Landscape for Artificial-Intelligence Systems)参照了ATT&CK矩阵技术的框架设计,在机器学习攻防技术博弈的发展上,框架植入了一系列精心策划的漏洞和攻击行为,使安全分析师能够定位对机器学习系统的攻击。
图1 对抗性机器学习威胁矩阵ATLAS
在RSA大会的实际攻击案例中,来自SAP公司的漏洞管理人员分享了利用收集的图像、语音样本,构建深度虚假社会形象进行网络攻击,使得网络攻击更加智能化。为了防范此类攻击,建议大家不要在社交媒体上留存过多的视频和图片,避免被攻击者收集滥用。
NIST的安全人员在《Measuring the Difference: Metric Development at NCCoE’s Securing AI Testbed》话题中分享了如何利用NCCoE的安全AI测试平台Dioptra评估人工智能防御模型脆弱性,演讲者首先介绍了AI模型的三种常见攻击手段:(1)样本投毒:在训练样本中进行投毒;(2)模型逃逸:改变模型预测值;(3)反向工程:进行反向工程窃取模型或数据集。
图2 AI图像预测中的逃逸案例
最后,分享者介绍了如何使用Dioptra工具进行AI模型的加固,包括使用数据增强、进行模型推理前的预处理等。
除了Dioptra工具外,此次大会上还有例外一款工具值得注意——Adversarial Robustness Toolbox(简称ART),ART是 IBM 研究团队开源的用于检测模型及对抗攻击的工具箱,为开发人员加强 AI模型的防御性,让 AI 系统变得更加安全,目前支持 TensorFlow 和 Keras深度学习,同时也支持传统机器学习。
图3 “以智能对抗智能”,用于红队和蓝队的ART工具
该工具支持的AI模型对抗攻击类型:
l Deep Fool
l Fast Gradient Method
l Jacobian Saliency Map
l Universal Perturbation
l Virtual Adversarial Method
l C&W Attack
l NewtonFool
对应的防御类型有:
l Feature squeezing
l Spatial smoothing
l Label smoothing
l Adversarial training
l Virtual adversarial training
由于安全的本质是攻防技术的不断对抗。对应防御方,以智能对抗智能是“正着”,ART工具可以说是以智能对抗智能的一个典型案例。微软、谷歌和MITRE在《Red Teaming AI Systems: The Path, the Prospect and the Perils》话题中共同表明了红队AI是未来,但随着AI对抗,需要更多的工具和框架来保护组织中的AI系统。微软提出的AI风险管理评估框架建议机器学习工程师从多个维度来评估AI模型的影响和风险。
图4 微软的AI风险管理评估框架
以智能对抗智能是当前对抗AI类攻击的主要手段,包括智能威胁分析、狩猎和自动化的响应处置,大会上来自One eSecurity 和Acronis的研究人员分别分享了如何通过 DS4N6 AI工具集(集成了大量的异常检测算法)增强威胁狩猎,基于机器学习和堆栈分析应对无文件勒索高级威胁,在云安全环境下如何使能安全团队进行自动化调查和响应违规行为。
AI的双刃剑:AI隐私合规问题亟需解决
当然,伴随着人工智能技术的应用,它在为人们带来便利的同时,也暴露出一些问题,例如算法歧视、不公平、缺乏隐私和安全性等。因此,如何以负责的、符合伦理要求的方式使用AI,成为业界关注的焦点之一。
图5 可信AI 8原则:可复现、健壮、公平、隐私、可解释、可问责、透明、安全
解决AI隐私合规问题的“四方法”,首先最重要的是强化规则制定与立法,让组织机构必须清楚了解目前适用于AI领域的隐私要求,才能为AI和机器学习应用建立一个合规的数据保护计划。在本次RSA大会上,重点探讨了欧盟和美国的法律和政策应对人工智能合规问题。
其次,一些安全联盟的参与也至关重要,例如联合国教科文组织(UNESCO)发布的《AI伦理问题建议书》,欧洲理事会的报告《AI系统的监管》,经济合作与发展组织(OECD)的《AI原则》,以及欧盟委员会AI高级别专家组制定的《可信AI伦理指南》。在此次RSA大会上,由算法正义联盟(Algorithmic Justice League,简称AJL)分享了他们的最新研究结果。AJL是一家位于马萨诸塞州剑桥市的数字倡导性非营利组织,由计算机科学家Joy Buolamwini于2016年创立,通过研究、政策宣传来提高社会对人工智能在社会中的使用以及人工智能对社会造成的危害和偏见的认识。
图6 解决AI隐私合规问题的“四方法”
最后是AI风险管理框架和工具支撑,NIST研究人员在大会上介绍通过AI RMF框架解决AI系统可信和风险问题,必须处理好AI治理原则与隐私保护之间的关系。在可执行层面,IBM的AI隐私工具集(ai-privacy-toolkit)通过数据匿名化和最小化帮助开发者解决低维表格类数据的隐私问题,当然模型精度会有所下降,大约2%左右。
图7 IBM的ai-privacy-toolkit实现数据匿名化效果
针对AI模型是否存在偏见,大会上来自SailPoint的在《It's Not Fair! Detecting Algorithmic Bias with Open Source Tools》话题中提到的aequitas工具能够帮助你评估AI模型的偏见问题,感兴趣的读者可以亲自尝试一下。
图8 aequitas工具评估AI模型偏见问题
更多的优秀工具,笔者都一一汇总在下表中。
表2 优秀的开源AI隐私合规类工具
类型 |
工具 |
地址 |
AI可解释性 |
Lime |
|
SHAP |
||
Google What-if? |
||
AI偏见 |
Aequitas |
|
Fairness Comparison |
||
AI Fairness 360 |
||
FairML |
||
数据隐私保护 |
ai-privacy-toolkit |
|
xGitGuard |
RSA大会上的其他AI议题,还包括了AI在零信任的应用。由于受到新冠疫情影响,远程办公对传统安全体系结构带来的挑战。大会上分享了PKI、加密、机器身份在IAM中的快速增长,以及如何通过workload segmentation降低攻击风险等。
结语
从本次会议看,人工智能安全可谓在对抗中前进:人工智能除了要解决用户关注的隐私合规问题外,还需要解决AI对抗类攻击。以智能对抗智能是当前对抗AI类攻击的主要手段,而如何在对抗中“获得先手”,获取防御主动地位,是AI安全要解决的核心问题,也是安全攻防的痛点。