A 新 threat matrix outlines 攻击s against machine 学习ing systems

去年发布的报告有 注意到的 大多数针对人工智能(AI)系统的攻击都集中在操纵它们上(例如,影响推荐系统以偏向特定内容),但是使用机器学习(ML)的新攻击属于攻击者内部’ capabilities.

攻击s machine 学习ing systems

微软现在 对机器学习(ML)系统的攻击呈上升趋势,而MITER指出,在过去三年中,“像Google,Amazon,Microsoft和Tesla这样的主要公司都对其ML系统进行了欺骗,逃避或误导。”同时,大多数企业没有适当的工具来确保其ML系统的安全,因此正在寻求指导。

因此,Microsoft,MITRE,IBM,NVIDIA,多伦多大学,Berryville机器学习学院以及其他几家公司和教育机构的专家们决定创建该版本的第一个版本。 对抗性ML威胁矩阵,以帮助安全分析人员检测并响应这种新型威胁。

What is machine 学习ing (ML)?

机器学习是人工智能(AI)的子集。它基于摄取的计算机算法“training” 数据 and “learn”最终实现预测,决策或对事物进行准确分类。

Machine 学习ing algorithms are used for tasks like identifying spam, 检测 新威胁,预测用户偏好,执行医疗诊断等。

应内置安全性

斜接的机器学习研究员Mikel Rodriguez也是MITRE的决策科学研究计划的负责人,他说我们现在正处于AI的阶段,就像1980年代后期人们使用Internet一样,当时人们正试图建立Internet工作,以及他们何时不考虑建立安全性。

We can 学习 from that mistake, though, and that’这是创建对抗性ML威胁矩阵的原因之一。

“With this threat matrix, security analysts will be able to work with threat models that are grounded in real-world incidents that emulate adversary behavior with machine 学习ing,” he 注意到的.

他说,该矩阵还可以通过提供不同漏洞的通用语言或分类法来帮助他们进行整体思考,并促进组织之间更好的沟通和协作。

对抗性ML威胁矩阵

“与绑定到特定软件和硬件系统的传统网络安全漏洞不同,对抗性ML漏洞由ML算法所固有的局限性实现。可以采用新的方式对数据进行武器处理,这需要扩展我们对网络对手行为建模的方式,以反映新出现的威胁向量和快速发展的对抗机器学习攻击生命周期,” 斜接 注意到的.

该矩阵已在MITER ATT上建模&CK framework.

攻击s machine 学习ing systems

该小组展示了先前的袭击如何–无论是由研究人员,阅读小组还是 在线小怪 –可以映射到矩阵。

他们还强调’将在收到安全和对抗性机器学习社区的反馈后进行常规更新。他们鼓励贡献者指出新技术,提出最佳(防御)实践,并分享成功攻击机器学习(ML)系统的示例。

“我们对新的案例研究感到特别兴奋!我们期待业界和学术研究人员的贡献,” 斜接 结论.

分享这个