新闻中心

微软开源Counterfit用于AI系统安全测试的自动化工具

时间: 2024-01-07 00:41:51 作者: 新闻中心

  鉴于复杂的网络攻击慢慢的变多,网络安全如今已成为微软的最要紧的麻烦。正因为如此,微软也在一直更新其安全基础设施,以保护自身免受网络安全的威胁。近日,微软通过发布一个名为 Counterfit 的新工具来解决 AI 系统安全性的问题。

  Counterfit 是微软开发的一个开源工具,用于对企业或组织的AI系统进行自动化的安全测试。鉴于AI系统在各行业中普遍的应用,其最终目标是让企业对其AI系统的稳健性和可靠性有很高的信心。微软指出,在它调查的 28 个企业/组织中,有 25 个认为他们没正确的机制来保护AI系统,他们的安全专业技术人员也没有很好地处理针对它们的威胁。

  Counterfit 最初是一套可用于攻击 AI 模型的脚本。微软首先在自己的内部测试中使用它,但现在,Counterfit 已发展成为一个自动化工具,可以大规模地攻击多个 AI 模型。该公司表示,它慢慢的变成了微软的人工智能业务的主要工具,可以用它来执行和自动化目前正在开发和生产的人工智能服务的对抗性安全测试。

  使用 Counterfit 的好处是它与环境、模型和数据无关。这在某种程度上预示着,它可以在企业内部、边缘和云端使用,以测试任何类型的人工智能模型,这些模型依赖于几乎任何形式的输入数据,包括文本和图像。

  微软表示,Counterfit 对于使用 Metasploit 或 PowerShell Empyre 的安全团队来说很容易使用。它能够适用于渗透测试和漏洞扫描,它还可以记录对AI模型的攻击,因此数据科学家可通过其遥测技术逐步加强其AI系统的安全性。

  你可以前往该开源项目的GitHub 页面:,了解更多关于 Counterfit 的信息以及如何在企业中部署它。

  理查德·斯托曼:为了自由,我决定写一个GNU操作系统 2021-05-03

上一篇:科普:无人驾驶等级介绍

下一篇:智能驾驶是什么板块