敌对的机器学习

对抗性机器学习是指使用恶意方法扰乱人工智能应用程序或破坏其输出。

机器学习技术的广泛应用使其成为恶意代理试图造成破坏或获得未经授权访问的热门和有价值的目标。

这是怎么一回事?

使用恶意技术影响机器学习模型的输出,通常以破坏为目的。

你有什么好处?

非常小。但对黑客来说,这是一种全新的方式,可以扰乱操作,绕过网络安全。

取舍是什么?

破坏一个机器学习应用程序需要大量该应用程序的知识。但在某些情况下,恶意代理可以使用试错法来查找漏洞。

它是如何使用的?

对抗性机器学习被用来影响机器学习输出和故意欺骗机器学习应用程序。

这是怎么一回事?


对抗性机器学习是指任何试图影响机器学习应用程序输出或利用其弱点的恶意行为。


机器学习应用程序负责从图像分类到检测可疑网络活动的所有工作,因此有很多原因可以解释为什么有人想要恶意影响他们的操作方式。



通常,对抗式机器学习涉及如何训练ML模型或使用哪些训练数据的知识。这些知识可用于创建虚假或合成数据,操纵ML模型以产生恶意结果。一个例子是使用所谓的“炫目化妆”来击败面部识别系统

你有什么好处?


对抗性机器学习对大多数企业来说,与其说是机遇,不如说是威胁。这是一个新兴的数字威胁,那些使用机器学习的人——尤其是在身份验证和访问管理等领域——需要意识到,并做好准备。



然而,在测试您自己的机器学习时,对抗性机器学习技术可能很有用,它使您能够识别漏洞并在任何不良参与者利用它们之前解决它们。


它还可以帮助改进机器学习应用程序的输出,使它们能够为您的业务和客户提供更大的价值。

取舍是什么?


对抗性机器学习本身就是使用机器学习的一种折衷。当您构建可以从新数据中学习并适应其环境的应用程序时,它们将很容易接受错误的信息,得出错误的结论,并根据错误的输入做出糟糕的决定。



通过使用预定义的数据集来训练机器学习应用程序,可以减少恶意输入的风险。然而,这仍然无助于防止旨在发现模型漏洞的试错攻击方法。

它是如何使用的?


对抗性机器学习最常见的例子是假装人为错误以绕过电子邮件垃圾过滤器。垃圾邮件发送者很快就发现,支持垃圾邮件过滤器的机器学习技术使用人为错误作为电子邮件来自真人的标志。因此,通过故意添加一些类似人类的错误,他们显著增加了恶意邮件进入你收件箱的几率。



其他例子包括操纵停车标志,使其对自动驾驶汽车或特别改装的眼镜不可见,从而愚弄面部识别算法。


这类攻击相对简单——几乎任何人都可能出于任何原因采取这种破坏性行动——给依赖机器学习来操作的技术带来了大量问题。

需要进一步的细节吗?

你想建议一个需要解码的话题吗?

请留下您的电子邮件地址,一旦准备好了,我们会与您联系的。

Baidu