@wuxin1994
2017-09-18T16:25:32.000000Z
字数 448
阅读 1528
Secure
调研了机器学习中对抗性攻击(Adversarial Attack)。看到一篇讲的不错的博客,讲了对抗攻击影响分类器准确率的原因,并且提到了多个对抗攻击的实例。
总结一下,随着神经网络广泛应用于图片识别、语音识别、人机交互等领域,安全问题变得越来越突出。这一方面正体现在对抗攻击对神经网络模型结果的巨大影响上。
所谓的对抗性攻击,就是人为处理模型的输入数据,让模型的输出与人预料的输出不相符。这可以用两个角度去理解。一是攻击者处理输入数据,使其人为判断不出来与真实样本的差别,但是模型输出结果与将真实样本作为输入时相差比较大;二是攻击者处理输入数据,使其让人直观感觉和真实样本相差比较大,但是作为模型输入之后,得到的输出确实一样的。
这种对抗性攻击对于机器学习中神经网络模型应用的安全性是一大挑战。举个例子,如果利用神经网络实现的无人汽车,把攻击者贴在墙上的一张纸识别成了真正的道路,那无人车的自动驾驶就会变得很危险。而对这个问题方面的探究也是一大热点。