@wuxin1994
2017-08-29T23:03:06.000000Z
字数 1278
阅读 1932
PaperNotes
Secure
Zantedeschi V, Nicolae M I, Rawat A. Efficient Defenses Against Adversarial Attacks[J]. 2017.
本论文提出了一种基于实际观察的有效的defence方法,容易整合到模型中,并且比目前而言最好的defence策略表现效果更好。其主要的策略是增强深度神经网络的结构,从而使预测更加稳定,不易被对抗样本迷惑。同时,文章还与其他defence方法在不同attack策略,黑盒以及白盒攻击的情境下进行了对比。而且,本文提出的增强神经网络结构的方法,并没有为初始深度神经网络模型带来训练上的负担和训练效果的负优化。
本文提出的新的defence方法,从两个角度入手:
1. 受限ReLU:传统的神经网络激活函数会用到ReLU函数,但是在面对对抗攻击时,往往从输入来的一个小的扰动会沿着神经网络一直累积到模型的输出,这会体现在最终的输出中,导致输出一个错误的分类结果。而本文提出了一种ReLU激活函数的改进版本,即是受限ReLU。其定义为:
这里的t根据输入的范围设定,最终传统的ReLU激活函数,会受限于t的大小和学习到的层级间的权重,因此可以增强网络的稳定性。
论文中有一句话概括了当前在对抗攻击方向上的研究:While numerous hypotheses compete to provide an explanation for adversarial samples, their root cause still remains largely unknown. The quest of understanding this phenomenon has turned into an arms race of attack and defense strategies.
和深度神经网络类似,在对抗攻击原理的理解的假说有很多,但是假说终归是假说,其根本原理还是有很大的未知性。而目前对这种对抗攻击原理的探索,就是通过对attack和defence策略的相互提高进步得来的。每有一种效果更好的attack策略和defence策略的提出,都是在向理解其根本原理进步。
深度神经网络的原理本来就处于很难被理解的状态,为什么能发挥作用也是黑盒。而本文通过加强深度神经网络结构来达到defence目的的方法,也是建立在对对抗攻击原理不了解的基础上的。