@wuxin1994
2017-08-20T00:36:19.000000Z
字数 1516
阅读 2421
PaperNotes
Secure
Grosse K, Papernot N, Manoharan P, et al. Adversarial Perturbations Against Deep Neural Networks for Malware Classification[J]. 2016.
现有的对神经网络鲁棒性的研究主要针对图片分类任务,因为图片的高熵决定其能够被方便地修改而在视觉上改动可以忽略。但是,将这种攻击转移到对安全更加敏感的应用,例如恶意软件探测方面, 这可能在样本生成上提出重大挑战。同时,失败可能造成严重后果。
本文探究了针对恶意软件探测的对抗攻击样本生成方法。相较于以前的计算机视觉问题,恶意软件应用场景具有如下限制:1)输入不是连续可微的,而是离散的,且通常是二分的数据。2)不受约束的视觉不变状态用同等的函数变化替代。
同时,本文证明了对抗攻击在许多不同恶意软件识别领域的可行性,训练用的数据集是DREBIN Android恶意软件数据集(D. Arp, M. Spreitzenbarth, M. Hubner, H. Gascon, and K. Rieck. DREBIN: Effective and Explainable Detection of Android Malware in Your Pocket. In Proceedings of the 2014 Network and Distributed System Security Symposium(NDSS), 2014.)。
而且,论文评估了已有的defence 方法在恶意软件应用场景下是否能够发挥作用。实验证明featur
e reduction效果不好,而distillation和re-training有比较好的前景。