Improving Adversarial Transferability with Neighbourhood Gradient Information
Haijing Guo, Jiafeng Wang, Zhaoyu Chen, Kaixun Jiang, Lingyi Hong, Pinxue Guo, Jinglun Li, Wenqiang Zhang
众所周知,深度神经网络(DNN)容易受到对抗性例子的影响,导致性能显着下降。 在黑箱攻击场景中,代理模型和目标模型之间的相当大的攻击性能差距持续存在。 这项工作的重点是加强对抗性示例的可转移性,以缩小这种性能差距。 我们观察到,围绕干净图像的梯度信息,即邻里梯度信息(NGI ) , 可以提供高可转移性。 基于此见解,我们介绍了NGI-Attack,纳入了示例回溯和Multiplex Mask策略,以利用此梯度信息并增强可转移性。 具体来说,我们首先采用示例回溯来积累邻里梯度信息作为初始动量术语。 然后,我们使用Multiplex Mask来形成多向攻击策略,迫使网络专注于非判区,这些区域可以在几次迭代期间获得更丰富的梯度信息。 广泛的实验表明,我们的方法显著增强了对抗性转移性。 特别是,在攻击众多防御模型时,我们的平均攻击成功率达到95.2%。 值得注意的是,我们的方法可以与任何现成的算法无缝集成,增强其攻击性能,而不会产生额外的时间成本。
Deep neural networks (DNNs) are known to be susceptible to adversarial examples, leading to significant performance degradation. In black-box attack scenarios, a considerable attack performance gap between the surrogate model and the target model persists. This work focuses on enhancing the transferability of adversarial examples to narrow this performance gap. We observe that the gradient information around the clean image, i.e., Neighbourhood Gradient Information (NGI), can offer high transfer...