Enhanced Privacy Leakage from Noise-Perturbed Gradients via Gradient-Guided Conditional Diffusion Models
Jiayang Meng, Tao Huang, Hong Chen, Chen Hou, Guolong Zheng
联合学习通过梯度传输和聚合同步模型。 然而,这些梯度会带来严重的隐私风险,因为敏感的训练数据嵌入其中。 当梯度受到噪声干扰时,现有的梯度反转攻击会遭受显着退化的重建性能 - 一种常见的防御机制。 在本文中,我们介绍了梯度引导条件扩散模型(GG-CDM),用于从泄漏的梯度重建私有图像,而无需事先了解目标数据分布。 我们的方法利用扩散模型固有的去噪能力来规避噪声扰动提供的部分保护,从而提高了这种防御下的攻击性能。 我们进一步提供了对重建误差边界和攻击损失收敛特性的理论分析,表征了关键因素(如噪声量级和攻击模型架构重建质量)的影响。 广泛的实验证明了我们的攻击与高斯噪声扰动梯度的卓越重建性能,并证实了我们的理论发现。
Federated learning synchronizes models through gradient transmission and aggregation. However, these gradients pose significant privacy risks, as sensitive training data is embedded within them. Existing gradient inversion attacks suffer from significantly degraded reconstruction performance when gradients are perturbed by noise-a common defense mechanism. In this paper, we introduce gradient-guided conditional diffusion models for reconstructing private images from leaked gradients, without pri...