Privacy-Preserving Explainable AIoT Application via SHAP Entropy Regularization
Dilli Prasad Sharma, Xiaowei Sun, Liang Xue, Xiaodong Lin, Pulei Xiong
人工智能(AIoT)在智能家居环境中的广泛集成放大了对透明和可解释的机器学习模型的需求。 为了培养用户信任并遵守新兴的监管框架,可解释AI(XAI)方法,特别是后技术,如Shapley Additive ExPlanations(SHAP)和Local Interpretable Model-Agnostic Explanations(LIME),被广泛用于阐明模型行为。 然而,最近的研究表明,这些解释方法可以无意中暴露敏感的用户属性和行为模式,从而引入新的隐私风险。 为了解决这些问题,我们提出了一种新的隐私保护方法,基于SHAP熵规范化,以减轻可解释的AIoT应用程序中的隐私泄漏。 我们的方法包含基于熵的正则化目标,在训练期间惩罚低熵的SHAP归因分布,促进特征贡献的更均匀传播。 为了评估我们方法的有效性,我们开发了一套基于SHAP的隐私攻击,战略性地利用模型解释输出来推断敏感信息。 我们通过比较评估验证我们的方法,使用这些攻击以及基准智能家居能耗数据集的实用指标。 实验结果表明,与基线模型相比,SHAP熵正则化大大减少了隐私泄漏,同时保持了高预测准确性和忠实的解释保真度。 这项工作有助于为安全和值得信赖的AIoT应用程序开发隐私保护可解释的AI技术。
The widespread integration of Artificial Intelligence of Things (AIoT) in smart home environments has amplified the demand for transparent and interpretable machine learning models. To foster user trust and comply with emerging regulatory frameworks, the Explainable AI (XAI) methods, particularly post-hoc techniques such as SHapley Additive exPlanations (SHAP), and Local Interpretable Model-Agnostic Explanations (LIME), are widely employed to elucidate model behavior. However, recent studies hav...