Fairness-Aware Few-Shot Learning for Audio-Visual Stress Detection
Anushka Sanjay Shelke, Aditya Sneh, Arya Adyasha, Haroon R. Lone
人工智能驱动的压力检测中的公平性对于公平的心理健康至关重要,但现有模型经常表现出性别偏见,特别是在数据匮乏的情况下。 为了解决这个问题,我们提出了FairM2S,这是一个利用视听数据进行压力检测的公平感知元学习框架。 FairM2S在元训练和适应阶段集成了均衡赔率限制,采用对抗梯度掩码和公平约束的元更新来有效缓解偏见。 根据五个最先进的基线进行评估,FairM2S实现了78.1%的准确率,同时将平等机会降至0.06,显示出可观的公平收益。 我们还发布了SAVSD,这是一个带有性别注释的智能手机捕获数据集,旨在支持低资源,现实世界环境中的公平研究。 这些贡献共同将FairM2S定位为心理健康AI中公平和可扩展的有限压力检测的最先进的方法。 我们通过本文公开发布数据集和FairM2S。
Fairness in AI-driven stress detection is critical for equitable mental healthcare, yet existing models frequently exhibit gender bias, particularly in data-scarce scenarios. To address this, we propose FairM2S, a fairness-aware meta-learning framework for stress detection leveraging audio-visual data. FairM2S integrates Equalized Odds constraints during both meta-training and adaptation phases, employing adversarial gradient masking and fairness-constrained meta-updates to effectively mitigate ...