Testing and Improving the Robustness of Amortized Bayesian Inference for Cognitive Models
Yufei Wu, Stefan T. Radev, Francis Tuerlinckx
污染物观察和异常值在估计认知模型的参数时经常引起问题,这些模型是代表认知过程的统计模型。 在这项研究中,我们使用与神经网络的摊销贝叶斯推理(ABI)测试并改进了参数估计的稳健性。 为此,我们对玩具示例进行系统分析,并使用流行的认知模型(DDM)分析合成和真实数据。 首先,我们用稳健统计数据的工具研究ABI对污染物的敏感性:经验影响函数和分解点。 接下来,我们提出了数据增强或噪声注入方法,该方法在训练过程中将污染分布纳入数据生成过程。 我们检查了几个候选分布,并评估其相对于标准估算器的准确性和效率损失的性能和成本。 在训练过程中从Couchy分布中引入污染物,大大增加了神经密度估计器的稳健性,通过边界影响函数和更高的分解点进行测量。 总体而言,建议的方法是直接和实用的,并且在异常检测或移除具有挑战性的领域具有广泛的适用性。
Contaminant observations and outliers often cause problems when estimating the parameters of cognitive models, which are statistical models representing cognitive processes. In this study, we test and improve the robustness of parameter estimation using amortized Bayesian inference (ABI) with neural networks. To this end, we conduct systematic analyses on a toy example and analyze both synthetic and real data using a popular cognitive model, the Drift Diffusion Models (DDM). First, we study the ...