Latent Representation Learning in Heavy-Ion Collisions with MaskPoint Transformer
Jing-Zong Zhang, Shuang Guo, Li-Lin Zhu, Lingxiao Wang and Guo-Liang Ma
高能核物理的一个核心挑战是从重离子碰撞(HIC)的高维最终状态数据中提取信息特征,以便进行可靠的下游分析。 传统方法通常依赖于选定的可观察物,这可能会错过数据中微妙但物理相关的结构。 为了解决这个问题,我们引入了一个基于Transformer的自动编码器,该自动编码器具有两个阶段的范式:自我监督的预训练,然后进行监督微调。 预训练的编码器直接从未标记的HIC数据中学习潜在表示,提供了一个紧凑且信息丰富的功能空间,可以适应不同的物理任务。 作为案例研究,我们应用该方法来区分大型和小型碰撞系统,其实现比PointNet显着更高的分类精度。 主要成分分析和SHAP解释进一步证明,自动编码器捕获了单个可观测值以外的复杂非线性相关性,具有强大的判和解释力。 这些结果建立了我们的两阶段框架,作为HIC特征学习的一般和强大的基础,为对夸克 - 胶子等离子体特性和其他新兴现象进行更强大的分析打开了大门。 可在https://github.com/Giovanni-Sforza/MaskPoint-AMPT上公布。
A central challenge in high-energy nuclear physics is to extract informative features from the high-dimensional final-state data of heavy-ion collisions (HIC) in order to enable reliable downstream analyses. Traditional approaches often rely on selected observables, which may miss subtle but physically relevant structures in the data. To address this, we introduce a Transformer-based autoencoder trained with a two-stage paradigm: self-supervised pre-training followed by supervised fine-tuning. T...