Reinforcement learning-based statistical search strategy for an axion model from flavor
Satsuki Nishimura, Coh Miyao, Hajime Otsuka
我们提出了一个基于强化学习的搜索策略,以探索标准模型之外的新物理学。 强化学习是机器学习方法之一,是一种强大的方法来找到具有现象学约束的模型参数。 作为具体的例子,我们专注于具有全局U(1)风味对称性的最小轴向模型。 学习的代理成功地找到了U(1)电荷分配的夸克和瘦子解决风味和宇宙学难题在标准模型中,并找到超过150个现实的夸克部门的现实解决方案,考虑到再正常化效应。 对于基于强化学习的分析发现的解决方案,我们讨论了未来实验对检测轴子的敏感性,该轴子是自发破碎U(1)的Nambu-Goldstone玻色子。 我们还研究了基于强化学习的搜索方法与传统优化方法相比,找到最佳离散参数的速度。 总之,基于强化学习策略的高效参数搜索使我们能够从 flavor 对与轴子模型相关的庞大参数空间进行统计分析。
We propose a reinforcement learning-based search strategy to explore new physics beyond the Standard Model. The reinforcement learning, which is one of machine learning methods, is a powerful approach to find model parameters with phenomenological constraints. As a concrete example, we focus on a minimal axion model with a global U(1) flavor symmetry. Agents of the learning succeed in finding U(1) charge assignments of quarks and leptons solving the flavor and cosmological puzzles in the Standar...