Simultaneously Solving Infinitely Many LQ Mean Field Games In Hilbert Spaces: The Power of Neural Operators
Dena Firoozi and Anastasis Kratsios and Xuwei Yang
传统的均场游戏(MFG)求解器在逐个实例的基础上运行,当许多相关问题必须解决时,这变得不可行(例如,在动态或实用程序的扰动下寻求对解决方案的有力描述,或者在涉及连续参数化的代理的设置中)。 我们通过训练神经运算符(NO)来克服这一点,从在可分离的希尔伯特空间上定义的LQ MFGs的问题数据(“规则”:动力学和成本函数)中学习规则到平衡图,以相应的平衡策略。 我们的主要结果是统计保证:在少量随机抽样规则上训练的NO可靠地解决了看不见的LQ MFG变体,即使在无限维的设置中也是如此。 在培训期间,在适当的规则抽样下,需要控制所需的NO参数数量。 我们的保证来自三个结果:(i)局部-Lipschitz对高度非线性规则对均衡图的估计;(ii)使用具有预先指定的Lipschitz规律性的NOs的通用近似定理(与传统的NO结果不同,NO的Lipschitz常数可以随着近似误差的消失而产生差异);和(iii)L-Lipschz的新样本复杂边界。控制在(ii)。
Traditional mean-field game (MFG) solvers operate on an instance-by-instance basis, which becomes infeasible when many related problems must be solved (e.g., for seeking a robust description of the solution under perturbations of the dynamics or utilities, or in settings involving continuum-parameterized agents.). We overcome this by training neural operators (NOs) to learn the rules-to-equilibrium map from the problem data ("rules": dynamics and cost functionals) of LQ MFGs defined on separable...