ABIDES-MARL: A Multi-Agent Reinforcement Learning Environment for Endogenous Price Formation and Execution in a Limit Order Book
Patrick Cheridito, Jean-Loup Dupret, Zhexin Wu
我们介绍了ABIDES-MARL,这是一个将新的多智能强化学习(MARL)方法与新的现实限序书(LOB)模拟系统相结合的框架,以研究复杂金融市场游戏中的平衡行为。 该系统通过将状态集合与内核中断脱钩来扩展 ABIDES-Gym,实现多个自适应代理的同步学习和决策,同时保持与标准 RL 库的兼容性。 它保留了价格时间优先级和离散蜱尺寸等关键市场特征。 从方法上讲,我们使用MARL近似多周期交易游戏中的均衡行为,具有有限数量的异构代理 - 知情交易者,流动性交易者,噪声交易者和竞争做市商 - 所有这些都具有个人价格影响。 这种设置通过在战略交易环境中嵌入流动性交易者的优化问题,将最佳执行和市场微观结构联系起来。 我们通过在模拟系统中解决扩展的Kyle模型来验证该方法,从而恢复逐渐的价格发现现象。 然后,我们将分析扩展到流动性交易者的问题,即市场流动性产生内生,并表明,在均衡时,执行策略塑造了做市商的行为和价格动态。 ABIDES-MARL为分析现实市场中的平衡和战略适应提供了可重复的基础,并有助于建立经济可解释的金融智能AI系统。
We present ABIDES-MARL, a framework that combines a new multi-agent reinforcement learning (MARL) methodology with a new realistic limit-order-book (LOB) simulation system to study equilibrium behavior in complex financial market games. The system extends ABIDES-Gym by decoupling state collection from kernel interruption, enabling synchronized learning and decision-making for multiple adaptive agents while maintaining compatibility with standard RL libraries. It preserves key market features suc...