DeepAries: Adaptive Rebalancing Interval Selection for Enhanced Portfolio Selection
Jinkyu Kim, Hyunjung Yi, Mogan Gim, Donghee Choi, Jaewoo Kang
我们提出了DeepAries,这是一个用于动态投资组合管理的新型深度强化学习框架,共同优化再平衡决策的时机和分配。 与以前的强化学习方法不同,无论市场情况如何,采用固定再平衡间隔,DeepAries自适应地选择最佳的再平衡间隔以及投资组合权重,以减少不必要的交易成本并最大限度地提高风险调整回报。 我们的框架集成了一个基于 Transformer 的状态编码器,它有效地捕获了复杂的长期市场依赖关系,通过近端策略优化 (PPO) 生成同时离散(再平衡间隔)和连续(资产分配)操作。 对多个现实世界金融市场的广泛实验表明,DeepAries在风险调整后的回报、交易成本和缩减方面明显优于传统的固定频率和全面再平衡策略。 此外,我们在https://deep-aries.github.io/上提供了DeepAries的实时演示,以及https://github.com/dmis-lab/DeepAries的源代码和数据集,说明了DeepAries产生可解释的再平衡和分配决策的能力。 总体而言,DeepAries通过将时间和分配整合到统一的决策过程中,为适应性和实用的投资组合管理引入了创新范式。
We propose DeepAries , a novel deep reinforcement learning framework for dynamic portfolio management that jointly optimizes the timing and allocation of rebalancing decisions. Unlike prior reinforcement learning methods that employ fixed rebalancing intervals regardless of market conditions, DeepAries adaptively selects optimal rebalancing intervals along with portfolio weights to reduce unnecessary transaction costs and maximize risk-adjusted returns. Our framework integrates a Transformer-bas...