A kernel method for the learning of Wasserstein geometric flows
Jianyu Hu, Juan-Pablo Ortega, and Daiying Yin
瓦瑟斯坦梯度和哈密尔顿流已成为自然科学中复杂动力学建模的基本工具,其应用范围从偏微分方程(PDE)和最佳传输到量子力学和信息几何。 尽管它们很重要,但这些流背后的潜在函数和交互内核的反向识别仍然相对未探索。 在这项工作中,我们通过解决同时从密度流的离散观察中恢复潜在函数和交互内核的逆问题来解决这一挑战。 我们将问题制定为优化任务,将损失函数最小化,专门用于执行Wasserstein流的底层变化结构,确保与密度流的几何特性保持一致。 我们的框架采用基于内核的操作员方法,使用相关的Reproduction Kernel Hilbert Space(RKHS),它提供了未知组件的封闭形式表示。 此外,还进行了全面的误差分析,在自适应正则化参数下提供收敛率,因为时间和空间离散化网格大小趋于零。 最后,提出了稳定性分析,以弥合Wasserstein Hamiltonian流的离散轨迹数据和连续时间流动力学之间的差距。
Wasserstein gradient and Hamiltonian flows have emerged as essential tools for modeling complex dynamics in the natural sciences, with applications ranging from partial differential equations (PDEs) and optimal transport to quantum mechanics and information geometry. Despite their significance, the inverse identification of potential functions and interaction kernels underlying these flows remains relatively unexplored. In this work, we tackle this challenge by addressing the inverse problem of ...