Generalization Bounds for Quantum Learning via Rényi Divergences
Naqueeb Ahmad Warsi, Ayanava Dasgupta, Masahito Hayashi
这项工作通过利用Coo等人引入的框架,在量子学习算法的预期概括误差上建立一个新的上限家族,促进了对量子学习的理论理解。 (2024年)和预期真实损失的新定义。 我们的主要贡献是在量子和经典Rényi发散方面推导这些边界,使用用于评估量子Rényi发散的变异方法,特别是Petz和新引入的改良夹层量子Rényi发散。 从分析和数字上,我们展示了使用修改三明治量子雷尼发散的界限与基于Pets发散的界限的优性能。 此外,我们使用两种不同的技术提供概率广义误差边界:一种基于修改的三明治量子雷尼发散和经典雷尼发散,另一种采用平滑最大雷尼发散。
This work advances the theoretical understanding of quantum learning by establishing a new family of upper bounds on the expected generalization error of quantum learning algorithms, leveraging the framework introduced by Caro et al. (2024) and a new definition for the expected true loss. Our primary contribution is the derivation of these bounds in terms of quantum and classical Rényi divergences, utilizing a variational approach for evaluating quantum Rényi divergences, specifically the Petz a...