Regularization Implies balancedness in the deep linear network
Kathryn Lindsey and Govind Menon
我们使用几何不变理论(GIT)来研究深度线性网络(DLN)。 Kempf-Ness定理用于确定L^2正则化器在平衡流形上最小化。 这使我们能够将训练动力学分解为两种不同的梯度流:纤维上的正则化流动和平衡流上的学习流。 我们表明,使用时刻图可以完全解决正则的流。 这种方法为深度学习和线性系统理论的平衡性提供了一个共同的数学框架。 我们使用这个框架来解释模型减少和贝叶斯原则方面的平衡性。
We use geometric invariant theory (GIT) to study the deep linear network (DLN). The Kempf-Ness theorem is used to establish that the L^2 regularizer is minimized on the balanced manifold. This allows us to decompose the training dynamics into two distinct gradient flows: a regularizing flow on fibers and a learning flow on the balanced manifold. We show that the regularizing flow is exactly solvable using the moment map. This approach provides a common mathematical framework for balancedness in ...