42digest首页
神经网络的批量边界分解

Bulk-boundary decomposition of neural networks

Donghee Lee, Hye-Sung Lee, Jaeok Yi

arXiv
2025年11月3日

我们将批量边界分解作为理解深度神经网络训练动力学的新框架。 从随机梯度下降公式开始,我们表明拉格朗日可以重组为数据无关的散装项和数据依赖边界项。 批量捕获网络架构和激活函数设置的内在动力学,而边界反映了输入和输出层训练样本的随机相互作用。 这种分解暴露了深层网络背后的局部和均匀结构。 作为自然扩展,我们基于这种分解开发神经动力学的场上理论公式。

We present the bulk-boundary decomposition as a new framework for understanding the training dynamics of deep neural networks. Starting from the stochastic gradient descent formulation, we show that the Lagrangian can be reorganized into a data-independent bulk term and a data-dependent boundary term. The bulk captures the intrinsic dynamics set by network architecture and activation functions, while the boundary reflects stochastic interactions from training samples at the input and output laye...