42digest首页
压缩元学习

Compressive Meta-Learning

Daniel Mas Montserrat, David Bonet, Maria Perera, Xavier Giró-i-Nieto, Alexander G. Ioannidis

arXiv
2025年8月14日

新数据集大小的快速扩展创造了对快速高效的参数学习技术的需求。 压缩学习是一个框架,通过使用随机,非线性特征将大规模数据库投射到紧凑的信息保护表示上,其尺寸独立于样本数量,可以轻松存储,传输和处理。 然后,这些数据库级摘要用于从底层数据分发中解码感兴趣的参数,而无需访问原始样本,从而提供一个高效且隐私友好的学习框架。 然而,编码和解码技术通常是随机的和数据无关的,未能利用数据的底层结构。 在这项工作中,我们提出了一个框架,通过使用提供比当前最先进的方法更快,更准确的系统,通过神经网络来元学习压缩学习方法的编码和解码阶段。 为了展示呈现的Compressive Meta-Learning框架的潜力,我们探索了多种应用 - 包括基于神经网络的压缩PCA,压缩脊回归,压缩k-means和自动编码器。

The rapid expansion in the size of new datasets has created a need for fast and efficient parameter-learning techniques. Compressive learning is a framework that enables efficient processing by using random, non-linear features to project large-scale databases onto compact, information-preserving representations whose dimensionality is independent of the number of samples and can be easily stored, transferred, and processed. These database-level summaries are then used to decode parameters of in...