From Noise to Latent: Generating Gaussian Latents for INR-Based Image Compression
Chaoyi Lin, Yaojun Wu, Yue Li, Junru Li, Kai Zhang, Li Zhang
最近基于隐式神经表示(INR)的图像压缩方法通过过度拟合图像特定的潜在代码显示了竞争性能。 然而,由于没有表达性的潜在表示,它们仍然低于端到端(E2E)压缩方法。 另一方面,E2E方法依赖于传输潜在代码和需要复杂的熵模型,导致解码复杂性的增加。 受到E2E编解码器中的规范化策略的启发,其中潜伏物转化为高斯噪声以证明消除空间冗余,我们探索了逆向方向:直接从高斯噪声产生潜伏点。 在本文中,我们提出了一种新的图像压缩范式,该范式从多尺度高斯噪声张量中重建图像特异性潜伏,使用共享随机种子进行确定性生成。 高斯参数预测(GPP)模块估计分布参数,通过重参数化技巧实现单次潜在生成。 然后通过合成网络传递预测的潜伏物来重建图像。 我们的方法消除了传输潜在代码的需要,同时保留了基于潜在的好处,在柯达和CLIC数据集上实现了具有竞争力的失真性能。 据我们所知,这是探索高斯潜在一代学习图像压缩的第一批作品。
Recent implicit neural representation (INR)-based image compression methods have shown competitive performance by overfitting image-specific latent codes. However, they remain inferior to end-to-end (E2E) compression approaches due to the absence of expressive latent representations. On the other hand, E2E methods rely on transmitting latent codes and requiring complex entropy models, leading to increased decoding complexity. Inspired by the normalization strategy in E2E codecs where latents are...