OUGS: Active View Selection via Object-aware Uncertainty Estimation in 3DGS
Haiyi Li, Qi Chen, Denis Kalkofen, and Hsiang-Ting Chen
3D Gaussian Splatting(3DGS)的最新进展为新颖的视图合成取得了最先进的结果。 然而,在复杂的场景中有效地捕获特定物体的高保真重建仍然是一个重大挑战。 现有主动重建方法的一个关键限制是它们依赖于场景级的不确定性指标,这些指标通常受到不相关的背景混乱的偏见,并导致以对象为中心的任务的低效视图选择。 我们介绍了OUGS,这是一个新颖的框架,通过更原则,物理基础的3DGS不确定性配方来应对这一挑战。 我们的核心创新是直接从3D高斯原语的显式物理参数(例如位置、尺度、旋转)中获取不确定性。 通过渲染Jacobian传播这些参数的协方差,我们建立了一个高度可解释的不确定性模型。 这个基础允许我们无缝集成语义分割掩码,以产生有针对性的、感知对象的不确定性评分,从而有效地将对象与其环境区分开来。 这允许更有效的主动视图选择策略,优先考虑对提高对象保真度至关重要的观点。 对公共数据集的实验评估表明,与现有的先进方法相比,我们的方法显着提高了3DGS重建过程的效率,并为目标对象实现了更高的质量,同时也作为全球场景的强大不确定性估算器。
Recent advances in 3D Gaussian Splatting (3DGS) have achieved state-of-the-art results for novel view synthesis. However, efficiently capturing high-fidelity reconstructions of specific objects within complex scenes remains a significant challenge. A key limitation of existing active reconstruction methods is their reliance on scene-level uncertainty metrics, which are often biased by irrelevant background clutter and lead to inefficient view selection for object-centric tasks. We present OUGS, ...