SeFA-Policy: Fast and Accurate Visuomotor Policy Learning with Selective Flow Alignment
Rong Xue, Jiageng Mao, Mingtong Zhang, Yue Wang
制定高效和准确的视觉运动政策对机器人模仿学习构成了核心挑战。 虽然最近经过纠正的流方法具有先进的粘膜机策略学习,但它们受到一个关键的限制:在迭代蒸馏后,生成的动作可能会偏离与当前视觉观察对应的地面真相操作,导致随着回流过程的重复和不稳定的任务执行而累积错误。 我们提供选择性流量对齐(SeFA),一个高效和准确的粘液器策略学习框架。 SeFA通过选择性流对齐策略解决了这一挑战,该策略利用专家演示选择性地纠正生成的动作并恢复与观测的一致性,同时保持多模式性。 此设计引入了一致性校正机制,确保生成的动作保持观察对齐,而不会牺牲一步流推理的效率。 模拟和现实世界操作任务的广泛实验表明,SeFA策略超越了最先进的基于扩散和基于流的策略,实现了卓越的准确性和稳健性,同时将推理延迟降低了98%以上。 通过将整流效率与观察一致的操作生成统一化,SeFA 提供了一个可扩展且可靠的解决方案,用于实时校验器策略学习。 代码可在https://github.com/RongXueZoe/SeFA上查阅。
Developing efficient and accurate visuomotor policies poses a central challenge in robotic imitation learning. While recent rectified flow approaches have advanced visuomotor policy learning, they suffer from a key limitation: After iterative distillation, generated actions may deviate from the ground-truth actions corresponding to the current visual observation, leading to accumulated error as the reflow process repeats and unstable task execution. We present Selective Flow Alignment (SeFA), an...