42digest首页
对话系统中的自适应多代理响应细化

Adaptive Multi-Agent Response Refinement in Conversational Systems

Soyeong Jeong, Aparna Elangovan, Emine Yilmaz, Oleg Rokhlenko

arXiv
2025年11月11日

大型语言模型(LLM)通过产生类似人类的反应,在对话系统中取得了显着的成功。 然而,它们可能会不足,特别是当需要考虑到个性化或特定知识时。 在现实生活中的设置中,依靠用户来检测这些错误并请求新的响应是不切实际的。 解决这个问题的一个方法是在将其返回给用户之前改进响应。 虽然现有方法侧重于在单个LLM中改进响应,但这种方法难以考虑有效对话所需的不同方面。 在这项工作中,我们建议通过多代理框架来改进响应,其中每个代理为每个方面分配一个特定的角色。 我们专注于对对话质量至关重要的三个关键方面:事实性,个性化和连贯性。 每个代理负责审查和完善其中的一个方面,然后合并他们的反馈,以提高整体响应。 为了加强它们之间的合作,我们引入了一个动态的沟通策略。 而不是遵循固定的代理序列,我们的方法根据每个查询的具体要求自适应地选择和协调最相关的代理。 我们验证了具有挑战性的对话数据集的框架,表明我们的框架明显优于相关基线,特别是在涉及知识或用户角色的任务中,或两者兼而有之。

Large Language Models (LLMs) have demonstrated remarkable success in conversational systems by generating human-like responses. However, they can fall short, especially when required to account for personalization or specific knowledge. In real-life settings, it is impractical to rely on users to detect these errors and request a new response. One way to address this problem is to refine the response before returning it to the user. While existing approaches focus on refining responses within a ...