NL-144, Long Time No See! Open-Domain Conversation with Long-Term Persona Memory, Findings of ACL 2022

0 Abstract

  • 대부분의 개방형 도메인 대화 모델은 장기적인 인간-봇 대화 설정에서 제대로 수행되지 않는 경향이 있습니다. 
  • 가능한 이유는 장기 대화 이력 정보를 이해하고 암기하는 능력이 부족하기 때문입니다. 
  • 이 문제를 해결하기 위해 우리는 장기 기억 대화(LeMon)라는 새로운 작업을 제시하고 장기 기억(LTM) 메커니즘을 사용하여 새로운 대화 데이터 세트 DuLeMon과 대화 생성 프레임워크 PLATO-LTM을 구축합니다. 
  • 이 LTM 메커니즘을 통해 시스템은 모델 교육을 위한 다중 세션 대화 데이터 세트 없이도 장기 페르소나 메모리를 정확하게 추출하고 지속적으로 업데이트할 수 있습니다. 
  • 우리가 알기로는 사용자와 봇을 포함한 양 당사자의 persona information를 real-time dynamic management으로 관리하려는 시도는 이번이 처음입니다. 
  • DuLeMon에 대한 결과는 PLATO-LTM이 장기적인 대화 일관성 측면에서 기준선을 크게 능가하여 대화 참여도를 높일 수 있음을 나타냅니다.

1 Introduction

  • Persona는 오픈 도메인 대화 시스템이 유저와 long-term 친밀감을 쌓기 위해 중요하다.
  • PersonaChat 및 모델과 같은 기존의 페르소나 대화 데이터 세트는 구성 가능하고 지속적인 personalities을 가진 챗봇을 크게 촉진했습니다.
  • 그럼에도 불구하고 현재의 오픈도메인 대화 시스템은 여전히 인간과 long-term 관계를 구축할 수 없습니다.
  • 가능한 이유는 우리가 long-term persona ability이라고 부르는 long-term dialogue history information를 이해하고 암기하는 능력이 부족하기 때문입니다.
  • 사용자의 페르소나를 기억하고 적극적으로 활용하면 몰입도가 높아지고 챗봇과 사용자 간의 long-term friendships에 기여합니다.
    • 이 능력이 없으면 Meena, Blender, PLATO와 같은 현재의 최첨단 모델은 장기간의 대화에서 낯선 사람과 같은 사람들과 대화하는 경향이 있습니다.
  • 오픈 도메인 대화에서 long-term persona을 활용하는 챌린지와 중요성에도 불구하고, 우리가 아는한, large-scale model의 long-term persona 능력은 테스크 디자인과 해당하는 데이터의 부족때문에 연구가 적게되었다.
  • 이전의 long-term persona 대화 시스템들은 large-scale pre-training models없이 대부분 rule-based 시스템들고, 연구자들은 다양한 episodic memory 구조를 제안하여 미래 대화에서 사용하기위해 이전의 상호작용에서 관련된 facts을 추출, 저장, 다룬다.
    • 추가적으로, 기존의 persona 대화 데이터세트들은 오직 챗봇의 persona의 일관성에만 초점을 맞추고 유저의 persona의 활용과 memory을 무시한다.
    • 그리고 그들은 모두 채팅 중에 업데이트할 수 없는 고정된 페르소나를 설정했습니다.
  • 최근에, Xu (2021)은 PersonaChat의 multi-session 확장으로 MSC 데이터세트를 제안하고, 해당 세션에는 중요한 personal 요점에 대한 요약이 추가로 annotated되었다.
    • 이전의 episodic memory 구조와 유사하게, Xu는 미래 대화 생성을 위해 이전의 대화를 요약하고 회상한다.
    • MSC에 저장된 documnets은 동적으로 수정되어서 대화가 진행되면서 무한정 증가하지 않는다.
    • 게다가, retireval-augmented generative models은 학습시 long-session 대화 데이터세트에 의존하며, 이는 비싸고 annotate하기 어렵다.
  • 기존의 모델들의 한계들과 위의 이슈들을 해결하기 위해, 우리는 LeMon (Long-term Memory Conversation) 테스크를 정의하고, DuLeMon이란 새로운 데이터세트를 제안한다.
    • 이는 bot자신의 persona의 일관성만 유지하는 것이 아니라 long-term 상호작용에서 유저의 persona을 적극적으로 구성하고 활용한데에 중점을 둔다. (즉. mutual persona)
  • We demonstrate an example dialogue in DuLeMon in Figure 1. 
  • DuLeMon에서, 우리는 2명의 speakers가 이전에 서로 상호 작용했으며 챗봇이 사용자 페르소나의 일부를 기억한다고 가정합니다.
    • 게다가, user와 chatbot 모두 persona을 기반으로하고 각 발화에 대해 annotated된다. 
  • 우리가 수집한 데이터세트를 기반으로, 우리는 조심스럽게 long-term persona 대화 세팅을 위한 새로운 PLAOT-LTM 프레임워크를 pluy-and-play long-term memory (LTM)을 추가하여 SoTA 오픈 도메인 대화모델을 디자인한다.
    • pluy-and-play: 탈부착하는 모듈 느낌
    • 이것은 우리가 long-session 데이터에대한 의존없이 long-term persona 대화을 연구하게한다.
    • PLATO-LTM은 실시간으로 대화로부터 화자들의 persona 정보를 추출할 수 있고, 각각 persona memory에 쓸 수 있고 각 화자의 persona 정보를 memory로부터 검색해서 response을 생성할 수 있다.
  • The PLATO-LTM framework consists of three modules: 
    • (1) Persona Extractor (PE): classifier을 통해 메모리는 관련없는 정보를 필터링하고 persona sentence을 추출하여 업데이트된다.
    • (2) Long-Term Memory (LTM): 두 개의 분리된 long-term 메모리들은 화자의 명시적인 persona 정보를 저장한다.
    • (3) Generation Module: 우리는 large-scale 모델을 사용하고 검색된 사용자의 retrieved persona sentences을 모델 입력으로 대화 컨텍스트와 직접 concat한다.
  • Our major contributions are as follows:
    • (1) 우리는 먼저 long-term persona chat 테스크 LeMon을 중국어 긴 대화에 대해 제안한다.
      • 우리의 제안된 DuLeMon 데이터세트는 또한 현재 사용가능한 매우 큰 multi-turn Chinese mutual persona chat 데이터세트이다.
    • (2) 우리는 PLATO-LTM 프레임워크를 제안하고, 이는 user와 chatbot의 persona을 실시간으로 추출하고 기억해서, 챗봇이 long-session 데이터에 대한 학습없이 long-term persona 대화가 가능하게한다.
    • (3) Automatic과 human evaluation은 우리의 방법이 긴 대화에서 SoTA의 일관성을 향상시키고, response가 일관성을 보장하면서 더욱 매력있게한다.

2 Related Work

  • Persona Dialogue: 
    • Huang et al. (2020), 페르소나 대화와 관련된 많은 작업이 있습니다.
    • 일반적으로 이러한 작업은 암시적(implicit) 페르소나 모델과 명시적(explicit) 페르소나 모델로 나눌 수 있습니다.
    • 암시적 모델에서 페르소나는 semantic persona vector의 형태로 표현됩니다.
    • Kim(2014)은 페르소나와 사용자 관심을 대화 시스템에 통합하기 위해 검색 기반 방법을 제안했습니다.
    • 이러한 모델은 암시적 방법이기 때문에 대상 응답 생성에서 해석 및 제어하기가 쉽지 않습니다.
    • Qian(2018)에서는 주어진 페르소나 정보에 대해 일관된 응답을 생성하기 위해 명시적 페르소나 모델을 제안했습니다.
    • 머신의 페르소나 정보에는 이름, 성별, 취미 등이 포함됩니다.
    • 이러한 방식으로 주어진 페르소나 정보를 모델 생성에 더 잘 사용할 수 있습니다.
    • 또한 표 1과 같이 모델을 개발하기 위해 구성된 페르소나 채팅 데이터 세트가 많이 있습니다.
    • 특히, PersonaChat 데이터 세트의 도입은 크라우드 워커가 단순히 "다른 사람과 자연스럽게 대화하고 서로를 알아가려고 노력하라"는 요청을 받는 이 분야의 발전을 광범위하게 촉진했습니다.
    • 그러나 사용자의 페르소나는 봇에게 알려지지 않았기 때문에 대화는 정보를 교환하는 낯선 사람과 같았습니다.
    • 대조적으로, 우리가 제안한 DuLeMon 데이터 세트는 챗봇이 사용자의 페르소나를 적극적으로 기억하고 사용하여 대화 참여를 개선하고 장기적인 상호 작용에서 대담자 간의 친밀도를 높일 것을 요구합니다.
    • 즉 persona-chat에선 모델이 유저의 persona을 모르기 때문에, 낯선 사람과 대화하는거 같으나, 상대방의 persona을 적극적으로 기억하여 장기적인 상호작용에서 대화 참여를 개선한다? --> 친밀도를 높인다.
  • Dialogue Model with External Memory: 





    • As described in Lim (2012), there are various memory models used by the rule-based dialogue systems. 
    • In Bang et al. (2015), user-related information is memorized and used to rewrite the response. 
    • In Elvir et al. (2017), a unified episodic memory architecture for Embodied Conversational Agents (ECAs) is proposed. 
    • They describe a process that determines the prevalent contexts in the conversations obtained from the interactions. 
    • In Campos et al. (2018), the authors introduce an agent that uses its conversational memory to revisit shared history with users to maintain a coherent social relationship over time. 
    • However, they find it challenging to leverage the shared history with individual users and hard to accommodate expected conversational coordination patterns. 
    • Apart from studies in rulebased dialogue systems mentioned above, Xu et al. (2021) shows how large-scale pre-training generative dialogue models trained on existing datasets perform poorly in the long-term conversation setting and proposes a new extended English conversation dataset, entitled Multi-Session Chat (MSC). 
    • Different from them, our novel dataset DuLeMon does not rely on long sessions with high collection costs to study long-term memory problems in the persona chat, with significant differences in task design and data collection. 























Reference

댓글