NL-161, COSPLAY: Concept Set Guided Personalized Dialogue Generation Across Both Party Personas, SIGIR 2022
0 Abstract
- consistent persona을 유지하는 것은 human-like conversational 모델을 설계하는데 필수적이다.
- 그러나, partner에 대한 attention 부족은 model이 좀 더 자기중심적으로 만든다.
- 그들은 주제를 딱딱하게 비틀고, 자신의 이익에 관계없이 대화를 끌어 내고, 파트너에게 약간의 호기심을 가지고 페르소나를 떠돌아 다니는 등 수단을 가리지 않고 페르소나를 보여주는 경향이 있습니다.
- 이 연구에서, 우리는 COSPLAY (COncept Set guided PersonaLized dialogue generation Across both partY personas) (두 당사자 페르소나에서 개념 설정 안내 개인화 대화 생성)을 제안한다.
- 이는 두 화자를 팀으로써 간주한다:
- 상대방에 대한 호기심을 유지하면서 self-persona를 표현하고, mutual personas에 대한 반응을 주도하고, 공통점을 찾습니다.
- 구체적으로, 우리는 먼저 모든 concept sets에서 self-persona와 partner-persona와 mutual dialogue을 나타낸다.
- 그리고나서, 우리는 적당한 knowledge-enhanced operations의 모음이 포함된 Concept Set 프레임워크을 제안하여 algebras, set expansion, set distance을 처리한다.
- Based on these operations as medium, we train the model by utilizing
- 1) concepts of both party personas,
- 2) concept relationship between them, and
- 3) their relationship to the future dialogue.
- Extensive experiments on a large public dataset, PersonaChat, demonstrate that our model outperforms state-of-the-art baselines for generating less egocentric, more human-like, and higher quality responses in both automatic and human evaluations.
1 INTRODUCTION
- 보다 인간적인 대화 시스템을 구축하는 것은 인공 지능에서 중요한 주제 중 하나이며 주요 과제 중 하나는 연령, 성별, 직업 등과 같은 일관된 페르소나를 유지하는 것입니다. [11, 13, 20, 21, 26, 34, 46].
- 이 논문들도 한번 보면 좋긴할텐데....
- 보다 최근에는 페르소나를 여러 프로필 문장으로 정의하는 보다 직접적인 접근 방식이 새로운 데이터세트인 Persona-Chat[41]을 사용하여 제안되었습니다.
- 이 작업에는 여러 페르소나 문장과 일치하는 응답을 생성하는 모델이 필요했습니다(그림 1)[41].
- 사용자가 복잡한 구성 프로필을 설명하고 대화하고 싶은 사람을 선택할 수 있는 유연성으로 인해 데이터 세트는 페르소나와 일치하는 응답을 생성하는 방법을 개발하는 데 광범위한 관심을 불러일으켰습니다[3, 5, 17, 29, 37 , 40, 41, 44].
- 일관성을 더 잘 제어하기 위해 모델에 대한 페르소나 이해를 더욱 향상시키기 위해 몇 가지 추가 작업이 수행되었습니다[16, 27, 28]:
- Song et al. [27] 일관성 이해를 강화하기 위해 비대화 추론 데이터를 사용한 가능성 훈련을 도입했습니다.
- Liu et al. [16]은 모델에 대한 일관성 이해를 강화하기 위해 네거티브 샘플링으로 훈련된 세분화된 일관성 보상 모델을 활용했습니다.
- Songet al. [28] 일치 모델을 통합하여 일치하지 않는 단어를 감지 및 삭제하고 페르소나와 일치하는 단어로 다시 작성합니다.
- 그러나 페르소나 일관성 있는 응답을 장려하기 위해 점점 더 많은 노력을 기울이면서 에이전트는 점점 더 자기 중심적인 경향이 있습니다.
- 그들은 자신의 페르소나 정보를 반드시 보여주고 파트너에 대해서는 관심을 덜 보이는 경향이 있습니다.
- 여기에서는 이 현상을 더 자세히 설명하기 위해 그림 1의 예를 사용합니다.
- 11행에서 "당신의 가족은 어떤가요?"라는 질문에 대한 응답으로 한 기본 모델은 "그들은 괜찮지만 나는 공원에서 노래하는 것을 좋아합니다"라고 대답합니다.
- 모델은 자신의 페르소나인 '노래 부르는 걸 좋아한다'를 열심히 표현하기 위해 과도기적으로 '하지만'이라는 부적절한 표현을 사용하여 급하고 퉁명스럽게 화제를 비틀어 비논리적인 반응을 보이는 것을 알 수 있다.
- 또 다른 대답인 '노래 부르는 걸 좋아한다'는 주제 넘어가는 것조차 귀찮은 베이스라인이 가족에게 '노래 부르는 걸 좋아한다'라는 페르소나를 접목하는 것인데, 페르소나에 지나치게 집중하면 반응이 일관적이지 않다는 것을 알 수 있다.
- 16행에 또 다른 예가 있습니다. 사용자가 "Great! 저도 음악을 좋아해서 기타를 치는 이유입니다."
- 우리 인간으로서 그가 그의 페르소나인 "음악"과 "기타" 면에서 우리와 더 교류하고 공명하기를 매우 고대하고 있다는 것을 쉽게 느낄 수 있습니다.
- 예상되는 응답은 "정말 굉장합니다!"입니다. 또는 "밴드에서 연주합니까?".
- 그러나 베이스라인은 사용자의 감정을 무시하고 1인칭 대명사로 응답을 시작하여 대화를 다시 자신의 페르소나로 끌어옵니다.
- 파트너 페르소나 파트너에게 자신의 페르소나를 보여줄 기회를 "희생"할 수 있는 더 많은 기회를 제공하기 때문입니다.
- 그러나 이것은 또한 사용자 경험과 모델 상호 작용을 "희생"합니다.
- 자기중심주의의 이유는 상대방에게 충분한 관심을 기울이지 않으면 자기 페르소나의 표현이 상대방의 표현을 희생시킬 수 있기 때문이라고 주장한다.
- 일상 생활 대화에서 그림 1의 예를 다시 참조하여 자기 표현의 균형을 잘 맞추며 파트너에게 질문(예: "디즈니 월드에서 막 돌아왔습니다. 좋아하세요?" 8행)과 파트너에게 페르소나를 표현할 수 있는 더 많은 기회를 제공합니다(예: 18행에서 "나는 기타를 연주합니다"라고 응답하기 위해 "밴드에서 연주합니까?").
- 또한, 획득한 파트너의 페르소나를 통해 자신과 파트너의 페르소나를 연결하여 대화를 주도하려고 합니다(예: "부모님[← 가족]은 매우 좋은데 내 노래[← 노래 부르기]를 좋아하지 않는다. " 13행에서) 또는 그들 사이의 공통점을 찾는 것(예: "음악"/"기타" → 밴드 ← 18행에서 "노래"/"노래"), 이는 파트너의 페르소나에서 우리가 아는 것이 어떤 정보를 결정하는지 보여줍니다.
- 응답을 작성할 때 페르소나에서 선택할 수 있습니다.
- 위의 모든 예에서 파트너의 페르소나에 충분한주의를 기울이는 것이 덜 자기 중심적인 응답을 생성하고 현실적인 대화를 생성하는 데 큰 기여를하는 데 중요한 역할을한다는 것을 알 수 있습니다.
- 이 백서에서 우리는 자신과 파트너를
- 1) "answering"과 "asking"의 균형을 맞출 수 있는 제안된 모델 COSPLAY(Concept Setguided PersonaLized dialogue generation Across both partY personas)를 통해 이러한 글로벌 일관성을 포착하는 "팀"으로 봅니다.
- 상대방의 페르소나에 대해 호기심을 느끼면서 표현의 기회를 더 많이 주는 것,
- 2) '말하기'와 '듣기'의 균형을 맞춰 상호 페르소나에 대한 반응을 주도하고 공통점을 찾는다.
- 이에 동기를 부여받은 우리의 연구는 다음과 같은 질문으로 시작합니다.
- 모델이 질문을 자주 하도록 격려하고 파트너가 생성적인 방식으로 페르소나를 표현할 수 있는 더 많은 기회를 제공하는 방법은 무엇입니까?
- 이 논문의 핵심이, 이거를 해결하는 것인듯
- 사전 정의된 일반적인 질문 템플릿을 순진하게 삽입하면 응답이 stiff 해지고 다른 맥락에서 구체적인 질문을 할 수 없습니다.
- 우리가 아는 것은 모두가 파트너에게 페르소나를 표현할 수 있는 더 많은 기회를 기꺼이 제공한다면 양 당사자의 페르소나 정보가 향후 대화에서 회상된다는 것뿐입니다.
- 이에 동기를 부여하여 예측(lookahead) 방식으로 모델을 학습합니다.
- 구체적으로, 우리는 다른 COSPLAY가 다른 페르소나를 가진 파트너를 "코스프레"하여 훈련 가능한 사람과의 대화를 완료하도록 하고 이 미래 대화의 개념과 두 페르소나의 개념 사이의 교차 설정을 최대화하려고 시도합니다.
- 그러나 그렇게 한 후에 모델은 반대 방향으로 실행됩니다.
- 더 이상 파트너가 말하는 내용에 신경 쓰지 않고 자신의 페르소나 정보만 횡설수설합니다.
- 분명히, 모델은 큰 보상을 얻기 위해 나쁜 방법을 찾습니다.
- 모델이 이 나쁜 방법과 예상한 방법을 구별하는 데 도움을 주기 위해 일관성 점수에 참여합니다.
- 이때, 결합된 효과와 함께 모델은 파트너에 대한 질문을 적절하게 추가하는 것이 파트너가 더 많이 회상하게 하는 방아쇠뿐만 아니라 일관성을 유지하기 위한 다리 역할을 한다는 것을 발견하기 때문에 예상대로 진행됩니다.
- 따라서 회상 점수와 일관성 점수를 합산한 상호 이익 보상(Mutual Benefit Reward)을 제안합니다.
- 회상 점수를 계산한 후 또 다른 문제가 나타납니다.
- 페르소나 희소성으로 인해 미래 대화의 일부 페르소나는 상관 관계가 높은 개념이 교차점에서 계산되지 않으므로 회상 점수에 기여하지 않습니다.
- 이를 해결하기 위해 우리는 상관 개념에 관련성(거리)을 할당하는 개념 연산 전용 지식 강화 연산(대수 집합 집합, 확장 집합, 유사성 집합)이 있는 개념 집합 프레임워크를 제안합니다.
- 다음으로 두 번째 질문은 양 당사자 페르소나를 융합하고 자동으로 공통점을 찾는 방법입니다. Concept Set에서 지원하는 COSPLAY는 양쪽에서 정보를 복사하도록 훈련된 개념 복사 메커니즘을 사용합니다(컨텍스트에 표시된 자기 페르소나 및 파트너의 개념).
- 또한 이들을 연결하는 개념을 탐색하고 소개하기 위해 Common Ground Reward는 양 당사자 페르소나를 두 가지 제약 조건으로 간주하고 동시에 미래 대화에서 각각까지의 개념 설정 거리를 기하학적 방식으로 최소화하도록 설계되었습니다.
- In summary, our key contributions are as follows:
- 개인화 된 대화 세대에 ConceptNet을 적용하여 자기 중심주의의 문제를 해결하기 위한 첫걸음을 내딛고, 파트너에 대한 호기심, 상호 페르소나에 대한 대화 주도, 공통점 찾기라는 새로운 일관성 패러다임을 달성하기 위해 COSPLAY를 제안합니다.
- 우리는 ConceptNet의 사용을 위한 새로운 방법을 탐구하고 개념 집합 프레임워크를 제안합니다: 개념 집합에서 페르소나와 대화를 모두 모델링하고 집합 연산을 사용하여 관계를 계산합니다. Concept Set에 의해 구동되는 COSPLAY는 개념 집합과 개념 집합 관계를 모두 활용하여 모델을 안내하고 하위 그래프를 구성하거나 전체 그래프에서 검색할 필요 없이 병렬 컴퓨팅에서 지식을 운영합니다. 또는 생성하는 동안 하나 또는 다중 홉 추론을 수행합니다.
- future generated dialogue와 두 페르소나 간의 개념 관계를 활용하는 상호 이익 보상으로 모델이 파트너에 대해 호기심을 갖도록 유도하는 효율적인 방법을 찾습니다. 또한 모델이 공통점을 찾도록 유도하기 위해 두 페르소나를 두 가지 제약 조건으로 간주하여 Common Ground Reward를 설계하고 이들 간의 개념 관계를 활용하여 모델을 훈련합니다.
- Persona-Chat에 대한 실험은 파트너에게 더 많은 관심을 기울임으로써 우리 모델 COSPLAY가 덜 자기 중심적이고 더 인간적이며 더 높은 품질의 응답을 생성할 수 있음을 보여줍니다.
Reference
댓글
댓글 쓰기