NL-339, Do Llamas Work in English? On the Latent Language of Multilingual Transformers, ACL 2024
Abstract 이 논문에서는 영어 중심의 불균형한 데이터로 학습된 다국어 언어 모델이 내부적으로 영어를 중간 피벗 언어(pivot language)로 사용하는지를 탐구한다. 이는 언어 모델의 작동 방식과 언어적 편향의 기원을 이해하는 데 중요한 질문이다. 본 연구는 Llama-2 계열 transformer 모델을 대상으로, 정답이 하나의 토큰으로 결정되는 비영어 프롬프트를 설계하여 분석한다. Transformer는 각 레이어를 거치며 입력 토큰의 임베딩을 점진적으로 변환하여, 다음 토큰 확률을 계산하는 출력 임베딩으로 매핑한다. 중간 레이어의 임베딩을 추적한 결과, 다음과 같은 세 단계 과정이 나타난다: 초기에는 출력 토큰 임베딩과 멀리 떨어져 있음 중간 레이어에서는 의미적으로 올바른 토큰을 복원할 수 있지만, 입력 언어보다 영어 토큰에 더 높은 확률을 부여함 마지막에는 입력 언어에 특화된 임베딩 공간으로 이동함 이 결과를 바탕으로, 모델의 내부 표현은 각각 “입력 공간(input space) → 개념 공간(concept space) → 출력 공간(output space)”에서 작동한다고 해석한다. 특히 중요한 점은, 이 추상적인 개념 공간이 다른 언어보다 영어에 더 가깝다는 것이다. 이는 다국어 언어 모델이 가지는 편향에 중요한 영향을 미칠 수 있다. 또한, 코드와 데이터는 공개되어 있다. 1 Introduction 대부분의 현대 대규모 언어 모델(LLM)은 주로 영어 텍스트로 구성된 방대한 코퍼스로 학습된다. 그럼에도 불구하고 이들은 영어가 아닌 언어에서도 다양한 다운스트림 태스크에서 높은 성능을 보인다. 이는 다음과 같은 중요한 질문을 제기한다. LLM은 어떻게 주로 영어로 학습되었음에도 다른 언어로 잘 일반화할 수 있는가? 직관적으로, 데이터 효율적으로 비영어 데이터에서 높은 성능을 달성하는 한 가지 방법은 영어를 중간 피벗 언어로 사용하는 것이다. 즉, 입력을 먼저 영어로 번역하고, 영어로 처리한 뒤, 결과를 다시 입력 언어로 번역하는 방식이다. ...