*NL-214, RAFT: Adapting Language Model to Domain Specific RAG, Preprint 2024
Abstract 대규모 언어 모델(LLM)을 대규모 텍스트 데이터의 대규모 말뭉치로 사전 훈련시키는 것은 이제 표준 패러다임입니다. 이러한 LLM을 다양한 하위 응용 프로그램에 사용할 때, 추가로 새로운 지식(예: 시간적으로 중요한 뉴스 또는 개인 도메인 지식)을 사전 훈련된 모델에 내장시키는 것이 일반적입니다. 이는 RAG 기반 프롬프팅이나 파인튜닝을 통해 이루어질 수 있습니다. 그러나 새로운 지식을 획득하기 위한 최적의 방법은 여전히 미해결된 문제입니다. 본 논문에서는 Retrieval Augmented Fine Tuning (RAFT)이라는 훈련 레시피를 제시하여 모델의 "오픈북" 도메인 설정에서의 질문에 답하는 능력을 개선합니다. RAFT에서는 질문과 검색된 문서 세트가 주어지면, 질문에 대한 도움이 되지 않는 문서, 즉, 방해 요소 문서를 무시하도록 모델을 훈련합니다. 이를 위해 RAFT는 질문에 답하는 데 도움이 될 것으로 예상되는 관련 문서에서 적절한 순서를 직접 인용함으로써 이를 달성합니다. 이는 RAFT의 chain-of-thoughtstyle response과 결합되어 모델의 추론 능력을 향상시킵니다. 도메인 특정 RAG에서, RAFT는 PubMed, HotpotQA 및 Gorilla 데이터셋을 통해 모델의 성능을 일관되게 향상시키며, 사전 훈련된 LLM을 도메인 내 RAG로 개선하기 위한 후처리 레시피를 제시합니다. RAFT의 코드와 데모는 https://github.com/ShishirPatil/gorilla에서 오픈 소스로 제공됩니다. 1. Introduction 대규모 언어 모델(LLM)은 방대한 양의 공개 데이터로 훈련되어 다양한 일반 지식 추론 작업에서 상당한 진전을 이뤘습니다(Brown et al., 2020; Wei et al., 2022). 그러나 최근에는 점점 더 LLM이 특정 도메인에서 사용되어 특정 소프트웨어 프레임워크에 대한 코드 완성부터 특정 문서 컬렉션(예: 법적이거나 의료 문서