NL-231, Self-contradictory Hallucinations of Large Language Models: Evaluation, Detection and Mitigation, ICLR 2024

이미지
Abstract  대규모 언어 모델(large LMs)은 잘못된 내용을 포함하는 텍스트를 생성하는 문제가 있으며, 이 중 중요한 사례로 자기모순(self-contradiction)을 들 수 있습니다.  자기모순은 동일한 문맥에서 서로 모순되는 두 문장을 생성하는 경우를 말합니다.  본 연구에서는 여러 instruction-tuned LMs에 대한 자기모순 문제를 평가, 탐지 및 완화하는 포괄적인 조사를 제공합니다.  주요 평가 과제로는 오픈 도메인 텍스트 생성이 포함되며, 짧은 질문 응답 형식에도 본 접근법이 적용 가능함을 입증하였습니다. 분석 결과, 자기모순이 광범위하게 나타남을 확인했으며, 예를 들어 ChatGPT가 생성한 문장 중 17.7%에서 자기모순이 발견되었습니다.  이를 해결하기 위해 효과적으로 자기모순을 탐지하고 완화하는 새로운 프롬프트 기반 프레임워크를 제안합니다.  탐지 모델은 높은 정확도를 달성했으며, 예를 들어 ChatGPT를 프롬프트 기반으로 활용했을 때 약 80%의 F1 점수를 기록했습니다.  mitigation 알고리즘은 생성된 텍스트의 유창성과 정보성을 유지하면서 모순되는 정보를 반복적으로 수정합니다. 특히, 본 프레임워크는 외부 지식을 검색할 필요 없이 블랙박스 언어 모델에 적용 가능하며, 검색 기반 방법을 보완합니다.  이는 self-contradictions의 큰 비중(예: ChatGPT의 경우 35.2%)이 온라인 텍스트를 통해 검증되지 않기 때문입니다.  본 접근법은 실질적으로 효과적이며, 대중을 위해 손쉽게 사용할 수 있는 도구로 제공되고 있습니다.  자세한 내용은 https://chatprotect.ai/에서 확인 가능합니다. 1 INTRODUCTION 대규모 언어 모델(large LMs)은 방대한 텍스트 데이터 코퍼스를 기반으로 사전 학습되며, 이후 인간의 지시를 따르도록 세밀하게 튜닝됩니다. Instruction-tuned LMs, 예를 들어 ChatGPT는 자연어 작업을 해결하는 데 있어 놀라운 제로샷

Paper History (2)

LLM 관련 논문이 너무 많아져서.. LLM 위주의 paper만 따로 모아서 보자  이전페이지: https://ai-information.blogspot.com/2022/05/paper-history.html * 읽어볼것 읽을 것 (우선순위) 백본/서비스형 모델 Llama 2: Open Foundation and Fine-Tuned Chat Models, Preprint 2023 Orion-14B: Open-source Multilingual Large Language Models Mistral 7B Yi: Open Foundation Models by 01.AI SOLAR 10.7B: Scaling Large Language Models with Simple yet Effective Depth Up-Scaling The Claude 3 Model Family: Opus, Sonnet, Haiku Gemini 1.5: Unlocking multimodal understanding across millions of tokens of context Gemma: Open Models Based on Gemini Research and Technology LLM infer Smaller, Weaker, Yet Better: Training LLM Reasoners via Compute-Optimal Sampling Transfer Q⋆ : Principled Decoding for LLM Alignment Think before you speak: Training Language Models With Pause Tokens, ICLR 2024 How do Large Language Models Handle Multilingualism Deepspeed / vllm LIMA: Less Is More for Alignment , Preprint 2023 RoPE Chain-of-Thought Reasoning Without Prompting BATCH CALIBRATIO

LLM fine-tuning쪽 간단히 살펴보기

이미지
(2020) REALM: Retrieval-Augmented Language Model Pre-Training https://www.youtube.com/watch?v=gtf770SDkX4 (2020) RAG: Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks  https://www.youtube.com/watch?v=gtOdvAQk6YU (2020) FID: Leveraging Passage Retrieval with Generative Models for Open Domain Question Answering https://www.youtube.com/watch?v=6D-dcBH3KdU (2021) RETRO:  Improving Language Models by Retrieving from Trillions of Tokens https://youtu.be/AtqzO7-B1K0 https://littlefoxdiary.tistory.com/107 (2022) FID-distillation: Distilling Knowledge from Reader to Retriever for Question Answering https://www.youtube.com/watch?v=6D-dcBH3KdU (2022) Atlas: Few-shot Learning with Retrieval Augmented Language Models https://www.youtube.com/watch?v=U5vMXa8IYp4&t=2s (2022) Re2G: Retrieve, Rerank, Generate https://www.youtube.com/watch?v=QkR7nXErhtM (2023) Self-RAG https://ai-information.blogspot.com/2024/05/nl-215-self-rag-learning-to-retrieve.html (2023) Active Retrieval Augment

NL-209, DSCL: Dual-Semantic Contrastive Learning for Empathetic Response Generation, SIGIR 2024 Review

이미지
◼ Comment 논문은 공감대화를 생성하는 테스크를 해결하는 것이다. 근데, 뭔가 해결하고자 하는 문제점이 명확하지가 않다. 약간 동기가 부족한 느낌 제안한 프레임워크는 좀 다소 복잡한 느낌이다. 다음의 3가지로 구성되어 있다. 1) 이중 의미 대비 학습 모듈 (a dual-semantic contrastive learning module) 문장을 두 개의 인코딩을 통해 두개의 임베딩 벡터로 만든다. 이 두 임베딩벡터를 contarstive learning을 한다. 직관적으로 이게 왜 필요한지는 모르겠다. 저자가 말하길 높은 차원의 semantic feature을 추출하는 것이라 하고, 다른 의미를 추출하는 느낌이라고 말한다. 근데 contrastive learning을 위한 샘플을 고르는거보면, 결국 두 인코더에서 추출된 벡터는 같은 의미의 space로 모여야하게끔 한다.  즉 이것으로 성능이 좋아지는 것은 parameter의 증가때문이 주요 요인이 아닌지? 용어에 대한 설명이 좀 부족하다고 느낀다. H^n_ctx가 배치 N에 대한 H_ctx의 집합? H^var-n_ctx가 배치 N에 대한 H^var_ctx 집합? 2) 감정 상태 학습 모듈 (an emotional state learning module) COMET(오픈모델)을 통해 문장의 임베딩 벡터를 추출한다. COMET은 knowledge extraction encoder로, 여기서 뽑힌 벡터는 knowledge을 담고 있는 개 념이다. COMET으로 관계에 대한 벡터를 추출하고, 이에 추가적인 행렬을 태우고 이를 평균내서 h_rel(관계)에 대한 벡터를 활용한다. 또한 h_emo(감정)에 대한 벡터도 COMET을 통해 추출한다. h_emo와 h_rel은 각각 1)에서 추출한 벡터와 컨캣하여 H_emo, H_cog,rel을 만들고 이를 다시 컨캣하여 knowledge-enhanced encoder의 입력으로 넣어서 H_enh을 만든다. 3) 공감적 응답 생성 모듈 (an empathetic respo