본문 바로가기

NLP/논문이해

[논문이해] REPLUG: Retrieval-Augmented Black-Box Language Models

논문명: REPLUG: Retrieval-Augmented Black-Box Language Models

논문링크: https://arxiv.org/abs/2301.12652

 

REPLUG: Retrieval-Augmented Black-Box Language Models

We introduce REPLUG, a retrieval-augmented language modeling framework that treats the language model (LM) as a black box and augments it with a tuneable retrieval model. Unlike prior retrieval-augmented LMs that train language models with special cross at

arxiv.org

 

핵심만 요약합니다.


 

핵심

 

1. 학습 없이 추론하는 방법

  • Retriever: 질문과 관련된 문서 3개를 찾아옴
  • 각 문서 1개와 질문 엮어서 언어 모델한테 3번 물어봄
  • 그 확률을 각각 받아옴. 위 그림에서 3개를 받았음.
  • 그 확률을 다 합침.
  • 합쳐서 말하니 잘 하더라.

 

2. 학습까지 시키니 더 잘 하더라

  • Retriever 만 학습한다는 걸 기억하고 설명하겠음
  • Retriever 가 위에서 문서를 1, 2, 3... 이렇게 1등부터 3등까지 가져왔다고 가정
  • 막상 넣어보니, 1등 문서가 아니라 2등 문서를 줄 때 LLM이 답변을 더 높은 확률로 답했음
  • 'Retriever가 원래 측정했던 점수'가 아닌 'LLM이 해당 문서를 제공받았을 때 정답을 생성할 확률'이 더 신빙성 있다.
  • 그러므로 KL divergence 를 활용해서 Retriever 가 측정하는 점수가 'LLM이 해당 문서를 제공받았을 때 정답을 생성할 확률'에 가깝도록 하자