논문명: SODA: Million-scale Dialogue Distillation with Social Commonsense Contextualization
논문링크: https://arxiv.org/abs/2212.10465
아이디어만 정리합니다. ChatGPT 를 기발하게 증강했다고 생각했고, 코드 및 데이터도 모두 공개했길래 정리합니다.
https://github.com/skywalker023/sodaverse
아이디어
- 원래 Commonsense Knowledge graph 가 있다. 위 그림처럼 생겼다.
- Sentence-form 으로 바꿔 줄 건데, PersonX PersonY 를 사람 이름 데이터로 무작위로 바꿨다.
- 그 다음 InstructGPT 한테 부탁해서 2, 3개문장의 짧은 이야기로 바꿔달라고 한다
- sentence form → Narrative 로 바뀌는 과정이다
- 마지막으로 InstructGPT한테 부탁해서 관련대화를 생성한다
이렇게 만든 데이터셋이 기존 데이터셋보다 다양성, 양 등 다양한 평가지표에서 좋았다. 그리고 이걸 토대로 모델을 학습했더니 대화형태에서도 좋은 성능을 보였다고 한다.
핵심은 기존 Knowledge graph 를 기반으로 증강하니, 탄탄한 데이터셋이 나왔다는 것이다. 그리고 사실 기반이면서 자동화도 가능한 점이 좋은 것 같다.
'NLP > 논문이해' 카테고리의 다른 글
[논문이해] Active Retrieval Augmented Generation (0) | 2023.09.15 |
---|---|
[논문이해] Should You Mask 15% in Masked Language Modeling? (0) | 2023.09.14 |
[논문이해] Pre-Training to Learn in Context (0) | 2023.09.07 |
[논문이해] Diffuser: Efficient Transformers with Multi-hop Attention Diffusion for Long Sequences (0) | 2023.09.07 |
[논문이해] Unmasked Teacher: Towards Training-Efficient Video Foundation Models (0) | 2023.09.01 |