전체 글 (116) 썸네일형 리스트형 [용어 정리] oracle summary 요약 용어 정리 생성 요약 정답(abstractive gold summary): 새롭게 작성한 요약문. 기존 내용을 그대로 사용하지 않음. 추출 요약 정답(extractive gold summary): 기존 내용에서 몇 개 문장을 뽑아 만든 요약문. 예컨대, 기존 내용이 10개의 문장으로 이뤄져있다고 가정하자. 그러면 1번째 문장이 요약문에 포함되면 '1', 아니면 '0' 으로 구분해놓는 걸 말한다. 문제점 대부분의 요약 데이터셋은 생성 요약 정답은 있는데, 추출 요약 정답은 없다. 해결방법 : 그래서 unsupervised method 로 만들고자 한다. 문장 몇 개를 뽑아 집합을 만들어서, 생성 요약 정답을 활용해 ROUGE score 를 구해 가장 높은 점수를 가진 집합을 extrastive gro.. [huggingface🤗] How to generate text #1 자연어 처리 모델이 언어를 생성하는 방식에 관하여 잘 정리된 글이라서, 한글로 의역(수정)하고자 한다. 나에게도 공부가 되고, 이 글을 통해 한 사람이라도 도움이 된다면 기쁠 것 같다. 그리고 무엇보다 이렇게 좋은 글을 써준 patrickvonplaten 에게 감사드린다. 초록 초거대 언어 모델의 등장 자연어 처리 분야(NLP)에선 초거대 모델을 대거 등판하고 있다. 대표적으로 openAI 에서 공개한 GPT 시리즈가 있다. 사람들은 놀라운 성능을 몸소 확인했고, 이미 세상을 바꿀 준비를 하고 있다. 실제로 자연어 처리 관련 AI 서비스의 양과 질이 대폭 상승했다. 이게 가능했던 이유는 Transformer 의 등장과 pre-training 이다. 두 방식은 자연어 처리 근간을 이루는 혁신이었다. 텍스트.. [논문이해] EmoBERTa: Speaker-Aware Emotion Recognition in Conversation with RoBERTa 논문명: EmoBERTa: Speaker-Aware Emotion Recognition in Conversation with RoBERTa https://arxiv.org/abs/2108.12009 EmoBERTa: Speaker-Aware Emotion Recognition in Conversation with RoBERTa We present EmoBERTa: Speaker-Aware Emotion Recognition in Conversation with RoBERTa, a simple yet expressive scheme of solving the ERC (emotion recognition in conversation) task. By simply prepending speaker names .. [논문이해] CoMPM:Context Modeling with Speaker’s Pre-trained Memory Tracking for Emotion Recognition in Conversation 논문명: CoMPM:Context Modeling with Speaker’s Pre-trained Memory Tracking for Emotion Recognition in Conversation (저자가 한국인이라서 더 반가운 논문이었다. 좋은 논문 감사드립니다.) https://arxiv.org/abs/2108.11626 CoMPM: Context Modeling with Speaker's Pre-trained Memory Tracking for Emotion Recognition in Conversation As the use of interactive machines grow, the task of Emotion Recognition in Conversation (ERC) became more .. [논문이해] Think Before You Speak: Explicitly Generating Implicit Commonsense Knowledge for Response Generation 논문명: Think Before You Speak: Explicitly Generating Implicit Commonsense Knowledge for Response Generation https://arxiv.org/abs/2110.08501 Think Before You Speak: Explicitly Generating Implicit Commonsense Knowledge for Response Generation Implicit knowledge, such as common sense, is key to fluid human conversations. Current neural response generation (RG) models are trained to generate response.. [논문이해] Commonsense-Focused Dialogues for Response Generation: An Empirical Study 논문명: Commonsense-Focused Dialogues for Response Generation: An Empirical Study https://arxiv.org/abs/2109.06427 Commonsense-Focused Dialogues for Response Generation: An Empirical Study Smooth and effective communication requires the ability to perform latent or explicit commonsense inference. Prior commonsense reasoning benchmarks (such as SocialIQA and CommonsenseQA) mainly focus on the discri.. [논문이해] BERTSCORE: EVALUATING TEXT GENERATION WITH BERT 논문명: BERTSCORE: EVALUATING TEXT GENERATION WITH BERT https://arxiv.org/abs/1904.09675 BERTScore: Evaluating Text Generation with BERT We propose BERTScore, an automatic evaluation metric for text generation. Analogously to common metrics, BERTScore computes a similarity score for each token in the candidate sentence with each token in the reference sentence. However, instead of exact mat arxiv.o.. 2022 Uni-DTHON 데이터톤 후기 - 1등 읽기 전에 이 글에는 코드나 데이터에 관한 이야기가 없습니다. 도움이 될 법한 이야기와 간단한 소감이 가득합니다. 제가 이 글을 쓰면서 갖고 있는 가장 큰 마음은 "이 대회에 참가할 수 있어서 영광이었고, 모든 관련자분들께 심심한 감사를 전한다." 입니다. 그럼, 글을 시작해보겠습니다 :) 대회 신청 우선 공고 디자인이 훌륭하다고 느꼈다. 준비를 열심히 했다는 게 느껴졌고, 많은 단체가 힘을 쏟았다는 사실 하나로도 충분히 검증된 대회라고 생각했다. 다음과 같은 이유로 지원하게 되었다. 같은 분야에 종사하는 다양한 사람들과 인연을 만들 수 있다. 데이터톤으로 AI 관련 대회를 따로 분리했다. AI 에 대한 흥미와 관심을 더 끌어낼 수 있는 계기가 되었음 했다. 대회 참가자들의 접근과 수준을 몸소 배우고 싶.. 이전 1 ··· 9 10 11 12 13 14 15 다음 목록 더보기