해결책
beam_output = model.generate(
input_ids=input_ids, # 정확히 input_ids 인자라고 알려줘야 한다
do_sample=True,
top_k=10,
max_new_tokens=32,
min_new_tokens=16,
output_scores=True,
num_beams=BEAM_SIZE,
repetition_penalty=10.0,
return_dict_in_generate=True,
num_return_sequences=BEAM_SIZE,
)
- input_ids=input_ids 라고 정확히 이야기해야 한다
문제점
beam_output = model.generate(
input_ids, # 기존 모델은 이렇게 명시하지 않아도 암묵적으로 수행했다
do_sample=True,
top_k=10,
max_new_tokens=32,
min_new_tokens=16,
output_scores=True,
num_beams=BEAM_SIZE,
repetition_penalty=10.0,
return_dict_in_generate=True,
num_return_sequences=BEAM_SIZE,
)
- PEFT 를 사용하지 않는 모델은 input_ids 를 굳이 정확하게 넣어주지 않아도 첫번째에 위치하면 알아서 인자로 인식했다
- PEFT 를 사용한 모델은 정확히 input_ids, attention_mask 등 어떤 인자에 위치하는지 알려줘야 한다
참고
https://github.com/huggingface/peft/issues/708
'NLP > error' 카테고리의 다른 글
[error] conda 에서 local 에 설치된 라이브러리에 접근해요 (0) | 2024.02.23 |
---|---|
[error] GPU가 충분한데 CUDA OUT OF MEMORY가 발생합니다 (0) | 2023.12.13 |
[error] 파이썬 엑셀 인코딩 문제 해결 (0) | 2023.09.19 |
[error] RuntimeError: CUDA error: invalid device ordinal (0) | 2022.08.03 |
[error] pretraind language model 이 같은 값만 뱉는 경우 (0) | 2022.07.26 |