작성한 질문수
모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
Llama 2 Fine-Tuning 예제 1 - KorQuad 데이터셋에 Fine-Tuning된 Llama 2 예측(Inference) 및 ChatGPT(GPT-4)와 성능 비교
작성
·
37
0
안녕하세요
우선 커리큘럼을 차례대로 재밌게 학습하고 있습니다
LLM finetuning 후 추론하는 예시를 따라하고 있는데요
아래 박스는 혹시 필요 없는 문장이 아닌가 해서 질문 드립니다
감사합니다
답변 1
안녕하세요~. 반갑습니다.
재밌게 학습하고 계시다니 기쁘네요^^.
확인해보니 말씀해주신대로 해당 예제에서는 바로 아래에 정의된 bnb_config 변수를 사용하기 때문에 언급해주신 config 변수는 사용하지 않아서 불필요하게 정의되어 있네요.
config 변수는 무시하시면 될 것 같습니다.
좋은 하루되세요.
감사합니다.