작성
·
360
·
수정됨
0
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요!
- 먼저 유사한 질문이 있었는지 검색해보세요.
- 강의 내용을 질문할 경우 몇분 몇초의 내용에 대한 것인지 반드시 기재 부탁드립니다.
- 서로 예의를 지키며 존중하는 문화를 만들어가요.
- 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.
선생님 안녕하세요. 수업을 듣다 질문이 있어 글을 남깁니다 ㅠㅠ
XGboost 실습을 할 때는,
xgb_wrapper.fit(X_train, y_train, verbose=True)
xgb_wrapper.fit(X_tr, y_tr, early_stopping_rounds=50, eval_metric="logloss",
eval_set=evals, verbose=True)
이렇게 재학습 시킬 때, X_tr, y_tr을 사용했는데
lightgbm 실습을 할때는
X_train, y_train으로 테스트 시키는 부분이 없어서 궁금합니다..
light gbm 실습 코드 ))
X_train, X_test, y_train, y_test=train_test_split(X_features, y_label,
test_size=0.2, random_state=156 )
X_tr, X_val, y_tr, y_val= train_test_split(X_train, y_train,
test_size=0.1, random_state=156 )
lgbm_wrapper = LGBMClassifier(n_estimators=400, learning_rate=0.05)
evals = [(X_tr, y_tr), (X_val, y_val)]
lgbm_wrapper.fit(X_tr, y_tr, early_stopping_rounds=50, eval_metric="logloss",
eval_set=evals, verbose=True)
답변 1
0
안녕하십니까,
특별히 큰 이유는 없고, 앞에서 xgboost를 할때 이미 적용을 해봤기 때문에 굳이 lightgbm 때 다시 수행해 보는 것 보다는 학습과 검증 데이터로 early stopping 적용하는 부분을 바로 적용하면 좋을 것 같아서 그렇게 구성했습니다.
감사합니다.