• 카테고리

    질문 & 답변
  • 세부 분야

    딥러닝 · 머신러닝

  • 해결 여부

    미해결

xgboost/ light gbm 재학습 질문

23.05.11 21:51 작성 23.05.11 21:52 수정 조회수 297

0

- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요!
- 먼저 유사한 질문이 있었는지 검색해보세요.
- 강의 내용을 질문할 경우 몇분 몇초의 내용에 대한 것인지 반드시 기재 부탁드립니다.
- 서로 예의를 지키며 존중하는 문화를 만들어가요.
- 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.

 

선생님 안녕하세요. 수업을 듣다 질문이 있어 글을 남깁니다 ㅠㅠ

 

XGboost 실습을 할 때는,

  1. xgb_wrapper.fit(X_train, y_train, verbose=True)

  2. xgb_wrapper.fit(X_tr, y_tr, early_stopping_rounds=50, eval_metric="logloss",

    eval_set=evals, verbose=True)

이렇게 재학습 시킬 때, X_tr, y_tr을 사용했는데

lightgbm 실습을 할때는

X_train, y_train으로 테스트 시키는 부분이 없어서 궁금합니다..

 

light gbm 실습 코드 ))

X_train, X_test, y_train, y_test=train_test_split(X_features, y_label,

test_size=0.2, random_state=156 )

X_tr, X_val, y_tr, y_val= train_test_split(X_train, y_train,

test_size=0.1, random_state=156 )

lgbm_wrapper = LGBMClassifier(n_estimators=400, learning_rate=0.05)

 

evals = [(X_tr, y_tr), (X_val, y_val)]

lgbm_wrapper.fit(X_tr, y_tr, early_stopping_rounds=50, eval_metric="logloss",

eval_set=evals, verbose=True)

답변 1

답변을 작성해보세요.

0

안녕하십니까,

특별히 큰 이유는 없고, 앞에서 xgboost를 할때 이미 적용을 해봤기 때문에 굳이 lightgbm 때 다시 수행해 보는 것 보다는 학습과 검증 데이터로 early stopping 적용하는 부분을 바로 적용하면 좋을 것 같아서 그렇게 구성했습니다.

감사합니다.