• 카테고리

    질문 & 답변
  • 세부 분야

    딥러닝 · 머신러닝

  • 해결 여부

    해결됨

분류실습 중 데이터 분리 후 학습에 대해서 질문있습니다.

24.04.07 18:23 작성 24.04.07 21:09 수정 조회수 62

0

권철민 교수님! 늘 감사드립니다.

늘 업데이트도 해주셔서 정말 감동입니다 :)

 

질문 있습니다!

산탄데르 만족예측관련해서 주신 실습코드에 보면,

XGBoost의 "early_stopping_rounds" 를 사용하기 위해

  1. 학습데이터 셋 분리

  2. 분리된 데이터에서 조기종료 검증셋 분리

  3. 모델학습

이렇게 구성되어있습니다.

 

## 1. 학습셋 분리
X_train, X_test, y_train, y_test = train_test_split(X_features, y_labels,test_size=0.2, random_state=0,stratify=y_labels)

## 2. X_train, y_train을 다시 학습과 검증 데이터 세트로 분리. 
X_tr, X_val, y_tr, y_val = train_test_split(X_train, y_train, test_size=0.3, random_state=0, stratify=y_train)

## 3. 모델 훈련
from xgboost import XGBClassifier
from sklearn.metrics import roc_auc_score

# n_estimators는 500으로, learning_rate 0.05, random state는 예제 수행 시마다 동일 예측 결과를 위해 설정. 
xgb_clf = XGBClassifier(n_estimators=500, learning_rate=0.05, random_state=156)

# 성능 평가 지표를 auc로, 조기 중단 파라미터는 100으로 설정하고 학습 수행. 
xgb_clf.fit(X_tr, y_tr, early_stopping_rounds=100, eval_metric='auc', eval_set=[(X_tr, y_tr), (X_val, y_val)])

여기서 질문이 있습니다.

최종적으로 모델을 만들때는 X_train, y_train 셋으로 사용해야 더 많은 데이터로 학습을 하기에 성능이 좋지 않나요? 아무래도,
X_tr 보단 X_train셋의 데이터가 많으므로 좋을거 같아서요..

 

물론, 조기종료(early_stopping_rounds)를 사용하지 못하겠지만... 아니면 일단 조기종료를 통해 하이퍼파라미터를 찾고, 그 파라미터로 맨 마지막에 X_train을 사용하라는 의미로 생각해도 될까요??

 

교수님께 늘 감사드리며, 24년도 늘 건강하고 행복한 일들로만 가득하길 기원합니다^^. 좋은 하루 되세요!

답변 1

답변을 작성해보세요.

1

안녕하십니까,

아이고, 이렇게까지 칭찬을 해주셔서 몸들바를 모르겠습니다. 감사합니다. ^^'

 

최종적으로 모델을 만들때는 X_train, y_train 셋으로 사용해야 더 많은 데이터로 학습을 하기에 성능이 좋지 않나요?

=> 그럴수도 있고, 그렇지 않을 수도 있습니다. XGBoost, LightGBM과 같은 라이브러리는 학습 데이터가 아닌 검증 데이터로 오버피팅을 좀 더 개선해 나갈 수 있습니다. 때문에 검증 데이터를 기반으로 학습 수행 시 지속적으로 iteration을 수행하는 도중에 학습 데이터의 Loss는 계속 줄지만, 검증 데이터의 loss는 더 이상 줄어들지 않고, 오히려 늘어난다면, 학습을 중단하여 오버 피팅에 빠지지 않도록 개선할 수 있는 장점이 있습니다.

일반적으로 데이터가 적다면 X_train, y_train 셋으로 사용해서 더 많은 데이터로 학습을 하는것이 성능이 더 좋을 수 있습니다. 반면에 데이터가 충분이 있다면, 적절한 정도의 검증 데이터를 기반으로 학습 도중에 성능을 검증해 나가면서 학습을 해나가는 것이 성능이 더 좋을 수 있습니다.

 

감사합니다.

wkk90님의 프로필

wkk90

질문자

2024.04.09

빠르고 소중한 답변 정말 감사합니다^^ 좋은하루 되세요!!