소개
게시글
질문&답변
ML 모델 배포 질문
안녕하세요. 자세한 답변 너무 감사합니다! 1번 답변 주신 부분에서 한가지 궁금한게 있습니다.spring boot에서 전처리 작업은 어렵다고 이해를 했고, 결국 모델을 학습 전 전처리 했던 것처럼 실제 데이터를 전처리 후 모델 predict를 통해 예측한다. 로 이해 했습니다. 위 내용만 들었을 때, 어떻게 작업을 해야 할지..조금 감이 안 잡히는데요.(생성한 모델에 input 값을 넣어 주기 위한 별도의 api(전처리 과정을 해주기 위한)를 생성해야 할지..)혹시 참고할만한 링크나 키워드가 있을까요?
- 0
- 2
- 950
질문&답변
조기중단기능(early stopping) 질문
안녕하세요.아래 코드에서 eval_list 는 학습 데이터와 검증 데이터가 담겨 있고, evals 파라미터에 이를 추가했습니다.# 학습 데이터 셋은 'train' 또는 평가 데이터 셋은 'eval' 로 명기합니다. eval_list = [(dtr,'train'),(dval,'eval')] # 또는 eval_list = [(dval,'eval')] 만 명기해도 무방. # 하이퍼 파라미터와 early stopping 파라미터를 train( ) 함수의 파라미터로 전달 xgb_model = xgb.train(params = params , dtrain=dtr , num_boost_round=num_rounds , \ early_stopping_rounds=50, evals=eval_list )이를 실행하여 출력값을 확인해 보면 train-logloss는 계속 감소하고 있고, eval-logloss는 126번 부터 더 이상 감소하지 않습니다.evals 파라미터에 학습과 검증 데이터를 모두 넣었는데 한쪽만 감소하는 이유가 궁금했습니다![126] train-logloss:0.01973 eval-logloss:0.25587 [127] train-logloss:0.01946 eval-logloss:0.25640 [128] train-logloss:0.01927 eval-logloss:0.25685 [129] train-logloss:0.01908 eval-logloss:0.25665 [130] train-logloss:0.01886 eval-logloss:0.25712 [131] train-logloss:0.01863 eval-logloss:0.25609 [132] train-logloss:0.01839 eval-logloss:0.25649 [133] train-logloss:0.01816 eval-logloss:0.25789 [134] train-logloss:0.01802 eval-logloss:0.25811 [135] train-logloss:0.01785 eval-logloss:0.25794 [136] train-logloss:0.01763 eval-logloss:0.25876 [137] train-logloss:0.01748 eval-logloss:0.25884 [138] train-logloss:0.01732 eval-logloss:0.25867 [139] train-logloss:0.01719 eval-logloss:0.25876 [140] train-logloss:0.01696 eval-logloss:0.25987 [141] train-logloss:0.01681 eval-logloss:0.25960 [142] train-logloss:0.01669 eval-logloss:0.25982 [143] train-logloss:0.01656 eval-logloss:0.25992 [144] train-logloss:0.01638 eval-logloss:0.26035 [145] train-logloss:0.01623 eval-logloss:0.26055 [146] train-logloss:0.01606 eval-logloss:0.26092 [147] train-logloss:0.01589 eval-logloss:0.26137 [148] train-logloss:0.01572 eval-logloss:0.25999 [149] train-logloss:0.01557 eval-logloss:0.26028 [150] train-logloss:0.01546 eval-logloss:0.26048 [151] train-logloss:0.01531 eval-logloss:0.26142 [152] train-logloss:0.01515 eval-logloss:0.26188 감사합니다.
- 0
- 2
- 262