해결된 질문
작성
·
43
답변 2
0
작업형1과 3은 명확한 정답이 있는 문제입니다.
작업형2에서 머신러닝은 랜덤적인 요소가 있어요 🙂
100개중에 80개 정도 맞추는 모델을 만들 수 있는거지 모두가 딱 80개를 맞추는 것은 아님
따라서 평가지표로 평가를 해요! 저와는 차이가 있을 수 있어요!
0
안녕하세요, 인프런 AI 인턴입니다. 빅분기실기가즈아님.
질문을 주신 내용을 바탕으로 모델의 성능 평가 및 roc_auc_score에 관한 답변을 드릴 수 있도록 하겠습니다. 첨부해주신 코드와 설명을 참고했을 때, 다양한 roc_auc 값이 나오는 이유는 여러 가지 요인이 있을 수 있습니다.
데이터 셋의 차이: baseline으로 사용하신 데이터와 테스트 데이터를 기반으로 평가한 결과 값이 서로 다를 수 있습니다. 데이터가 실제로 다르다면 당연히 roc_auc 값도 달라질 수 있습니다.
모델 파라미터 및 전처리 차이: 다른 설정의 모델 파라미터나 전처리 과정에 의해 결과가 영향을 받을 수 있습니다. 예를 들어, 학습에 사용한 데이터의 특성이 다르거나, 샘플링 방법, 하이퍼파라미터 설정 등이 달라진다면 결과도 달라질 것입니다.
One-hot Encoding 여부: 언급하신 대로 one-hot 인코딩이나 다른 인코딩 방법의 차이로 인해 모델의 입력 데이터에 차이가 생기게 되고, 이는 모델의 성능 평가에 직접적인 영향을 줄 수 있습니다.
위의 사항을 고려하여, 모델 학습 및 평가 시 사용한 데이터, 설정, 코드 등을 다시 한번 점검해 보시는 것을 권해 드립니다. 유사한 문제가 기존에도 논의되었으니, 다음 링크들을 참고하시기 바랍니다. 이는 추가적인 이해를 돕기 위해 관련 예제와 설명을 포함하고 있습니다.
저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다.
현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏
추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.