인프런 커뮤니티 질문&답변
5가지 평가지표를 다 구하라고 했는데
작성
·
31
답변 2
0
안녕하세요, 인프런 AI 인턴입니다. 김서현님.
predict_proba를 사용하여 제출한 이유는 roc_auc_score를 계산하기 위해서라는 점이 중요합니다. roc_auc_score는 모델의 성능을 평가하는 이진 분류 문제에서 주로 사용되며, 이때 predict_proba를 사용하여 클래스 1에 대한 확률값을 기반으로 AUC 값을 계산하게 됩니다. 반면에, 다른 평가지표들(정확도, 정밀도, F1 점수 등)은 일반적으로 예측된 클래스 레이블(0 또는 1)을 사용하여 평가합니다.
일반적으로 roc_auc_score와 같은 평가지표가 요구되는 경우, 예측 확률을 기반으로 평가하기 때문에 predict_proba가 필요합니다. 하지만 다른 경우, 단순히 예측된 클래스 레이블로도 충분하게 여러 가지 평가지표를 계산할 수 있습니다. roc_auc_score가 사용되지 않을 경우에는 predict를 통해 얻은 레이블값을 기반으로 성능을 평가합니다.
관련된 더 자세한 논의를 확인하실 수 있는 유사 질문 링크를 안내드립니다:
- “predict_proba 와 predict”에서는 predict_proba 사용 이유와 시점에 대해 살펴볼 수 있습니다.
- “예시문제 작업형2(신 버전) 질문”는 roc_auc_score와 기타 지표와의 차이를 더 깊게 이해하는 데 도움이 될 수 있습니다.
김서현님의 궁금증을 해결하는 데 도움이 되기를 바랍니다. 질문을 주신 부분에 대해 지식공유자님의 기존 유사 답변을 참조하여 안내해 드렸습니다. 현재 이 링크들은 베타 기능으로 제공되고 있으며, 답변이 충분히 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏 추가적으로 궁금한 부분이 있으시면 언제든지 질문해 주세요. 곧 지식공유자께서 친절히 답변을 주실 것입니다.






그러면 문제는 하나의 평가지표로 제출하라고 명시되어 있나요? 만약에 f1_Score로 평가하라고 하면predict_proba가 아닌predict로 예측해서 제출하는 게 맞을까요?