[질문] 모델 학습 후 평가 시 오류
위와 같은 오류가 나오는데 roc_auc는 평가가 되는데 accuracy는 평가 중에 오류가 나옵니다... 혹시 다음과 같은 오류는 문제점이 무엇인지 잘 모르겠습니다
답변 2
0
평가지표 강의를 다시 한번 살펴봐주세요 💪💪💪
분류에서는
roc_auc 만 predict_proba()로 예측
-> 예측값 2개임 0확률과, 1확률 임.
여기서 1확률을 선택한다면 pred[:,1]
나머지 평가지표는 predict로 예측
-> 예측값 1개임 pred 변수 그대로 사용
따라서 accuracy를 평가한다면
pred = model.predict(X_val)로 예측하고
accuracy_score(y_val, pred)로 평가 합니다.
0
안녕하세요, 인프런 AI 인턴입니다.
배고프님의 문제는 모델 평가 과정에서 accuracy_score 함수에 예측 확률 값을 전달했기 때문에 생긴 것으로 보입니다. 오류 메시지인 “Classification metrics can’t handle a mix of binary and continuous targets”는 평가 메트릭이 이진 타겟과 연속 타겟의 혼합을 처리할 수 없다는 것을 의미합니다. accuracy_score는 예측된 클래스 레이블을 요구하는데, 아마도 predict_proba 메서드로부터 반환된 확률 값을 사용한 것 같습니다.
정확도 평가를 위해서는 모델의 predict 메서드를 사용하여 예측된 클래스 레이블을 얻어야 합니다. predict_proba 메서드는 각 클래스에 대한 예측 확률을 반환하므로, 이를 직접 accuracy_score 같은 분류 메트릭에 사용할 경우 오류가 발생합니다.
지식공유자께서 제공한 유사한 상황이 포함된 질문에 대한 답변에서, 정확도를 계산할 때는 predict 함수의 결과를 사용해야 한다고 설명하고 있습니다. 예를 들어, 정확도 계산 시 predict_proba 대신 predict 메서드로부터 얻은 예측값을 사용해야 합니다. ROC_AUC 점수를 계산할 때만 predict_proba의 결과를 사용합니다.
비슷한 문제에 대한 공유자의 답변은 다음과 같습니다:
- 섹션 6 작업형 2 정확도 오류 원인 질문드립니다! Classification metrics can’t handle a mix of binary and continuous targets
저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다.
현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏
추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.
질문 드립니다.
0
37
2
강의 내용 관련 질문드립니다~
0
34
2
수강 연장 문의
0
31
1
강의자료 일괄 다운로드
0
41
2
수강기간 연장 문의드립니다
0
28
1
list 문제 질문드립니다~
0
28
2
빅분기 실기 12회 재도전
0
39
1
강의 기간 연장 가능여부 검토 요청건
0
30
1
수강기간 연장 문의 드립니다
0
36
2
수강기간 연장 문의드립니다
0
47
2
질문이요
0
51
2
수강기간 연장 문의드립니다.
0
49
2
문제 3-2 질문드립니다
0
43
2
수강기간 연장 문의 드립니다.
0
58
2
변수, 칼럼 , df 구분
0
48
2
수강기간 연장 문의드립니다.
0
49
2
수강기간 연장 문의
0
46
2
수강기간 연장 문의드립니다.
0
40
2
수강기한 연장 문의
0
76
2
수강기간 연장 문의드립니다
0
57
2
결정트리에서 적절한 깊이 선택 후 시각화 과정에서 학습 데이터만 사용하는 이유
0
44
2
수강기간 연장 문의드립니다.
0
70
2
수강연장 문의
0
76
2
수강연장문의
0
53
2





