분류 평가 정확도 예측
79
投稿した質問数 1
강사님 안녕하세요!
분류 평가 오차행렬 관련해서 궁금한 점이 있습니다.
3.1 정확도 주피터노트북의 Confusion Matrix 코드에서 MNIS 데이터에 대해 오차행렬 평가를 하는데, 이때는 FP, TP가 나오지 않는 이유가 classifier가 dummy classifier로 더 정확한 분류를 하지 못했기 때문이 맞을까요?
回答 2
1
안녕하십니까,
네, 맞습니다. FP, TP가 0으로 나오는 이유는 dummy classifier 모든 예측을 다 0 즉 Negative로 했기 때문에 아예 Positive가 없어서 FP, TP는 0이 나오게 됩니다.
감사합니다.
0
안녕하세요, 인프런 AI 인턴입니다. Sojeong Baek님.
오차행렬(Confusion Matrix)은 주어진 분류 모델의 성능을 평가하는 데 매우 유용한 도구입니다. 오차행렬에서는 일반적으로 TP(True Positive), TN(True Negative), FP(False Positive), FN(False Negative)라는 항목이 나타나게 됩니다. 하지만, 분류기가 모든 샘플을 한쪽 클래스(예: 모든 샘플을 Negative)로만 예측할 경우, 일부 항목이 0으로 나타날 수 있습니다.
특히, Dummy Classifier는 주로 baseline(기본 성능) 측정을 위해 사용되며, 이는 정말 최소한의 전략(예: 가장 흔한 클래스로 예측하기)을 사용하여 예측을 수행합니다. 따라서 FP, TP가 적거나 없는 이유는 Dummy Classifier의 예측 방식 때문일 가능성이 큽니다. 이 경우, 해당 모델은 다른 분류 성능 지표가 감소해 부정확해 보일 수 있습니다.
일반적으로 머신러닝 모델을 평가할 때는 Dummy Classifier의 결과를 비교 기준으로 삼아 좀 더 복잡한 모델(예: Decision Trees, SVM 등)과의 성능 차이를 측정합니다. 이는 Dummy Classifier보다 얼마나 더 나은 성능을 보이는지를 판단하는 데 유용합니다.
아래 링크를 통해 유사한 질문과 답변을 확인하실 수 있습니다:
- 3장의 오차행렬이 잘 이해가 가지 않습니다.
- 오차행렬
저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다.
현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏
추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.
모델 서빙과 관련된 강좌가 출시되는지 질문드립니다.
0
6
1
안녕하세요 열심히 수강중인 학생입니다
0
63
2
정수 인덱싱
0
68
2
넘파이 오류
0
85
2
11강 numpy의 axis 축 질문 드립니다.
0
85
2
Kaggle 에서 Santander customer satisfaction data 를 다운로드 되지가 않습니다.
0
79
2
Feature importances 를 보여주는 barplot 이 그래프로 안보여져요.
0
70
2
타이타닉 csv 파일이 주피터 화면에 보이지 않습니다.
0
75
2
타이타닉 csv 파일이 주피터 화면에 보이지 않습니다.
0
64
2
5강 강의 오류가 있어요.
0
84
1
실무에서 LTV 관련 모델 선택 질문입니다!
0
72
2
14강 강의 듣는중에 궁금한게 있어서 질문합니다~
0
69
3
파이썬 다운그레이 후 사이킷런 재설치
0
117
2
좋은 강의 감사합니다.
0
74
2
scoring 함수 음수값
0
67
2
6번 강의에 사이킷런, 파이썬, 아나콘다 각각 버전 일치 안 시키고 진행해도 강의 따라가 지나요?
0
100
2
안녕하세요. 강의 들으면서 업무에 적용하고 싶은 수강생입니다.
0
99
1
카카오톡 채널 있나요
0
108
1
혹시 강의에서 사용하시는 ppt 받을 수 있는건가요
0
190
2
pca 스케일링 관련하여 질문드립니다.
0
100
2
주피터 대신 구글 코랩
0
172
2
강의에서 사용하는 pdf or ppt자료는 따로 없는 건가요?
0
148
2
실루엣 스코어..
0
86
2
float64 null 값 처리 방법
0
103
2

