inflearn logo
강의

강의

N
챌린지

챌린지

멘토링

멘토링

N
클립

클립

로드맵

로드맵

지식공유

[개정판] 파이썬 머신러닝 완벽 가이드

confusion matrix? 질문이 있습니다.

244

gkgktmd

작성한 질문수 16

0

피쳐데이터와 타겟 데이터의 비율이 7:3정도 되는 데이터인데

온갖거를 다해봐도 컨퓨전 매트릭스상으로 대부분이 1로 예측을 하는 결과가 나옵니다.

사실 1이 0.7이 넘으면 그냥 1만으로 해도 어큐러시가 0.7이 넘는다는 얘기긴한데..

1. 이렇게 특정 피쳐값에만 몰릴때 쓰는 테크닉 같은게 있을까요?

smote도 해봤는데 유의미한 차이는 없는듯 하고..

아니면 피쳐데이터 자체를 아예 새로 잡아야 하는걸까요?

2. 컨퓨전 매트릭스 상 tp가 워낙 많다 보니 재현율이나 정확도도그냥 높게 나와버리더라구요 ㅠ 이럴때는 MCC를 보는 것이 더 정확도가 있을까요?

python 머신러닝 배워볼래요? 통계

답변 1

0

권 철민

안녕하십니까,

지난번에 질문하신 내용이 아직 해결이 안되신것 같군요.

지난번 답변과 유사한데, 이것은 테스트 데이터 자체에 어떤 이슈가 있는 것 같습니다.

보통 학습 데이터를 validation한 성능이 테스트 데이터에서 10% 이하로 떨어지면 오버 피팅되었다고 개인적으로 생각합니다. 예를 들어 검증 데이터 세트에서 재현율 0.75 인데 테스트 데이터 세트에서 0.65 정도라면 오버피팅 맞습니다.

그런데  이 테스트 데이터는  직접 gkgktmd  님께서 원본 데이터에서 분리한 것인데, 이렇게 학습/검증 데이터 세트와 테스트 데이터 세트가 많이 달라지게 의도적으로 만든게 아니라면 성능이 크게 떨어질 이유가 없습니다. 

지금 테스트 데이터는 배제하고 학습 데이터에서 train_test_split()으로 random하게 30%정도 분리하셔서 이걸 test 데이터로 만들어서 수행해 보십시요.  random_state를 바꿔가면서 여러번 분리하고 테스트 해보십시요. 가능하다면 cross validation으로도 테스트 해보십시요. 

결과 update 부탁드립니다.

안녕하세요 열심히 수강중인 학생입니다

0

61

2

정수 인덱싱

0

68

2

넘파이 오류

0

85

2

11강 numpy의 axis 축 질문 드립니다.

0

85

2

Kaggle 에서 Santander customer satisfaction data 를 다운로드 되지가 않습니다.

0

79

2

Feature importances 를 보여주는 barplot 이 그래프로 안보여져요.

0

70

2

타이타닉 csv 파일이 주피터 화면에 보이지 않습니다.

0

75

2

타이타닉 csv 파일이 주피터 화면에 보이지 않습니다.

0

64

2

5강 강의 오류가 있어요.

0

84

1

실무에서 LTV 관련 모델 선택 질문입니다!

0

72

2

14강 강의 듣는중에 궁금한게 있어서 질문합니다~

0

69

3

파이썬 다운그레이 후 사이킷런 재설치

0

117

2

좋은 강의 감사합니다.

0

72

2

scoring 함수 음수값

0

67

2

6번 강의에 사이킷런, 파이썬, 아나콘다 각각 버전 일치 안 시키고 진행해도 강의 따라가 지나요?

0

100

2

분류 평가 정확도 예측

0

76

2

안녕하세요. 강의 들으면서 업무에 적용하고 싶은 수강생입니다.

0

98

1

카카오톡 채널 있나요

0

107

1

혹시 강의에서 사용하시는 ppt 받을 수 있는건가요

0

189

2

pca 스케일링 관련하여 질문드립니다.

0

100

2

주피터 대신 구글 코랩

0

172

2

강의에서 사용하는 pdf or ppt자료는 따로 없는 건가요?

0

147

2

실루엣 스코어..

0

86

2

float64 null 값 처리 방법

0

102

2