inflearn logo
강의

강의

N
챌린지

챌린지

멘토링

멘토링

N
클립

클립

로드맵

로드맵

지식공유

[개정판] 파이썬 머신러닝 완벽 가이드

회귀계수

332

psycn1

작성한 질문수 4

0

회귀계수보면 분류에 정확도랑다르게

5.453 이런식으로 나와있는데

회귀계수가 어느정도되야 좋은거고 어느정도되야 나쁜건지 궁금합니다

통계 머신러닝 배워볼래요? python

답변 2

0

psycn1

감사합니다!

0

권 철민

안녕하십니까,

회귀 계수 값이 어느정도되야 좋은거고 어느정도되야 나쁜건지의 기준을 뭐라 답해야 할지 좀 애매하군요.

feature개수가 하나가 있다면  값이 큰 feature와 값이 작은 target값은 당연히 예측을 회귀계수 x feature 값 = target 값으로 하므로 일반적으로 회귀 계수가 작습니다.

feature가 여러개 일때는 좀 복잡합니다.

회귀 계수값의 좋고 나쁨은 예측 정확성과 예측의 변동성을 기반하여 주로 판단합니다. 때문에 회귀값의 크기가 얼마냐는 이 기준에 정확하게 부합하지는 않습니다. 다만 일반적으로 비 상식적으로 회귀 계수값이 크다면 (십만/백만 단위) 예측의 변동성이 커서 오버피팅이 발생할 수 있습니다.(물론 feature값의 크기들이 작고, target 값의 크기가 크다면 회귀 계수값이 십만/백만 단위가 될 수 있지만 이런 경우는 매우 드물 것입니다.) 

 선형 회귀의 경우는 일반적으로 feature들을 특정값 범위로 scaling을 합니다. 이렇게 scaling 된 값과 target 값을 감안하여 어느 정도 선에서 회귀 계수가 결정되는지 감(?)을 잡을 수 있습니다.

요약하자면 회귀 계수 값 크기 범위만으로 좋은 모델 여부를 판단하기에는 무리가 있습니다. feature값이 작고 target 값이 크면 회귀 계수값이 클 수 밖에 없습니다.  때문에 feature값과 target 값에 따라서 적정한 회귀 계수값이 달라질 수 밖에 없습니다. 하지만 어떤 경우는 feature데이터 세트를 target 값에 무리하게 예측을 맞추기 위해서 개별 회귀 계수값들이 매우 크게 차이가 나는 경우들이 있습니다. 이런 경우는 오버 피팅이 의심되므로 Regularization이나 feature engineering을 보다 적절히 수행하여 회귀 계수값을 조정할 필요가 있습니다.

감사합니다.

안녕하세요 열심히 수강중인 학생입니다

0

63

2

정수 인덱싱

0

68

2

넘파이 오류

0

85

2

11강 numpy의 axis 축 질문 드립니다.

0

85

2

Kaggle 에서 Santander customer satisfaction data 를 다운로드 되지가 않습니다.

0

79

2

Feature importances 를 보여주는 barplot 이 그래프로 안보여져요.

0

70

2

타이타닉 csv 파일이 주피터 화면에 보이지 않습니다.

0

75

2

타이타닉 csv 파일이 주피터 화면에 보이지 않습니다.

0

64

2

5강 강의 오류가 있어요.

0

84

1

실무에서 LTV 관련 모델 선택 질문입니다!

0

72

2

14강 강의 듣는중에 궁금한게 있어서 질문합니다~

0

69

3

파이썬 다운그레이 후 사이킷런 재설치

0

117

2

좋은 강의 감사합니다.

0

72

2

scoring 함수 음수값

0

67

2

6번 강의에 사이킷런, 파이썬, 아나콘다 각각 버전 일치 안 시키고 진행해도 강의 따라가 지나요?

0

100

2

분류 평가 정확도 예측

0

77

2

안녕하세요. 강의 들으면서 업무에 적용하고 싶은 수강생입니다.

0

99

1

카카오톡 채널 있나요

0

107

1

혹시 강의에서 사용하시는 ppt 받을 수 있는건가요

0

189

2

pca 스케일링 관련하여 질문드립니다.

0

100

2

주피터 대신 구글 코랩

0

172

2

강의에서 사용하는 pdf or ppt자료는 따로 없는 건가요?

0

148

2

실루엣 스코어..

0

86

2

float64 null 값 처리 방법

0

103

2