inflearn logo
강의

강의

N
챌린지

챌린지

멘토링

멘토링

N
클립

클립

로드맵

로드맵

지식공유

[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)

7회 기출유형(작업형2)

전처리 방식과 모델 성능 차이

79

이정균

작성한 질문수 9

0

7회 2유형을 전처리 방식을 원핫인코딩과 레이블인코딩으로 나눠서 해보았는데,

rmse가 원핫인코딩의 경우 38만정도가 나왔는데,

 

레이블인코딩의 경우 2100정도가 나옵니다.

 

전처리 방식에 따라서 이렇게 큰 차이가 날 수가 있는건가요..? 아니면 모델 학습단계에서 제가 오류를 범한걸까요?

python 머신러닝 빅데이터 pandas 빅데이터분석기사

답변 2

0

퇴근후딴짓

인코딩으로 약간의 차이는 있을 수 있는데 이렇게까자 보통 차이가 나지 않아요

뭔가 잘못된 것 같은데

평가 지표가 동일한 것 맞을까요?

0

인프런 AI 인턴

안녕하세요, 인프런 AI 인턴입니다. 이정균님.

전처리 방식에 따라 모델 성능이 크게 달라질 수 있습니다. 특히, 원핫인코딩과 레이블인코딩은 서로 다른 특성을 가지기에 결과에 차이가 나타날 수 있습니다.

  1. 원핫인코딩(One-Hot Encoding): 모든 카테고리형 변수에 대해 새로운 열을 생성하여 데이터의 차원을 증가시킵니다. 이는 범주형 데이터 사이의 분포를 더 세밀하게 표현할 수 있으나, 차원이 크게 증가할 수 있어 과적합(overfitting)을 유발하거나 계산 비용이 늘어날 수 있습니다.

  2. 레이블인코딩(Label Encoding): 범주형 변수를 정수 형태로 변환하여 각 범주에 숫자를 할당합니다. 범주의 순서나 크기가 모델에 영향을 미칠 수 있기 때문에 분류 문제에서는 잘못된 결과를 초래할 수 있습니다. 예를 들어 범주 간에 숫자가 주는 의미가 있어서는 안 되는 경우(카테고리 간의 순서가 없는 경우) 문제가 발생할 수 있습니다.

이 두 인코딩 방식이 주는 차이는 모델에 따라 다르게 영향을 미칠 수 있습니다. 모델 학습 시에는 범주형 변수의 처리 방법이 영향을 줄 수 있기에, 결과 차이가 나는 것은 자연스러운 현상일 수 있습니다. 그럼에도 불구하고 차이가 지나치게 크다면, 학습 시 데이터 분할(검증, 테스트 데이터)을 다시 확인해 보시고, 과적합을 방지하기 위한 방법(예: 교차 검증, 하이퍼파라미터 튜닝)을 시도해볼 수 있습니다.

아래 링크를 통해 유사한 주제에 대한 답변을 참고하실 수 있습니다:

저는 질문자님의 이해를 돕고자 지식공유자님의 기존 답변을 참고하여 유사한 답변 링크를 추천해드리고 있습니다. 현재 베타 기능으로 답변이 만족스럽지 않을 수 있는 점 양해 부탁드립니다. 🙏 추가적으로 궁금한 점이 있으시면, 이어서 질문해 주세요. 곧 지식공유자께서 답변해 주실 것입니다.

1유형 강의 다 나간 후 어떻게 할까요?

0

13

1

점수차가 많이 나는데 따로 하신게 있으신가요?

0

10

1

작업형1 모의문제 4번에 3)문제 질문

0

21

2

이상치 전처리 작업

0

25

2

평가결과값 문의

0

29

2

시계열 데이터 날짜와 시간 format

0

34

2

평가지표 F1 스코어 질문드립니다.

0

27

2

작업형 2 기출7회분에서

0

38

2

작업형2 모의문제1 (30강)

0

34

2

수강 기간 연장 문의 드립니다.

0

42

2

수강 계획과 관련해 문의 드립니다.

0

30

2

작업형1 - 연습문제 16~39 풀이는 몇강을 보면 되나요?

0

50

2

작업형 1 -연습문제 4-6

0

38

2

작업형 1 유형 부분

0

42

2

작업형 1 (삭제예정, 구 버전)

0

51

2

수강기간 연장 문의드립니다.

0

38

2

2유형 레이블 인코딩 VS 원핫 인코딩

0

37

3

수강기간 연장 문의드립니다.

0

44

2

인덱스 슬라이싱

0

37

2

질문 드립니다.

0

50

2

강의 내용 관련 질문드립니다~

0

46

2

수강 연장 문의

0

63

2

강의자료 일괄 다운로드

0

62

2

수강기간 연장 문의드립니다

0

48

2