inflearn logo
강의

강의

N
챌린지

챌린지

멘토링

멘토링

N
클립

클립

로드맵

로드맵

지식공유

[개정판] 파이썬 머신러닝 완벽 가이드

PCA를 이용한 신용카드 데이터 세트의 차원 축소 실습

PCA 변환시

해결된 질문

190

rjsdnr4

작성한 질문수 3

1

PCA 변환시 피처추출시

기존 변수가 결합해서 새로운 변수가 추출된건데

원인 변수를 알 수 없는지요?

예를들어 PCA후 변수1이 생성되었다면

키와 몸무게가 합쳐서 변수1이 생성되었다.

이상입니다.

통계 python 머신러닝 배워볼래요?

답변 3

2

권 철민

안녕하십니까,

아쉽게도(제가 아는한) 정확히 알 수 있는 방법은 없습니다. 가령 키 60% 몸무게 40%와 같은 형태로 알 수 없습니다.

PCA는 개별 Feature들의 공분산에 기반하여 고유 벡터를 추출하고, 이 고유 벡터를 기반으로 하여 원본 데이터를 선형 변환하는 방식입니다. 이렇게 선형 변환된 데이터를 정확하지는 않지만 손실을 감안하여 원본 데이터와 유사하게 원복은 할 수 있습니다만, 이렇게 하더라도 각 Feature들이 얼만큼 결합되어 PCA변환되었는지 정확히 알 수 있는 방법은 없습니다.

개괄적으로나마 알기 위해서는 약간의 노가다(?) 방법을 동원할 수도 있습니다.

만일 10개의 FEATURE들이 있고 이를 2개의 PCA component로 변환한다면 10개중 4~5개 정도를 임의로 선택하여 2개의 PCA 로 변환할 때 얼마나 원본과 explained variance ratio가 차이나는지 feature들을 반복해서 테스트 하면서 가장 좋은 feature들을 가려내면서 감을 잡는 방법입니다.

좋은 질문이십니다.  감사합니다.

1

JACKIE CHAN

가장 고유값이 높은 고유벡터의 벡터원소들을 구하면 되는 것 아닌가요?! 

0

권 철민

고유값이 높은 고유 벡터는 PCA로 선형 변환할때 적용됩니다만, 이를 이용해도 원본 데이터를 100% 복원할 수는 없습니다.  사이킷런의 PCA의 inverse_transform()을 적용하면 원본 데이터를 어느정도 복원해주지만, 어떤 속성끼리 결합되어 PCA가 만들어졌는지 100%  알수 없습니다.

감사합니다.

모델 서빙과 관련된 강좌가 출시되는지 질문드립니다.

0

10

2

안녕하세요 열심히 수강중인 학생입니다

0

63

2

정수 인덱싱

0

68

2

넘파이 오류

0

85

2

11강 numpy의 axis 축 질문 드립니다.

0

85

2

Kaggle 에서 Santander customer satisfaction data 를 다운로드 되지가 않습니다.

0

79

2

Feature importances 를 보여주는 barplot 이 그래프로 안보여져요.

0

70

2

타이타닉 csv 파일이 주피터 화면에 보이지 않습니다.

0

75

2

타이타닉 csv 파일이 주피터 화면에 보이지 않습니다.

0

64

2

5강 강의 오류가 있어요.

0

84

1

실무에서 LTV 관련 모델 선택 질문입니다!

0

72

2

14강 강의 듣는중에 궁금한게 있어서 질문합니다~

0

69

3

파이썬 다운그레이 후 사이킷런 재설치

0

117

2

좋은 강의 감사합니다.

0

74

2

scoring 함수 음수값

0

67

2

6번 강의에 사이킷런, 파이썬, 아나콘다 각각 버전 일치 안 시키고 진행해도 강의 따라가 지나요?

0

100

2

분류 평가 정확도 예측

0

79

2

안녕하세요. 강의 들으면서 업무에 적용하고 싶은 수강생입니다.

0

99

1

카카오톡 채널 있나요

0

108

1

혹시 강의에서 사용하시는 ppt 받을 수 있는건가요

0

190

2

pca 스케일링 관련하여 질문드립니다.

0

100

2

주피터 대신 구글 코랩

0

172

2

강의에서 사용하는 pdf or ppt자료는 따로 없는 건가요?

0

148

2

실루엣 스코어..

0

86

2