소개
게시글
질문&답변
일별 잔존율 SQL 로직에서 궁금증이 있습니다.
저도 의아했는데 좋은 질문 감사합니다.
- 1
- 3
- 270
질문&답변
개별 쿼리 연결 시
저도 궁금합니다 오히려 union 해주면 안돌아가네요
- 2
- 3
- 206
질문&답변
random_state 지정 문의
안녕하세요 검색해보다가 추가 질문을 드리려고 합니다. "두가지 경우 모두 실전 분석에 random_state를 설정하는 것이 좋다"라고 하셨는데 train_test_split의 random_state와 DecisionTreeClassifier과 같은 estimator에서의 random_state를 동일하게 설정해야 유의미한 것인가요? 예를들어 train_test_split에서 random_state=7로 지정했으면 DecisionTreeClassifier와 같은 estimator에서도random_state=7로 지정해야 결과가 유의미한 것인지 아니면 전혀 상관 없는지 궁금합니다. 항상 감사합니다.
- 1
- 4
- 2.8K
질문&답변
UnicodeEncodeError: 'ascii' codec can't encode characters in position 18-20: ordinal not in range(128)
강의 데이터/실습을 사용하는 중에 발생한 에러 맞습니다. 내용은 책 4.4장 랜덤포레스트(220쪽)입니다. 전에는 잘 작동했었는데 복습하려고 다시 돌려보니 에러가 발생하네요 -> 결과적으로 철민님께서 알려주신 방법으로 resource_tracker.py 파일 열어서 수정하니 정상 작동됩니다. 오늘 이것 때문에 몇시간동안 씨름하다가 포기했었는데 덕분에 해결되었습니다ㅠㅠ 진심 행복합니다. 앞으로 평생 구글코랩만 써야하나 별 생각을 다했었네요. 이렇게 말씀으로밖에 감사한 마음을 전달할 수가 없지만.. 다시 한번 감사합니다. 철민님도 행복하세요
- 0
- 3
- 4.2K
질문&답변
LDA 그래프 좌우반전 질문합니다.
그런 이슈가 있었군요. 감사합니다.
- 1
- 10
- 775
질문&답변
LDA 그래프 좌우반전 질문합니다.
복붙에 용이하시라고 아래에 코드 덧붙입니다. from sklearn.discriminant_analysis import LinearDiscriminantAnalysis from sklearn.preprocessing import StandardScaler from sklearn.datasets import load_iris iris = load_iris() iris_scaled = StandardScaler().fit_transform(iris.data) lda = LinearDiscriminantAnalysis(n_components=2) # fit()호출 시 target값 입력 lda.fit(iris_scaled, iris.target) iris_lda = lda.transform(iris_scaled) print(iris_lda.shape) import pandas as pd import matplotlib.pyplot as plt %matplotlib inline lda_columns=['lda_component_1','lda_component_2'] irisDF_lda = pd.DataFrame(iris_lda,columns=lda_columns) irisDF_lda['target']=iris.target #setosa는 세모, versicolor는 네모, virginica는 동그라미로 표현 markers=['^', 's', 'o'] #setosa의 target 값은 0, versicolor는 1, virginica는 2. 각 target 별로 다른 shape으로 scatter plot for i, marker in enumerate(markers): x_axis_data = irisDF_lda[irisDF_lda['target']==i]['lda_component_1'] y_axis_data = irisDF_lda[irisDF_lda['target']==i]['lda_component_2'] plt.scatter(x_axis_data, y_axis_data, marker=marker,label=iris.target_names[i]) plt.legend(loc='upper right') plt.xlabel('lda_component_1') plt.ylabel('lda_component_2') plt.show()
- 1
- 10
- 775
질문&답변
LDA 그래프 좌우반전 질문합니다.
깃허브에 올려주신 코드 그대로 실행했습니다. 한 화면에 담기 위해 화면 사이즈를 줄여서 캡쳐하느라 글자가 작아졌습니다. 양해바랍니다,, (사진) 버전은 아래와 같이 0.23.2 입니다. (사진) 참고로 PCA 공부할때는 문제 없이 동일하게 나왔습니다.
- 1
- 10
- 775
질문&답변
변동성이 의미하는건 무엇인가요?
두번째 PCA Component는 약 5%인데 0.5%로 잘못 말씀하신 것 같습니다. 감사합니다.
- 0
- 3
- 335
질문&답변
분류의 큰 그림에 대해 질문합니다.
감사합니다. 이 강의의 장점은 무엇보다 질문&답변인 것 같습니다. 게시판에 검색해보면서 여러 질문에 대한 답변에 많은 도움 받고 있습니다. 감사합니다.
- 4
- 3
- 175