수강이 제한됩니다.
다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결밑바닥 부터 시작하는 머신러닝 입문
Chapter3 Assignment 문제 요구사항 문의드립니다.
안녕하세요. 좋은 강의 올려주셔서 감사히 잘 듣고 있습니다.다름이 아니오라Chapter3. Assignment (Numpy 파트) 중"n_size_ndarray_creation" 요 함수 구현이 계속 성공을 못하고 있습니다.정확히 요구하는 요건이 무엇인지 알고 싶습니다. n값이 5일경우 5 x 5 행렬을 생성하게 되는데.. 1) 행렬의 원소에 기본적으로 할당되어야 하는 값은?2) X[i, i] 위치에 할당되어야 하는 값은?-> (i+1) 2 인지 (i+1)2 -1 인지감사합니다.
- 미해결밑바닥 부터 시작하는 머신러닝 입문
사이킷런의 DecisionTreeClassifier의 하이퍼파라미터 criterion 관련 질문
사이킷런은 gini를 사용하는 CART알고리즘을 사용하지만 criterion하이퍼파라미터를 통해 entropy로 설정가능하다고 배웠습니다.그럼 criterion = 'entropy'로 설정시 사용하는 알고리즘도 C4.5로 변경되어 다지분류가 가능해지는 건가요? 아니면 CART알고리즘을 그대로 사용하는 건가요??
- 미해결밑바닥 부터 시작하는 머신러닝 입문
강의자료 다운불가
저도 강의자료 다운이 안되네요본 강의 문서입니다.
- 미해결밑바닥 부터 시작하는 머신러닝 입문
ch11_naive bayes 강좌에서 20 new group 강좌 강의자료가 없습니다.
ch11_naive bayes 강좌에서 20 new group 강좌 강의자료가 없습니다.
- 미해결밑바닥 부터 시작하는 머신러닝 입문
ch12_handling a continuous attribute 강의자료가 빠져있습니다.
ch12_handling a continuous attribute 강의부분이 강의자료에는 빠져있습니다.확인 부탁드립니다.
- 미해결밑바닥 부터 시작하는 머신러닝 입문
남겨주신 차트에서 보면 SGD는 수렴을 더 높은값에서 하게 되는데...
남겨주신 차트에서 보면 SGD는 수렴을 더 높은값에서 하게 되는데그렇다면 SGD는 완전한 최저점으로 수렴한것이 아니라고 봐도 되는 것인가요?FGD 보다 왜 더 높은 cost값에서 수렴하고 끝나는 것인가요? 해결책은 무엇인가요?
- 미해결밑바닥 부터 시작하는 머신러닝 입문
강의 문서가 다운로드가 안됩니다.
문서가 로딩만 하고 있습니다.확인부탁드립니다.
- 미해결밑바닥 부터 시작하는 머신러닝 입문
14, 15주차 강의는 6월 말에 한꺼번에 올라오나요?
다른분이 질문 한 것을 보니 14주차 강의가 6월 2일까지로 예정되어 있던데 혹시 6월 말에 14, 15주차 강의가 한꺼번에 6월말에 올라오나요?
- 미해결밑바닥 부터 시작하는 머신러닝 입문
linear_model.LinearRegression 에서 iteration은 어떻게 정해지는지 궁금합니다.
linear_model.LinearRegression 에서 iteration은 어떻게 정해지는지 궁금합니다.Gradient Descent 류의 방법을 사용하여 Regression한 것 같은데, iteration 수는 어떻게 정해 질까요?sci-kit learn 공식 홈페이지에 따로 설명은 없었습니다.
- 미해결밑바닥 부터 시작하는 머신러닝 입문
위 강의에서 나오는 엑셀파일은 어디서 얻을 수 있을까요?
(사진)
- 미해결밑바닥 부터 시작하는 머신러닝 입문
다음 강의가 언제 쯤 올라올까요?
얼마 안남어서 아껴서 들었는데 올라온 것들은 다 들었네요.혹시 다음 강의가 언제쯤 올라올지요?항상 좋은 강의 감사드립니다.
- 미해결밑바닥 부터 시작하는 머신러닝 입문
2_DT_algorithm.ipynb 수식과 다른 구현 및 버그
안녕하세요. A. 강의 자료에는 Info_A(D) 수식이 마이너스(-)로 시작하는데 코드 구현은 아무리 살펴보아도 마이너스 부분이 빠진 듯 합니다. 마이너스가 없는 것이 맞는 표현인지요? B. 그리고 get_attribute_info(df, attribute_name) 구현 내부에서 parameter로 전달된 df를 사용하지 않고 전역객체인 pd_data를 사용하고 있어서 branch가 나누어진 후에 계산할 때 오동작하는 문제가 있습니다. 항상 종은 강의 감사드립니다.
- 미해결밑바닥 부터 시작하는 머신러닝 입문
news_data를 받을 수 없을까요?
제가 '밑바닥 부터 시작하는 머신러닝 입문'만 수강중이고, '데이터 과학을 위한 파이썬 입문'는 수강을 하고 있지 않아서 news_data를 받을 수가 없습니다.혹시 news_data만 따로 받을 수 있는 방법이 없을까요?
- 미해결밑바닥 부터 시작하는 머신러닝 입문
정규표현식 중 이해가 되지 않는 표현이 있습니다.
안녕하세요. 좋은 강의 항상 감사드립니다. data_cleansing()에서 숫자를 삭제하기 위해서 사용한 r'\b|\d+|\b'이 정확히 어떠한 문자열을 목표로 하고 있는지 잘 모르겠습니다. '|'는 or이라고 알고 있는데, 그냥 해석하면 word boundry OR digits OR word boundry 인데 or랑 word boundry가 같이 있으니 정확한 의미 파악이 안됩니다. 혹시 r'\b\d+\b'의 오타인가요?
- 미해결밑바닥 부터 시작하는 머신러닝 입문
Smoothing 과 Log 연산을 사용했을 때 다른 결과가 나옵니다.
안녕하세요.강의 잘 듣고 있습니다.2_german_credit_application 따라하다가 Smoothing과 log를 적용해 보았는데,결과가 원래와 다르게 나옵니다.아래 코드입니다. 혹시 제가 실수한 곳이 있나요.몇 시간이나 이것 저것 바꾸어 보았지만 찾지 못해서 질문드립니다.고맙습니다.import pandas as pdimport numpy as npdf = pd.read_csv('./fraud.csv', sep=',')del df['ID']y_data = df['Fraud'].as_matrix()x_df = pd.get_dummies(df[['History', 'CoApplicant', 'Accommodation']])x_data = x_df.as_matrix()ix_y_is_true = np.where(y_data == True)[0]ix_y_is_false = np.where(y_data == False)[0]p_y_is_true = len(ix_y_is_true) / len(y_data)p_y_is_false = len(ix_y_is_false)/ len(y_data)# Smoothing...k = 2p_x_when_y_is_true_sm = (np.sum(x_data[ix_y_is_true], axis=0) + k) / (len(ix_y_is_true) + k * 2)p_x_when_y_is_false_sm = (np.sum(x_data[ix_y_is_false], axis=0) + k) / (len(ix_y_is_false) + k * 2)# Testx_test = [0,1,0,0,0,1,0, 0,1,0]p_true = np.log(p_y_is_true) + np.dot(x_test, np.log(p_x_when_y_is_true_sm))p_false = np.log(p_y_is_false) + np.dot(x_test, np.log(p_x_when_y_is_false_sm))print('p_true > p_false :', p_true > p_false)
- 미해결밑바닥 부터 시작하는 머신러닝 입문
3_logistic_regression_with_numpy.ipynb 에 버그가 있는 듯 합니다.
minimize_gradient() 구현 중에original_theta = theta라고만 되어 있어서 (같은 객체를 가르킴) 아래의 for loop에서 theta를 update시킬 때마다 original_theta도 같이 update 됩니다.
- 미해결밑바닥 부터 시작하는 머신러닝 입문
LinearRegression Gradient Descent Lab Unit Test 코드 관련 질문
Lab unit test 코드 중 다음 코드가 정상인지요? A. cost(self, h, y) h의 shape가 (300,1)이고 y는 (300,)이어서 (h-y)의 shape가 (300,300)이 됩니다. B. gradient(self, X, y, theta) A와 같은 이유로 (self.hypothesis_function(X, theta) - y)의 shape가 (300,300)이 됩니다.
- 미해결밑바닥 부터 시작하는 머신러닝 입문
2_data_plot 실행시 ModuleNotFoundError: No module named 'sklearn' 에러
from sklearn.preprocessing import StandardScalerstd_scaler = StandardScaler()scale_data = std_scaler.fit_transform(df_data)scale_data를 실행하면 아래 에러가 납니다.ModuleNotFoundError Traceback (most recent call last) in ()----> 1 from sklearn.preprocessing import StandardScaler 2 std_scaler = StandardScaler() 3 scale_data = std_scaler.fit_transform(df_data) 4 scale_dataModuleNotFoundError: No module named 'sklearn'conda install StandardScaler 해도 안되구요.
- 미해결밑바닥 부터 시작하는 머신러닝 입문
submit HASH_KEY 결과에 대한 질문
1. test_boolean_index | FAILED | Failed1) boolean_index(X, "== 3")와 boolean_index(X, "> 6")의 실행 결과가 Assignment: Numpy in a nutshell"과 동일하게 나오는데, submit.bat HASH_KEY에서 FAILED 이 나옵니다.boolean_index(X, "== 3") 결과 => (array([0]), array([3]))boolean_index(X, "> 6") 결과 => (array([ 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31]),)2. test_normalize_ndarray | FAILED | Failed1) submit.bat HASH_KEY 실행 결과가 Assignment: Numpy in a nutshell처럼 나오게 하려면 어떻게 해야 하나요?normalize_ndarray(X) 결과 => [[-1.593255 -1.3035723 ][-1.0138896 -0.7242068 ][-0.4345241 -0.14484136][ 0.14484136 0.4345241 ][ 0.7242068 1.0138896 ][ 1.3035723 1.593255 ]]Assignment: Numpy in a nutshell 실행 결과 =>array([[-1.59325504, -1.3035723 ],[-1.01388955, -0.72420681],[-0.43452409, -0.14484136],[ 0.14484136, 0.43452409],[ 0.72420681, 1.01388955],[ 1.3035723 , 1.59325504]], dtype=float32)2) 윈도우 10 64비트에서는 값도 약간 차이가 있습니다. -1.593255, -1.59325504
- 미해결밑바닥 부터 시작하는 머신러닝 입문
Problem #11의 테스트 결과 True, True, False, True인데, submit.bat를 실행하면 FAILED 나옵니다.
Problem #11 - is_product_availability_matrix (one line code available)에 대해 코드를 작성한 후 4개 테스트를 실행하면 True, True, False, True인데, submit.bat를 실행하면 FAILED 나옵니다.