무료
다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결혼자 공부하는 머신러닝+딥러닝
5강 데이터 전처리 부분에서 에러 질문입니다
섹션1-2 데이터 전처리부분의 24분 쯤의 코드입니다 plt.scatter(train_input[:,0], train_input[:,1])plt.scatter(25, 150, marker='^')plt.scatter(train_input[indexes,0], train_input[indexes,1], marker='D')plt.xlabel('length')plt.ylabel('weight')plt.show()이부분을 따라 쳤는데 자꾸 똑같은 에러가 나서 진행이 안되서 말씀 드립니다 TypeError: list indices must be integers or slices, not tuple 이렇게 뜨고 어디가 문제인지 잘 모르겠어서 질문드립니다
- 미해결혼자 공부하는 머신러닝+딥러닝
295쪽 세번째 문단
샘플의 평균값이 아니라 픽셀별 평균값을 비교해 보면 어떨까 생각했습니다 ->샘플들의 평균값을 구하는 것과 픽셀들의 평균값을 구하는 것의 통계적인 차이가 궁금합니다어떤 통계적인 의미가 아쉬워서 후자를 택하게 된건지 알고 싶습니다.
- 미해결혼자 공부하는 머신러닝+딥러닝
292쪽 픽셀값 분석하기
그다음 reshape() 메서드를 사용해 두번째 차원(100)과 세번째 차원(100)을 10,000으로 합칩니다.첫번째 차원을 -1로 지정하면 자동으로 남은 차원을 할당합니다. 라고 써있는데 너무 추상적이라서 정확히 무슨 말을 하는지 이해가 안가요ㅠㅠ차원을 10,000으로 합친다는게 무슨 말인가요?그러면 100*100 이미지를 100*10000의 1차원 배열로 만든다는 말인가요?
- 미해결혼자 공부하는 머신러닝+딥러닝
182쪽 distances
indexes를 이용하여 근접 이웃의 데이터의 인덱스를 받아온건 이해가 가는데왜 distances = kn_kneighbors(test_scaled[3:4]) 도 설정한건가요?
- 미해결혼자 공부하는 머신러닝+딥러닝
03-2 160쪽 릿지 회귀
지금 train_scaled, train_target을 그대로 쓰는데 train_scaled=ss.transform(train_poly)더라고요, 근데 앞에 코드 보면 poly=PolynomialFeatures(degree=5, include_bias=False) 이렇게 쓰이던데 릿지는 계수를 제곱한 항을 기준으로 한다했는데 지금 5제곱 항을 쓰는걸로 이해가 되거든요.... 개념이 어디서 헷갈린 건가요?
- 해결됨혼자 공부하는 머신러닝+딥러닝
왜 k 근접 회귀는 전처리를 안하나요
x축 y축 scale이 다르지 않나요?
- 미해결혼자 공부하는 머신러닝+딥러닝
다중회귀 모델의 데이터량 관련
안녕하세요! 다중회귀 관련 궁금한 점이 있어 문의드립니다.예를 들어 예측 시마다 최근 데이터 40개로 150개의 변수를 가진 다중회귀식을 학습 및 예측하는 방식의 회귀 모델은 활용이 가능할까요(규제모델을 함께 적용은 시킨다는 전제하에서요)예측 시마다 최근 데이터로 재학습을 하는 방식입니다.
- 미해결혼자 공부하는 머신러닝+딥러닝
텐서플로우의 GRU셀의 파라미터 개수에 대한 질문이 있습니다.
강사님 언제나 양질의 강의에 감사드립니다. 강의 덕분에 1회독을 수월하게 끝낼 수 있었습니다.다름이 아니라 텐서플로우의 GRU셀의 파라미터 개수에 대해 질문이 있습니다.538p의 GRU 방식에서는 Wg 뉴런에서 Wh, Wx를 한번에 처리하여 절편이 해당 뉴런에 하나 배정되었던 것으로 이해했습니다. 이전에도 파라미터의 개수를 계산할 때 절편은 뉴런당 하나이므로...의 방식으로 제일 마지막에 절편 개수를 더해왔구요.그런데 540p에서 Wh와 Wx를 계산하는 순서가 분리되어 개별적인 절편이 필요하다는 부분이 조금 이해가 되질 않습니다. 해당 부분을 '별도의 선형 방정식이 추가 된 것'이라고 설명 해주셨는데 추가적인 셀이 생성 된 것은 아니겠지요...?여태 제가 이해한 것이 '뉴런 당 절편 하나' 이어서 그런지 '별도의 선형 방정식이 추가 된 것'이라는 설명이 직관적으로 이해되질 않습니다... 실제로 538p의 Wg셀은 그대로이고 내부적으로 방정식과 별도의 절편만 추가 된 것으로 이해하면 될지, 아니면 Wh라는 별도의 셀이 추가 된 것으로 이해하면 될 지 궁금합니다
- 미해결혼자 공부하는 머신러닝+딥러닝
순환 신경망의 순환층의 가중치에 대해 질문이 있습니다
강사님 언제나 친절한 답변에 감사드립니다.다름이 아니라 순환층의 가중치에 대해 질문이 있습니다영상 강의에서는 가중치 Wh, Wx를 설명해주실 때 Wx는 샘플마다 동일하게 사용되고, Wh는 타임스텝마다 동일하게 사용된다고 말씀해 주셨습니다. 그런데 492p의 세번째 문단에서 '모든 타임스텝에 사용되는 가중치는 Wh 하나라는 점 입니다'라는 설명에서 혼선을 느끼고 있습니다. 이미지를 참고하였을 때는 결국 매 스텝마다 입력에 대한 Wx, 이전 은닉상태에 대한 Wh 모두 사용하는 것으로 이해가 생각이 되는데 어떤 차이점이 있어서 이렇게 설명해주신걸까요?또 타임 스탭 1...3까지는 순환층 내부의 각각의 뉴런으로 이해되는데, 그렇다면 각각의 뉴런이 모두 동일한 Wx와 Wh를 가진다는 말씀이실까요? 아니면 Wx는 뉴런 별로 고유하되 Wh만 동일하다는 말씀이실까요? 493p에서 Wh의 개수가 9개라는 말이 Wh는 '하나의 값'이 아니라 각각의 뉴런이 다른 뉴런에게 전달한 각각의 값이기 때문에 각 뉴런에 3개씩 있다고 이해하는 것이 정확한지도 궁금합니다.또 타임스텝의 순서는 임의의 순서대로 1,2,3 이렇게 정해지는 것인지 여러가지 방법이 있는지도 궁금합니다
- 해결됨혼자 공부하는 머신러닝+딥러닝
은닉 상태에 대한 질문이 있습니다
강사님 언제나 친절한 답변에 감사드립니다.다름이 아니라 490p에 은닉 상태 이미지에 관해 질문이 있습니다.하단의 도움말을 참고하면 '앞의 그림 O도 은닉상태랍니다'라고 적혀있는데, 이 말이 의미하는 것이 두번째 타임스탭부터는 이전 층의 출력이 재사용되기 때문에, 셀도 출력에 포함되는 것으로 생각하면 된다는 말씀이 맞을까요?그 부분이 직관적인 이해가 되질 않습니다
- 미해결혼자 공부하는 머신러닝+딥러닝
합성곱 신경망 파트에 대해 질문이 있습니다.
안녕하세요 강사님. 먼저 늘 유익한 강의에 감사드립니다.다름이 아니라 합성곱에 대해 공부 중 두 가지 의문이 생겨 질문드립니다.1. 451p 신경망 생성을 그림으로 요약한 표 입니다.이미지가 필터를 거칠 때, 필터는 슬라이딩 하듯이 이미지 위를 이동하는 것으로 이해했습니다. 그런데, 몇 차례 이동을 거쳤을텐데 원본과 같은 크기의 이미지를 반환합니다. 반환된 이미지는 어떤 기준으로 계산되는건지 궁금합니다.2. 473p에서 두번째 문단에, '우리에게 필요한 것은 첫번째 conv2D의 출력입니다. model 객체 입력과 conv2D의 출력을 알 수 있다면 둘을 연결하여 새로운 모델을 얻을 수 있지 않을까요?' 부분의 맥락이 이해가 되질 않습니다. 여기서는 왜 새로운 모델을 만들려고 하는걸까요?
- 미해결혼자 공부하는 머신러닝+딥러닝
트리 알고리즘에 대해 질문이 있습니다
안녕하세요 강사님 유익한 강의에 감사드립니다.현재 트리 알고리즘을 공부 중에 있습니다. 교재 233p에서 '-0.802'음수로 된 당도를 이사님께...' 이 부분에서 의문이 생겼습니다. 데이터를 열어 확인해 보았을 때는feature_names로 입력된 세가지 특성 모두 음수가 없었는데, 예제의 트리에서는 특성<=음수로 분류되는 경우가 많더라구요. 트리 알고리즘은 표준화 전처리가 필요 없다고 설명해주셔서 그 값은 특성값에 그대로 적용되는 것으로 이해했는데, 그렇다면 해당 특성 전체가 양수인 데이터를 음수보다 작은 것을 조건으로 나눌 수 있는 것이 맞나요?음수인 데이터가 없으니 조건대로라면 트리의 한 방향으로 전부 치우치게 되어야 하지 않나하는 생각이 들었습니다.
- 미해결혼자 공부하는 머신러닝+딥러닝
경사 하강법의 에포크의 반복에 대해 질문이 있습니다
안녕하세요 강사님 좋은 강의에 감사드립니다.다름이 아니라 경사하강법을 공부 중 의문점이 들어 질문글을 작성하게 되었습니다.에포크를 반복하며 과소-적정-과대 적합으로 성능이 진행되는 것으로 배웠는데요, 211p의 예시에서는 에포크마다 데이터가 새로 추가되지는 않은 것으로 이해를 했습니다.그럼 같은 데이터를 반복해서 학습을 시키는 건데, 그게 성능 개선에 어떻게 영향을 미치고 효과를 발휘하게 되는 것인지 궁금합니다.같은 데이터를 반복한다면 성능 개선이 없어야 하는 것으로 이해가 되어서요
- 해결됨혼자 공부하는 머신러닝+딥러닝
.score() 메소드에 대해 질문이 있습니다
안녕하세요 강사님 책으로 공부하고 있는 학생입니다.다름이 아니라 sklearn의 score()함수에 대해 질문이 있습니다.책의 158p 다중 회귀모델 훈련하기에서 예시코드로 print(lr.score(test_poly, test_target))이라는 코드를 작성하고, -144.40... 이라는 값을 얻게 됩니다. 제가 알기로는 score 메소드가 반환하는 것은 R^2 상관계수인데, 이게 보통은 0~1의 값을 가질텐데 이렇게 큰 음수가 나오는건 무엇을 의미하는걸까요? 대략적으로 이게 맞지 않다는 것은 이해하겠는데, 어째서 큰 음수가 나오는 것인지 통 이해가 되질 않습니다.사실 이 부분은 로지스틱 회귀를 공부하다 생긴 일부의 질문입니다.183p에서 시그모이드 함수를 학습하는 중, z값은 어떤 값이든 가능하다고 하셨는데 어째서 그것이 가능한걸까요? '3장에서 다룬 다중 회귀를 위한 선형 방정식과 같다'고 하셨는데 z값이 정확히 의미하는 바가 무엇인지 모르겠습니다. z값이 무엇인지 모르니 왜 (-∞~∞)의 범위를 가지는지 이해할 수 없고 더 나가지를 못하고 있습니다... 몇번을 싸매고 봐도 정말 잘 모르겠습니다..
- 미해결혼자 공부하는 머신러닝+딥러닝
K최근접 모델 이웃선정 기준
5강의 K최근접 분류 모델에선 무게와 길이로 이웃을 찾고 클래스를 분류했다면 6강의 K최근접 회귀 모델에선 길이로만 이웃을 찾고 무게를 구한건가요?또한 K최근접 회귀로 예측한 값의 무게와 길이로 구한 이웃과 길이로만 구한 이웃과 다를 수 있나요?
- 미해결혼자 공부하는 머신러닝+딥러닝
k-최근점 알고리즘 질문 입니다.
k-최근점 알고리즘은 데이터셋으로 학습후예측을 할때 거리를 기반으로 정답을 유추하는데이 정답을 유추하는 함수가 내부에선 학습한 모든 점을 다가지고 계산을 하나요? 아니면 데이터에 알맞는 방정식을 가지고 계산을 해서 알려주나요? 모든 점의 위치를 가지고 있다면 모델이 무거워 질거 같아 질문드립니다.
- 미해결혼자 공부하는 머신러닝+딥러닝
imdb
print(train_input[0]) --> 실행했을 때, 다섯 번째 단어부터 500개의 단어가 포함되지 않는 단어가 있는 것으로 예상되는데, 왜 2가 포함되지 않는 단어의 정수가 되는 건가요?
- 미해결혼자 공부하는 머신러닝+딥러닝
합성곱 층 구성
1) keras.layers.Dense(64, activation='relu') keras.layers.Dense(10, activation='softmax') 위 코드에서 은닉층에서는 relu 함수를 사용하는 이유가 무엇인가요?! 2) 457p predict로 첫 번째 샘플의 10개의 확률값을 예측하고 난 후, preds = model.predict(val_scaled[0:1]) # (1,28,28,1)인 데이터 preds 그래프를 그릴 때, plt.bar(range(1,11), preds[0]) plt.xlabel('class') plt.ylabel('prob.') plt.show() 왜 preds의 인덱스값이 0이 되나요...?
- 미해결혼자 공부하는 머신러닝+딥러닝
에포크값
409p) model = model_fn(keras.layers.Dropout(0.3)) model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy']) checkpoint_cb = keras.callbacks.ModelCheckpoint('best-model.h5') early_stopping_cb = keras.callbacks.EarlyStopping(patience=2, restore_best_weights=True) history= model.fit(train_scaled, train_target, epochs=20, verbose=0, validation_data=(val_scaled, val_target), callbacks=[checkpoint_cb, early_stopping_cb]) 콜백에서 최적의 에포크값이 11인 것을 찾았으면, 이 값(epochs=11)을 가지고 다시 모델을 훈련했을 때 성능이 또 달라질 수도 있나요? 아니면 같은 데이터로 모델을 훈련하더라도 매번 에포크나 정확도 값이 달라질 수 있나요?
- 미해결혼자 공부하는 머신러닝+딥러닝
심층 신경망 옵티마이저
케라스가 다양한 종류의 경사 하강법 알고리즘을 제공하고 이들을 옵티마이저라고 부른다. - 옵티마이저 기본값 = 'rmsprop' - 그 외 다양한 옵티마이저 알고리즘 : sgd, Adagrad, Adam...etc 여기까지는 이해를 했는데, "가장 기본적인 옵티마이저가 확률적 경사 하강법인 SGD이고, 기본 경사 하강법 옵티마이저는 모두 SGD 클래스에서 제공한다." 이 부분이 이해되질 않습니다. 1. RMSprop, SGD, Adagrad, Adam 모두 동일선상의 알고리즘 아닌가요? 아니면 기본 경사 하강법 옵티마이저(SGD, 모멘텀, 네스테로프 모멘텀)와 적응적 학습률 옵티마이저(RMSprop, Adagrad, Adam)를 각각 다른 옵티마이저 그룹으로 나누어 생각해야 하나요?