월 22,000원
5개월 할부 시다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
Graph execution error: 에러
선생님 안녕하세요. 다른 데이터셋으로 alexnet 모델훈련 후 test데이터 셋으로 성능 평가 중 해당에러가 발생하는데 버전문제일까요? 캐글노트북에서 진행하고 있습니다.UnknownError: Graph execution error:
- 미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
kenel_size부분 질문이요!
input_tensor = Input(shape = (IMAGE_SIZE, IMAGE_SIZE, 3)) x = Conv2D(filters = 32, kernel_size = (3, 3), padding = 'same', activation = 'relu', kernel_initializer = 'he_normal')(input_tensor)이 부분에서 입력데이터가 3차원으로 들어오잖아요.저번 강의에서 개별 커널의 차원은 3차원이라고 하셨던거 같은데,그럼 이 코드에선 한개의 커널이 rgb, 총 3개의 채널을 가진 (3 x 3 x 3)가 되는 것인가요?위에 전제가 맞다면, 2번째 줄 kernel_size가 (3, 3)인 이유는 케라스 내부에서 알아서 3개의 채널을 만들어주기 때문인가요??
- 미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
안녕하세요 교수님 model.fit()부분 batch_size관련해서 질문있습니다.
앞에서 mini-batch유형때 전체 학습 데이터의 순차적인 mini_batch가 딥러닝 프레임워크에 주로 사용한다고 말씀하셨지만 헷갈려서 질문드립니다!여기서 batch_size = 32라고 되어있는데, 이것은 전체 학습 데이터의 순차적인 mini_batch라고 생각하면 될까요?그래서 epoch1번당 batch_size * 1875 = 60000이 되는것을 알수가 있는거같아서요 혹시 맞을까요?
- 미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
코드부분 질문있습니다.
show_images함수에서 22 * 6크기의 사진이 들어가고 행의 크기 : 1, 열의 크기 : 8로 각각의 axs(이미지)를 ncols만큼 출력하는것은 알겠습니다.근데 axs[i].set_title(class_names[labels[i]]) 부분이 이해가 되지 않습니다.train_images랑 train_labels를 정확하게 매핑시켜주신거라고 생각하면 될까요?제가 번호로된 MNIST를 해봐서 헷갈려서 질문드립니다.감사합니다
- 미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
back propagation의 weight를 뒤에서부터 업데이트 하는 공식?은 없나요?
안녕하세요~! 좋은 강의 정말 감사드립니다...!!강의와 강의 질문중 대답해주신걸 바탕으로 이리저리 고민해봣는데backpropagation은 뒤에서부터 weight를 순차적으로 업데이트(gradient descent 알고리즘을 이용해서) 한다고 설명 되어 있는데...현재까지 강의에서는 체인룰에 좀 집중이 되어있는것 같고 최종 미분하는 것이 입력층에서 제일 가까운 weight로 보여집니다 그럼 한가지 궁금한것이체인룰을 실제로 사용할때 출력층과 제일 가까운 weight를 gradient descent를 이용해서 업데이트(앞쪽 강의의 단일퍼셉트론에서 한것과 같이) 한 다음 그업데이트 된 값에 대해서 다시 체인룰을 적용하는 것인가요!?다시한번 좋은강의 감사드립니다 성생님!^^
- 미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
squeeze() 부분 질문입니다
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 강의 내용을 질문할 경우 몇분 몇초의 내용에 대한 것인지 반드시 기재 부탁드립니다. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.train_labels = train_labels.squeeze() test_labels = test_labels.squeeze()이 부분에서 np.reshape(-1)형식으로 차원을 변경해도 상관이 없나요??
- 해결됨딥러닝 CNN 완벽 가이드 - Fundamental 편
back propagation 관해 질문있습니다.
안녕하세요 교수님개념이 헷갈리는거 같아서 확인차 질문글에 남깁니다!퍼셉트론과 심층망에서 경사하강법을 통해 weight값을 갱신하는데 퍼셉트론은 hidden layer가 없어 손실함수에서의 parameter값의 편미분을 쉽게 할수있지만,hidden layer가 있는 심층망에서는 parameter에 대한 미분이 쉽지 않아, chain rule을 이용한 backpropagation으로 각 layer마다 전해지는 weight값의 편미분 값을 경사하강법 공식에 대입하여 weight값을 update하는게 맞을까요??제가 남들보다 이해력이 좋지않아서 죄송합니다.. ㅎㅎ..
- 해결됨딥러닝 CNN 완벽 가이드 - Fundamental 편
안녕하세요 교수님 GD랑 미니배치 질문있습니다.
GD는 만약 features들의 값이 매우 많아진다면 weighted sum과 activation function을 거치면서 예측값이 나오는데 굉장히 오래걸릴거같습니다.반면 미니배치는 전체 features들의 값을 일정하게 분할하여 계산의 효율성을 증가시키고 메모리 효율성을 높이는데에 있다고 생각합니다.그래서 미니배치가 더욱 더 딥러닝 FrameWork에 채택되는것이 맞을까요??
- 미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
회귀개요와 RSE,MSE 강좌에서 질문있습니다.
Y = W1*X1 + W0를 2차원 좌표상에서 나타냈을때, 예측함수에 실제값을 더하면 실제함수가 나온다고 하셨는데 혹시 왜그런지 알수있을까요?만약 2개의 ERROR값이 Y = W1*X + W0를 중심으로 대칭이동을 하게되면 ERROR값은 0이 나온다고 생각합니다. 답변 부탁드립니다 !
- 미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
plt.plot부분 질문이요!!
plt.plot(history.history['accuracy'], label='train')plt.plot(history.history['val_accuracy'], label='valid')plt.legend()부분에서 x축은 epochs의 수이고 y축이 정확도인거죠??plt.plot에서 파라미터가 history.history['accuracy']만 있어서 헷갈리네요 ㅠㅠplt.plot()메소드에 파라미터로 x축과 y축 둘 다 넣어줘야 되는거 아닌가요???
- 미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
import boston set 질문
안녕하세요 이전에 질문드렸던 내용과 중복 되지만 문의드립니다.첨부된 사진과 같이 버전이 이전으로 downgrade하였지만 kaggle 에서 restart를 하여도 여전히 막혀있습니다. 해당 내용 확인 가능하실까요?
- 해결됨딥러닝 CNN 완벽 가이드 - Fundamental 편
안녕하세요 교수님
혹시 vscode를 사용해도 될까요?만약 kaggle을 사용해야한다면 jupyternotebook을 깔아야하나요?
- 미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
새로운 데이터셋에 훈련된 가중치 적용
선생님 안녕하세요. 항상 좋은 강의 잘 듣고 있습니다.두가지 질문이 있습니다.선생님께서 18:21에 좋은 성능을 보여준 이유로 imagenet의 가중치를 사용해서라고 말씀 하셨는데, imagenet의 훈련된 가중치는 애초에 cat and dog와 완전히 다른(imagenet에 많은 강아지와 고양이 이미지가 있다고 하더라도) 데이터로 만들어진 결과인데, cat and dog 데이터 셋에 적용해도 높은 정확도가 나오는 이유가 궁금합니다.그리고, 개인적으로 인도 새 25종을 분류하는 모델을 만들고 있는데그렇다면 강의와 같이 imagenet의 가중치를 가져와서 훈련하는 것이 아무것도 없는? 가중치로 훈련하는 것보다 좋은 성능 만들어 낼까요?
- 해결됨딥러닝 CNN 완벽 가이드 - Fundamental 편
CNN 모델 구성시 Filters 구성 수 순서 영향력에 대한 질문
안녕하세요! 강사님 좋은 강의 덕분에 정말 몰두해서 공부하고 있는 수강생입니다.CIFAR10 데이터세트를 이용하여 CNN 모델 구현 실습 - 02 강의에서 모델을 구성하실 때,필터의 개수가 32 -> 64 -> 128 이렇게 점차 증가하였는데, 첫 번째로 이렇게 구성하는게 보편적인 방법인 것인지 궁금하며,두번째는 128 -> 64 -> 32이렇게할 경우에는 효율이 좋지 않은 것인지 또 64 -> 128 -> 32 이런식으로 섞어주면 안되는 것인지 궁금합니다.
- 미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
모델 과적합 관련
선생님 안녕하세요.강의 4분30초 부근 만들어진 모델을 test데이터로 성능을 측정했을 때, 정확도가 0.92정도로 꽤 높다고 생각합니다. 하지만 강의에선 flatten으로 인해 파라미터 개수가 급격히 증가하여 과적합이 일어났다고 설명하셨는데, 만약 과적합이 일어났다면 test데이터로 성능을 측정했을 때 더 낮은 정확도가 나와야하는것 아닌가요?train데이터셋으로 모델을 훈련시킬 때 정확도가 99%가 나왔기 때문에 과적합이라고 설명해주신건 이해를 했습니다. 하지만 test데이터셋으로 모델 성능평가를 했을 때 높은 정확도가 나왔음에도 과적합이라고 생각하는건 이해가 되지 않아서 문의 드립니다.
- 미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
실무에서 이미지데이터가 충분히 많을경우에는 augmentation을 사용하지 않아도 되나요?
안녕하세요 선생님!좋은강의 감사합니다 잘듣고 있습니다!!궁금한것이 생겨 질문을 드립니다실제 회사나 연구소에서 이미지 데이터가 많거나 영상데이터로 학습을 하는경우(이미지데이터가 충분히 많다고 가정한경우) 굳이 이미지 augmentation을 하지 않아도 되나요...?
- 미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
학습 데이터셋에서 검증 데이터셋 나눌 때
선생님 안녕하세요. 두가지 질문이 있습니다.검증데이터셋을 구성할 때, 학습데이터 내의 데이터로 검증 데이터셋을 구성하는 이유는 학습데이터셋에 대한 과적합을 확인하기 위해서 인가요?그렇다면 다른 데이터셋으로 진행할 때도 학습데이터셋 내에서 검증 데이터셋을 구성하는 것이 맞는건가요? 학습,검증데이터셋을 나눠줄 때 사이킷런의 train_test_split 을 사용하는 이유는 단순히 데이터셋을 나누기에 적합한 함수이기 때문에 사용하는 것이죠? test data, valid data를 나누는데 함수 이름이 train_test_split이라서 헷갈리네요.
- 미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
선생님, load_boston이 import가 안돼요
안녕하세요 선생님,제가 load_boston을 import했을 때, 다음과 같이 오류가 나왔었습니다.ImportError: `load_boston` has been removed from scikit-learn since version 1.2.따라서 scikit-learn을 0.24.2버젼으로 바꿨는데, 여전히 이 오류가 계속 나옵니다.도저히 방법을 모르겠습니다.도와주세요.감사합니다.
- 미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
오차 역전파(Backpropagation)의 Gradient 적용 메커니즘 - 01 교재내용
강의 교재 내에 히든 뉴런 부분 중 a^2=g(z^2)라고 되어 있는데 제가 다운받은 교재에는 a^2 = g(z)라고 되어 있어서요 교재 내용이 다른거 같은데 어떻게 된걸까요?
- 미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
파라미터 개수에 대한 질문
안녕하세요.수업 중에 가중치 W와 파라미터가 같은 말이라고 설명해주셨습니다. 보통 파라미터의 개수라고 하면 정확히 무엇을 의미하나요?아래 수업 자료를 보면 앞 노드에서 다음 노드로 연결되는 화살표가 3개씩 있습니다. 그럼 이 화살표 각각을 파라미터 1개라고 간주해서, 아래 화살표 개수를 모두 합친 것을 파라미터 개수라고 하는지요? 아니면 앞 레이어에서 다음 레이어로 넘어갈 때, 한 노드에서 다음 노드로 화살표가 3개 있더라도, 파라미터는 1개라고 간주하나요?예를 들어 오픈AI의 GPT3의 파라미터는 1750억개라고 하는데, 여기서 파라미터 개수의 정의가 궁금합니다.