묻고 답해요
130만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
안녕하세요 교수님 model.fit()부분 batch_size관련해서 질문있습니다.
앞에서 mini-batch유형때 전체 학습 데이터의 순차적인 mini_batch가 딥러닝 프레임워크에 주로 사용한다고 말씀하셨지만 헷갈려서 질문드립니다!여기서 batch_size = 32라고 되어있는데, 이것은 전체 학습 데이터의 순차적인 mini_batch라고 생각하면 될까요?그래서 epoch1번당 batch_size * 1875 = 60000이 되는것을 알수가 있는거같아서요 혹시 맞을까요?
-
미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
코드부분 질문있습니다.
show_images함수에서 22 * 6크기의 사진이 들어가고 행의 크기 : 1, 열의 크기 : 8로 각각의 axs(이미지)를 ncols만큼 출력하는것은 알겠습니다.근데 axs[i].set_title(class_names[labels[i]]) 부분이 이해가 되지 않습니다.train_images랑 train_labels를 정확하게 매핑시켜주신거라고 생각하면 될까요?제가 번호로된 MNIST를 해봐서 헷갈려서 질문드립니다.감사합니다
-
미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
back propagation의 weight를 뒤에서부터 업데이트 하는 공식?은 없나요?
안녕하세요~! 좋은 강의 정말 감사드립니다...!!강의와 강의 질문중 대답해주신걸 바탕으로 이리저리 고민해봣는데backpropagation은 뒤에서부터 weight를 순차적으로 업데이트(gradient descent 알고리즘을 이용해서) 한다고 설명 되어 있는데...현재까지 강의에서는 체인룰에 좀 집중이 되어있는것 같고 최종 미분하는 것이 입력층에서 제일 가까운 weight로 보여집니다 그럼 한가지 궁금한것이체인룰을 실제로 사용할때 출력층과 제일 가까운 weight를 gradient descent를 이용해서 업데이트(앞쪽 강의의 단일퍼셉트론에서 한것과 같이) 한 다음 그업데이트 된 값에 대해서 다시 체인룰을 적용하는 것인가요!?다시한번 좋은강의 감사드립니다 성생님!^^
-
미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
squeeze() 부분 질문입니다
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 강의 내용을 질문할 경우 몇분 몇초의 내용에 대한 것인지 반드시 기재 부탁드립니다. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.train_labels = train_labels.squeeze() test_labels = test_labels.squeeze()이 부분에서 np.reshape(-1)형식으로 차원을 변경해도 상관이 없나요??
-
해결됨딥러닝 CNN 완벽 가이드 - Fundamental 편
back propagation 관해 질문있습니다.
안녕하세요 교수님개념이 헷갈리는거 같아서 확인차 질문글에 남깁니다!퍼셉트론과 심층망에서 경사하강법을 통해 weight값을 갱신하는데 퍼셉트론은 hidden layer가 없어 손실함수에서의 parameter값의 편미분을 쉽게 할수있지만,hidden layer가 있는 심층망에서는 parameter에 대한 미분이 쉽지 않아, chain rule을 이용한 backpropagation으로 각 layer마다 전해지는 weight값의 편미분 값을 경사하강법 공식에 대입하여 weight값을 update하는게 맞을까요??제가 남들보다 이해력이 좋지않아서 죄송합니다.. ㅎㅎ..
-
미해결TensorFlow Object Detection API 가이드 Part1 - 코드 10줄 수정으로 물체검출하기
1강 colab 2022-11-11 파일도 안됩니다.
colab 2022-11-11 파일도 안됩니다.올인원 강의하고 똑같은 거네요.소스 확인 부탁합니다.
-
해결됨딥러닝 CNN 완벽 가이드 - Fundamental 편
안녕하세요 교수님 GD랑 미니배치 질문있습니다.
GD는 만약 features들의 값이 매우 많아진다면 weighted sum과 activation function을 거치면서 예측값이 나오는데 굉장히 오래걸릴거같습니다.반면 미니배치는 전체 features들의 값을 일정하게 분할하여 계산의 효율성을 증가시키고 메모리 효율성을 높이는데에 있다고 생각합니다.그래서 미니배치가 더욱 더 딥러닝 FrameWork에 채택되는것이 맞을까요??
-
미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
회귀개요와 RSE,MSE 강좌에서 질문있습니다.
Y = W1*X1 + W0를 2차원 좌표상에서 나타냈을때, 예측함수에 실제값을 더하면 실제함수가 나온다고 하셨는데 혹시 왜그런지 알수있을까요?만약 2개의 ERROR값이 Y = W1*X + W0를 중심으로 대칭이동을 하게되면 ERROR값은 0이 나온다고 생각합니다. 답변 부탁드립니다 !
-
미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
plt.plot부분 질문이요!!
plt.plot(history.history['accuracy'], label='train')plt.plot(history.history['val_accuracy'], label='valid')plt.legend()부분에서 x축은 epochs의 수이고 y축이 정확도인거죠??plt.plot에서 파라미터가 history.history['accuracy']만 있어서 헷갈리네요 ㅠㅠplt.plot()메소드에 파라미터로 x축과 y축 둘 다 넣어줘야 되는거 아닌가요???
-
미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
import boston set 질문
안녕하세요 이전에 질문드렸던 내용과 중복 되지만 문의드립니다.첨부된 사진과 같이 버전이 이전으로 downgrade하였지만 kaggle 에서 restart를 하여도 여전히 막혀있습니다. 해당 내용 확인 가능하실까요?
-
미해결설계독학맛비's 실전 AI HW 설계를 위한 바이블, CNN 연산 완전정복 (Verilog HDL + FPGA 를 이용한 가속기 실습)
pl과 ps의 동작주파수
안녕하세요 맛비님.23:42 초에 보시면, PL의 clock을 90 MHz로 맞춰주셨습니다. 그리고 Input Frequency가 33.33 MHz로 되어있는데, PS 즉 Arm processor의 동작주파수가 33.33MHz인가요?Arm processor의 zynq 내 정해져있는 건가요? 바꿀 수 있는 방법이 있는지 궁금합니다. 감사합니다.!!
-
해결됨딥러닝 CNN 완벽 가이드 - Fundamental 편
안녕하세요 교수님
혹시 vscode를 사용해도 될까요?만약 kaggle을 사용해야한다면 jupyternotebook을 깔아야하나요?
-
미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
새로운 데이터셋에 훈련된 가중치 적용
선생님 안녕하세요. 항상 좋은 강의 잘 듣고 있습니다.두가지 질문이 있습니다.선생님께서 18:21에 좋은 성능을 보여준 이유로 imagenet의 가중치를 사용해서라고 말씀 하셨는데, imagenet의 훈련된 가중치는 애초에 cat and dog와 완전히 다른(imagenet에 많은 강아지와 고양이 이미지가 있다고 하더라도) 데이터로 만들어진 결과인데, cat and dog 데이터 셋에 적용해도 높은 정확도가 나오는 이유가 궁금합니다.그리고, 개인적으로 인도 새 25종을 분류하는 모델을 만들고 있는데그렇다면 강의와 같이 imagenet의 가중치를 가져와서 훈련하는 것이 아무것도 없는? 가중치로 훈련하는 것보다 좋은 성능 만들어 낼까요?
-
미해결설계독학맛비's 실전 AI HW 설계를 위한 바이블, CNN 연산 완전정복 (Verilog HDL + FPGA 를 이용한 가속기 실습)
lab2 exam 시뮬레이션 시간 관련하여 질문있습니다.
안녕하세요 맛비님!Lab2 exam부분 진행하면서 simulation을 돌릴 때 simulation이 멈추는 문제가 계속 발생합니다..처음에는 cnn_kernel module이 가장 하위 module이라 이 module이 문제 없이 동작하게 설계하면 다른 module들도 비슷하게 하면 될 것 같아서 제가 따로 testbench 파일을 만들어서 동작을 확인해보려 했는데, input valid 신호가 들어오기 직전 부분에서 자꾸 simulation이 멈춰버립니다...그래서 제가 구글링을 해봤는데 testbench 작성이 bad 해서 그럴 수 있다는 얘기 정도밖에 안나오네요...(testbench 작성은 지금까지 제공해주신 testbench 파일과 거의 비슷한 flow로 reset_n을 주고 i_in_valid 를 high로 주고 output관찰하려고 했던 단순한 testbench였습니다) 그래서 나머지 모듈도 모두 코딩을 하고 맛비님이 제공해주신 run.py를 통해서 제대로 동작하는지 simulation 해보려고 했는데, 또 simulation이 멈춰버립니다..여기서 더 진행이 안됩니다..waveform 옵션이 있어서 그런가 하고 그냥 waveform gui없이 돌려봐도 Start이후에 진행이 안됩니다...강의 중에 3D이상의 array 선언을 하면 simulation time에 문제가 있어 vector 선언 후 Indexed part select를 통해 설계하셨다고 하셨는데, 저도 제공해 주신 frame안에서 그냥 TODO 부분만 Indexed part select를 통해서 코딩한 건데 왜 이런 문제가 발생하는지 잘 모르겠습니다. 제가 작성한 code에 문제가 있으면 simulation 결과를 보고 수정해서 정상적으로 동작하게 하고 싶은데 simulation이 완료가 안되니 어떻게 해야 할지 모르겠습니다... Matbi님의 lab2_solve 부분을 잠깐 확인을 했는데 크게 다르게 작성하지 않은 것 같은데 lab2_solve에서 run.py를 실행해보면 정상적으로 결과가 나옵니다.Verilog HDL이랑 FPGA강의를 수강해오면서 simulation이 멈춰서 디버깅을 못하는 경우는 없었는데 simulation이 멈춰버리니까 어떻게 디버깅을 해서 진행을 해야 할지 정말 모르겠습니다... 이럴 때는 어떻게 접근해야 하는지 여쭤보고 싶습니다.긴 글 읽어주셔서 감사합니다!
-
미해결DNN, CNN, RNN을 활용한 딥러닝 실무
"딥러닝(DNN)을 이용한 MNIST 손글씨 인식하기 웹 사이트" 확인 요청
딥러닝(DNN)을 이용한 MNIST 손글씨 인식하기 웹 사이트를 접속하면, 다른 사이트가 실행되는 것 같습니다.확인 부탁 드립니다.http://myselph.de/neuralNet.html
-
미해결설계독학맛비's 실전 AI HW 설계를 위한 바이블, CNN 연산 완전정복 (Verilog HDL + FPGA 를 이용한 가속기 실습)
CNN paper review 영상 관련 질문있습니다.
안녕하세요 맛비님. AI HW 6장 강의를 들으면서 MAC연산량 관련하여 의문점이 생겨서 질문 드립니다. https://www.inflearn.com/questions/735204/%EC%95%88%EB%85%95%ED%95%98%EC%84%B8%EC%9A%94-%EC%B1%95%ED%84%B06-7%EC%97%90-%EB%8C%80%ED%95%9C-%EC%A7%88%EB%AC%B8%EC%9E%85%EB%8B%88%EB%8B%A4(관련 질문글 링크) 1. 강의에서는 weight 수를 "kernel의 sample수"라고 하셨는데, 위 질문 답변의 A2에서 처럼정확히는 Convolution layer에서의 weigth 수는 "kernel의 sample수 * Output channel 수"가 맞지 않나요? 즉, OCH :output channel수 * (ICH * Kx * Ky : Kerner의 sample 수) 2. Convolution layer에서의 MAC수를 계산할 때는 Kernel size * Input Channel * Output Channel 을 한 게 output feature map의 한 point(1*1*OCH size)에 필요한 연산수 이기 때문에위 질문 답변에서의 A1.하나의 layer 에서의 MAC 량 = OCH* ICH * KX * KY이 아니라Kernel size * Input Channel * Output Channel* Output Feature map Size를 하여하나의 layer 에서의 MAC 량 = OCH * ICH * KX *KY* (Output Feature Map size)를 해줘야 맞는게 아닌가 싶습니다. 3. AI HW 6장의 교안에 LeNet-5 Network구현에 필요한 MAC연산수가 341k라고 되어있는데, 첫 Conv layer에 필요한 MAC연산은 (2번이 맞다면) 5*5*1*6*28*28 = 117,600이고 두 번째 Conv layer에 필요한 MAC연산은 5*5*6*16*10*10 = 240,000으로 두 개의 Conv Layer에서의 MAC연산량만 해도 357.6k로 341k를 넘는데 Fully Connected Layer에서의 MAC연산량을 더하면 더 커질 것이라 생각하는데 MAC연산량이 341k가 맞나요?? 정확한 값을 알고 싶습니다.117.6k+240k+20*84+84*10 = 368.52k가 맞나요? 구글링해도 MAC수에 대한 자료는 잘 안나와서요.. 3-1. Fully Connected Layer가 2개라고 하시고 C5-F6에 하나, F6-OUTPUT에 하나 해서 두 개라고 하셨는데, 검색을 해보니 F6-OUTPUT은 Gaussian connected layer라고 fully connected layer가 아니라고 하는데, 뭐가 맞는건지 잘 모르겠습니다.. S4-C5/ C5-F6가 두 개의 FC layer인건가요? 4. HW engineer라면 연산량을 잘 파악할 수 있어야 된다고 하셨기에, Network Model을 보고 Weight와 MAC연산수를 잘 파악할 수 있어야 될 것 같다고 생각해서 정리를 해보았는데FC Layer에서의 Weight = Edge의 개수 = Input Node * Output NodeFC Layer에서의 MAC = Weight와 동일Conv Layer에서의 Weight = "kernel의 sample수 * Output channel 수" = OCH *ICH * Ky * KxConv Layer에서의 MAC = (Output Feature Map 의 Size) * Weight 수 = (Output Feature Map 의 Size) * OCH * ICH * Ky* Kx라고 생각했는데, 옳게 파악한 것이 맞을까요? 항상 강의 잘 듣고있습니다. 바쁘신데도 질문에 친절하게 답변해주셔서 감사합니다 맛비님!긴 글 읽어주셔서 감사하고 좋은 하루 되세요 :)
-
미해결설계독학맛비's 실전 AI HW 설계를 위한 바이블, CNN 연산 완전정복 (Verilog HDL + FPGA 를 이용한 가속기 실습)
수업자료 다운로드
수업자료를 마이크로소프트 원드라이브에서 txt상의 키를 이용해 다운을 받았는데 받은 zip이 비어있다고 나옵니다. 압축해제를 진행하려고 해도 invalid하다고 하네요. =================현업자인지라 업무때문에 답변이 늦을 수 있습니다. (길어도 만 3일 안에는 꼭 답변드리려고 노력중입니다 ㅠㅠ)강의에서 다룬 내용들의 질문들을 부탁드립니다!! (설치과정, 강의내용을 듣고 이해가 안되었던 부분들, 강의의 오류 등등)이런 질문은 부담스러워요.. (답변거부해도 양해 부탁드려요)개인 과제, 강의에서 다루지 않은 내용들의 궁금증 해소, 영상과 다른 접근방법 후 디버깅 요청, 고민 상담 등..글쓰기 에티튜드를 지켜주세요 (저 포함, 다른 수강생 분들이 함께보는 공간입니다.)서로 예의를 지키며 존중하는 문화를 만들어가요.질문글을 보고 내용을 이해할 수 있도록 남겨주시면 답변에 큰 도움이 될 것 같아요. (상세히 작성하면 더 좋아요! )먼저 유사한 질문이 있었는지 검색해보세요.잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.==================
-
해결됨딥러닝 CNN 완벽 가이드 - Fundamental 편
CNN 모델 구성시 Filters 구성 수 순서 영향력에 대한 질문
안녕하세요! 강사님 좋은 강의 덕분에 정말 몰두해서 공부하고 있는 수강생입니다.CIFAR10 데이터세트를 이용하여 CNN 모델 구현 실습 - 02 강의에서 모델을 구성하실 때,필터의 개수가 32 -> 64 -> 128 이렇게 점차 증가하였는데, 첫 번째로 이렇게 구성하는게 보편적인 방법인 것인지 궁금하며,두번째는 128 -> 64 -> 32이렇게할 경우에는 효율이 좋지 않은 것인지 또 64 -> 128 -> 32 이런식으로 섞어주면 안되는 것인지 궁금합니다.
-
미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
모델 과적합 관련
선생님 안녕하세요.강의 4분30초 부근 만들어진 모델을 test데이터로 성능을 측정했을 때, 정확도가 0.92정도로 꽤 높다고 생각합니다. 하지만 강의에선 flatten으로 인해 파라미터 개수가 급격히 증가하여 과적합이 일어났다고 설명하셨는데, 만약 과적합이 일어났다면 test데이터로 성능을 측정했을 때 더 낮은 정확도가 나와야하는것 아닌가요?train데이터셋으로 모델을 훈련시킬 때 정확도가 99%가 나왔기 때문에 과적합이라고 설명해주신건 이해를 했습니다. 하지만 test데이터셋으로 모델 성능평가를 했을 때 높은 정확도가 나왔음에도 과적합이라고 생각하는건 이해가 되지 않아서 문의 드립니다.
-
미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
실무에서 이미지데이터가 충분히 많을경우에는 augmentation을 사용하지 않아도 되나요?
안녕하세요 선생님!좋은강의 감사합니다 잘듣고 있습니다!!궁금한것이 생겨 질문을 드립니다실제 회사나 연구소에서 이미지 데이터가 많거나 영상데이터로 학습을 하는경우(이미지데이터가 충분히 많다고 가정한경우) 굳이 이미지 augmentation을 하지 않아도 되나요...?