묻고 답해요
160만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
정보가 손실되는 이유가 궁금합니다!
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 강의 내용을 질문할 경우 몇분 몇초의 내용에 대한 것인지 반드시 기재 부탁드립니다. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.강의에서 conv2d연산을 진행한 후에 softmax연산을 해주기 위해 3차원 데이터를 flatten시켜줬는데 flatten시켜준 후에 바로 softmax함수를 적용시키면 어떤 이유로 정보가 손실되는 이유에 대해서 궁금합니다.dense를 하나 추가하고 softmax를 적용하는 것과 dense없이 flatten후 softmax를 적용하는 것의 차이점에 대해서 궁금증이 생긴 것 같습니다!
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
Validation Data Set Augmentation 문의
안녕하세요.좋은 강의 감사합니다.Validation Data Set Augmentation 관련 문의드립니다.tr_ds = image_dataset(tr_path, tr_label, image_size=IMAGE_SIZE, batch_size=BATCH_SIZE, augmentor=image_augmentor, shuffle=True, pre_func=xcp_preprocess_input) val_ds = image_dataset(val_path, val_label, image_size=IMAGE_SIZE, batch_size=BATCH_SIZE, augmentor=None, shuffle=False, pre_func=xcp_preprocess_input) Validation Set 부분은 Augmentation을 None으로 진행했는데요.Augmentation을 None이 아닌 것으로 진행해도 성능에는 크게 문제가 없을 것으로 생각합니다. (별도 Test Set으로 평가했을 때, 평가 성능이 저하 된다거나 그렇진 않을 것 같아서요.)Validation Set 부분도 Train Set과 마찬가지로 Augmentation을 진행해도 되지 않을까요? 딱히 구글링으로 명확한 답을 찾기 어려워 선생님의 의견을 얻어보고 싶습니다.감사합니다.
-
해결됨[Pytorch] 파이토치를 활용한 딥러닝 모델 구축
the kernel appears to have died. it will restart automatically.
섹션1의 마지막 강좌에서 저도 주피터 노트북에 똑같이 작성해보면서 공부하고있었는데요.the kernel appears to have died. it will restart automatically. 이런 문구가 뜨면서 이미지화가 안되면 어떻게 처리해야하나요? 구글링을 해보고 ~config에 들어가서 수정도 해봤는데 잘 안됩니다..
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
val_loss값이 계속 커지는 현상이 왜 나오나요?
안녕하세요.코드를 타이핑하며 실행해 보는데, 강의 화면과는 달리 vla_loss값이 점점 커지는 결과가 나왔습니다.처음에는 제가 타이핑을 잘못해서 그런가 했는데, 선생님이 제공해주신 코드를 그대로 실행해도 비슷한 결과가 나왔습니다.여러 번 런타임을 재실행하고 해봐도 마찬가지입니다.왜 이런 현상이 나타나나요?(kaggle에서 실행했습니다)
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
저장된 모델에는 무엇이 들어 있나요? 그리고 weight만 저장했을 경우 어떻게 사용하나요?
매개변수를 하나하나 알기 쉽게 설명해주셔서 감사합니다. [질문 1] fit 중에 콜백함수를 이용해 모델을 저장할 수 있다고 하셨는데요, 모델 안에 무엇이 저장되는지 궁금합니다. loss, accuracy, weights 는 저장되어 있을 것 같은데요, 그 외에 무엇이 저장되어 있나요? 혹시 학습 데이터도 저장되나요? 저장 목록을 알려면 어떤 명령어를 써야 하나요? [질문 2] fit 중에 오류가 발생해 다운되었을 때, 저장된 모델을 불러 fit을 이어서 할 수 있나요? [질문 3] save_weights_only 했을 경우 어떻게 사용해야 하나요? 저장된 모델을 불러 바로 predict 하면 되나요? 모델을 저장하고 불러 와 사용한 적이 없다보니 질문 범위가 너무 넓은 것 같아 죄송합니다. 혹시 참고할 만한 사이트를 알려주시면 공부해보겠습니다.
-
미해결설계독학맛비's 실전 AI HW 설계를 위한 바이블, CNN 연산 완전정복 (Verilog HDL + FPGA 를 이용한 가속기 실습)
[AI HW data move] AI HW에서 DDR의 data를 사용하는 경우가 있나요?
=================현업자인지라 업무때문에 답변이 늦을 수 있습니다. (길어도 만 3일 안에는 꼭 답변드리려고 노력중입니다 ㅠㅠ)강의에서 다룬 내용들의 질문들을 부탁드립니다!! (설치과정, 강의내용을 듣고 이해가 안되었던 부분들, 강의의 오류 등등)이런 질문은 부담스러워요.. (답변거부해도 양해 부탁드려요)개인 과제, 강의에서 다루지 않은 내용들의 궁금증 해소, 영상과 다른 접근방법 후 디버깅 요청, 고민 상담 등..글쓰기 에티튜드를 지켜주세요 (저 포함, 다른 수강생 분들이 함께보는 공간입니다.)서로 예의를 지키며 존중하는 문화를 만들어가요.질문글을 보고 내용을 이해할 수 있도록 남겨주시면 답변에 큰 도움이 될 것 같아요. (상세히 작성하면 더 좋아요! )먼저 유사한 질문이 있었는지 검색해보세요.잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.================== 안녕하세요. 좋은 강의 공유해주셔서 감사합니다!!Verilog HDL season 2 강의와 본 강의를 보고 여러 AI HW 논문을 읽다보니 한 가지 궁금한 점이 있어서 글 남기게 되었습니다.많은 AI HW 논문에서는 빠른 data move를 위해서 보통 모든 weight와 feature map을 on-chip memory(Bram)에 모두 넣도록 구성하는 경우가 많더라구요. 그래서 BRAM에 모든 weight를 올릴 수 있도록 모델의 크기를 최적화하는 방향으로 연구를 하더라구요.그만큼 DDR의 접근 속도가 느리다는 것 같은데 그러면 AI HW 분야에서는 어떤 경우에 DDR를 사용하는지 그리고 느리다면 BRAM과 비교해서 얼마나 느리길래 사용하지 않는 것인지.(Stream을 이용하면 그렇게 차이가 크다고 생각하지 않는데...)[질문 정리]현업 AI HW 분야에서 DDR 접근은 언제 사용하나요?BRAM 접근 속도와 DDR 접근 속도가 얼마나 차이가 나길래 BRAM만 사용해서 AI HW system을 구성하는 것인가요? 항상 좋은 강의 만들어주셔서 감사합니다!!
-
미해결설계독학맛비's 실전 AI HW 설계를 위한 바이블, CNN 연산 완전정복 (Verilog HDL + FPGA 를 이용한 가속기 실습)
[AI HW Lab2] 질문
맛비님 안녕하세요HW Lab2 영상을 보면빌드를 하고 cnn_core가 생성된 후 sim 폴더에 보면 trace가 생성되어 있는데저는 trace 폴더가 생성되지 않습니다.c 코드 내에 코드를 넣으라고 하신 부분 빼고는 아무 부분도 건드리지 않았습니다.어떤 부분이 문제인지 질문드립니다.감사합니다 =================현업자인지라 업무때문에 답변이 늦을 수 있습니다. (길어도 만 3일 안에는 꼭 답변드리려고 노력중입니다 ㅠㅠ)강의에서 다룬 내용들의 질문들을 부탁드립니다!! (설치과정, 강의내용을 듣고 이해가 안되었던 부분들, 강의의 오류 등등)이런 질문은 부담스러워요.. (답변거부해도 양해 부탁드려요)개인 과제, 강의에서 다루지 않은 내용들의 궁금증 해소, 영상과 다른 접근방법 후 디버깅 요청, 고민 상담 등..글쓰기 에티튜드를 지켜주세요 (저 포함, 다른 수강생 분들이 함께보는 공간입니다.)서로 예의를 지키며 존중하는 문화를 만들어가요.질문글을 보고 내용을 이해할 수 있도록 남겨주시면 답변에 큰 도움이 될 것 같아요. (상세히 작성하면 더 좋아요! )먼저 유사한 질문이 있었는지 검색해보세요.잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.==================
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
Upstream Gradient, Local Gradient의 의미를 제대로 이해했는지 몰라서요.
안녕하세요. Upstream Gradient와 Local Gradient를 제대로 이해했는지 몰라 질문드립니다.세터1의 가중치를 업데이트하려고 할 때Local Gradient는 구하고자 하는 가중치(세터1)가 직접 곱해지는 레이어의 gradient를 가리키는 것이고Upstream Gradient는 세터1이 직접 곱해지는 레이어 이전까지(역방항기준) 모든 레이어의 gradient를 가리키는 것이 맞나요? 상세하고 명쾌한 강의 감사드립니다.
-
해결됨딥러닝 CNN 완벽 가이드 - TFKeras 버전
Sigmoid 함수의 특성
안녕하세요 교수님!섹션 2의 딥러닝 모델에서 활성화 함수의 적용 강의에서 의문점이 생겨서 작성합니다.Sigmoid 함수의 특성에서 평균값이 0.5, 즉 0이 아니라서 Gradient Update가 지그재그 형태로 발생한다고 하셨는데.. 이 부분이 이해가 잘 되지 않습니다.입력값의 크기가 양으로 크거나 음으로 클 때 기울기가 0에 가까워서 Gradient Update가 적어진다는 것은 알겠습니다. 하지만 입력값을 넣었을 때의 시그모이드 출력값의 평균과 Gradient Update가 어떤 관계인지가 이해가 되지 않습니다ㅜ시그모이드를 미분한 함수가 시그모이드 출력값을 입력값으로 넣는게 아닌데... 왜 지그재그로 발생하는 것인가요.....?감사합니다!
-
미해결설계독학맛비's 실전 AI HW 설계를 위한 바이블, CNN 연산 완전정복 (Verilog HDL + FPGA 를 이용한 가속기 실습)
make 에러
CNN Core C 코딩(Golden Model 만들기)를 따라 실습하고 있습니다.make를 사용하여 build를 하고 싶습니다.에러는make: *** [Makefile:15: cnn_core] Error 127 이라고 뜹니다.어떻게 해결할 수 있을까요?=================현업자인지라 업무때문에 답변이 늦을 수 있습니다. (길어도 만 3일 안에는 꼭 답변드리려고 노력중입니다 ㅠㅠ)강의에서 다룬 내용들의 질문들을 부탁드립니다!! (설치과정, 강의내용을 듣고 이해가 안되었던 부분들, 강의의 오류 등등)이런 질문은 부담스러워요.. (답변거부해도 양해 부탁드려요)개인 과제, 강의에서 다루지 않은 내용들의 궁금증 해소, 영상과 다른 접근방법 후 디버깅 요청, 고민 상담 등..글쓰기 에티튜드를 지켜주세요 (저 포함, 다른 수강생 분들이 함께보는 공간입니다.)서로 예의를 지키며 존중하는 문화를 만들어가요.질문글을 보고 내용을 이해할 수 있도록 남겨주시면 답변에 큰 도움이 될 것 같아요. (상세히 작성하면 더 좋아요! )먼저 유사한 질문이 있었는지 검색해보세요.잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.==================
-
미해결차량 번호판 인식 프로젝트와 TensorFlow로 배우는 딥러닝 영상인식 올인원
CRAFT에 대해서 질문드립니다.
Karas CRAFT로 한글 문장을 학습할 때 학습이 제대로 진행이 될까요 ??
-
미해결차량 번호판 인식 프로젝트와 TensorFlow로 배우는 딥러닝 영상인식 올인원
Neural Style Transfer 강의자료 공유
Neural Style Transfer에 해당되는 강의자료 공유 부탁드립니다. 감사합니다. tae.park0302@gmaili.com
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
안녕하세요 교수님 alexnet 구현중에 질문 있습니다.
논문에서 가중치 초기화를 할때, 평균은 0 이고 표준편차가 0.01이라고 하였는데 위와 같이 구현했는데, 성능이 너무 좋지 않아서요.혹시 잘못된것이 있을까요?
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
안녕하세요 1*1 conv 강의 동영상 13분45초에 질문있습니다.
교수님께서는 연산량을 5*5*200*30*30*64라고 하셨습니다.하지만 convolution을 적용한 feature map은 입력의 크기와 같으니 padding을 적용한것이라고 볼수있습니다.그러니 padding은 입력 사이즈의 가로 세로 2를 더하고, 입력 feature는 총 34*34*200의 크기를 가지게 될것입니다.결국에는 34*34*200*5*5*200*64가 총 연산량이라고 생각됩니다.
-
미해결설계독학맛비's 실전 AI HW 설계를 위한 바이블, CNN 연산 완전정복 (Verilog HDL + FPGA 를 이용한 가속기 실습)
Serial terminal 무응답
안녕하세요 Lab3 실습을 진행했습니다.이 과정에서 동일하게 했음에도 불구하고 Vitis에서 진행했을때 Vitis Serial Terminal이 무응답입니다.Digilent driver도 설치하고 Vivado driver도 설치해보고 Vivado자체를 최신버전 2023.1로 설치를 해보아도 시리얼 통신이 안됩니다ㅠㅠ그리고 Vitis에서 Launch Hardware를 하면 FPGA보드의 DONE LED가 동시에 켜집니다..또한 Launch Hardware를 실행시킬때 두번에 한번씩은 'could not find fpga device on the board for connection 'local' '라는 오류가 뜹니다..이에 대한 해결법으로 구글링해서 드라이버 설치하라는거 다 해봤는데도 안되네요ㅠㅠ뭐가 문제일까요.이번 실습 뿐 아니라 모든 실습 + 제 프로젝트까지도 무응답입니다..ㅜㅜ
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
CNN에 대한 질문이 있습니다.
안녕하세요 교수님CNN에 대해 궁금한 점이 있어 질문 남깁니다.CNN으로 이미지 분류를 수행할 때, 인풋데이터로 이미지가 아닌 수치형 데이터를 넣어도 분류가 가능한가요?예를 들면, 수치형 데이터의 색을 부여한 후,(0이면 흰색에 가깝게, 100이면 검은색에 가깝게) 색을 부여한 이미지로 분류를 수행하는 것이 가능한 건가요?위에서 말하는 색 이미지를 파이썬 코드로 대체하여 출력을 하지 않고도(따로 인풋 데이터로 이미지를 제공하지 않아도) CNN의 이미지 분류가 가능한 것인지 궁금합니다.
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
model.evaluation 진행시 loss 문의
안녕하세요.유익한 강의 항상 감사합니다.모델을 Train/Vaild 한 후, 낮은 Loss값(0에 가까운)과 높은 Accuracy 값이 나와서 Train이 잘 되었구나 라고 생각했는데요.model.evaluation을 진행해보니 생각보다 높은 Loss와 상대적으로 Train때 보다 낮은 Accuracy가 나왔습니다.108/108 [==============================] - 15s 134ms/step - loss: 2.5198 - accuracy: 0.7227loss가 저렇게 높을 수도 있나요? Train 진행시 첫번째 Epoch에서도 loss가 높듯이 model.evaluation 첫번째 epoch(?)에서도 loss가 높은걸까요? 감사합니다.
-
해결됨딥러닝 CNN 완벽 가이드 - TFKeras 버전
안녕하세요 교수님. 커스텀 데이터 로더 만들기에서 질문 있습니다.
교수님께서 작성하신 커스템 데이터로더를 이해하고 있는데요.이 코드를 아무리 실행해도, label의 값이 CAT이 나오지 않습니다.next가 다음 batchSize만큼 가져오는것이라고 생각했는데, 왜 아무리 실행해도 계속 같은 값이 나올까요?만약 인덱스 값을 빼게 되면 이미지의 픽셀값이 다르게 나오는것을 확인할수있었습니다.
-
해결됨딥러닝 CNN 완벽 가이드 - TFKeras 버전
안녕하세요 교수님 코드 부분 질문있습니다.
show_pixel_histogram(images_array[0])값이 실행할때마다 항상 다른 히스토그램을 보여주고있습니다.실행할때마다 batch_size만큼 다음 batch로 넘어가기 때문에 히스토그램 값이 달라지는것이 맞는지 여쭤보고 싶습니다.
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
흑백 이미지 데이터 셋에 관련된 질문입니다.
안녕하세요. 선생님정말 질 좋은 강의를 들을 수 있어서 행운이라고 생각합니다. CatnDog_Sequence기반으로 개인적으로 Modify하여 공부를 해보고 있습니다.제가 갖고 있는 이미지는 흑백 이미지 인데요.image = cv2.imread("D:\\Lens_image_data\\test\\test_set\\sort1\\1.BMP", cv2.IMREAD_ANYCOLOR) print(image.shape)shape을 print해보았을 때, (1548, 1544)으로 RGB 3채널이 아닌 것도 확인하였습니다.1) 따라서 Image_Batch 배열 진행 시에도 뒤에 3채널은 빼고 넣었으며,image_batch = np.zeros((image_name_batch.shape[0], IMAGE_SIZE, IMAGE_SIZE), dtype='float32')2) 이미지를 cv2로 읽어올 때도 아래와 같이 변경해보았습니다.image = cv2.imread(image_name_batch[image_index], cv2.IMREAD_UNCHANGED)이렇게 되면 shape이 (64, 224, 224) (64,) 이렇게 나오는데, 흑백 이미지로 할 때는 상기와 같이 바꾸는게 맞는 것인지 궁금합니다.