묻고 답해요
158만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결차량 번호판 인식 프로젝트와 TensorFlow로 배우는 딥러닝 영상인식 올인원
colab 실습 시 google drive mount 관련해서 질문드립니다.
강사님 안녕하세요~! '장시간 Training이 필요한 Colab 실습 진행시 유의사항' 강좌 8:18분 근방의 코드 관련해서 질문드립니다. Colab에서 장기간 Training을 위한 Google drive mount 를 위해서 !python train.py \ --training_data_path="/data/ICDAR2015/train_data/" \ --checkpoint_path="/content/drive/MyDrive/Colab Notebooks/인프런_컴퓨터비전_올인원/6강/east_resnet_50_rbox" 이렇게 코드를 안내해주셨는데요 ... 여기서 !python train.py\ 부분의 의미가 궁금합니다. 또 5강 실습 CRAFT를 이용한 License Plate Detection 모델 학습을 진행하기 위해서 Google drive mount를 적용해보려고 하는데.. 어떻게 코드를 작성해보면 좋을지 여쭤보고 싶습니다. 그럼 답변에 미리 감사드립니다..
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
backbone 바꾸기
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 안녕하세요 강사님 강의 잘 듣고 있습니다. 몇가지 질문이 있어서 질문드립니다. 만약에 backbone을 바꾸고 싶으면 이와 같이 하면 되나여 ..? 백본을 바꾸난 뒤 init_cfg에있는 checkpoint도 바꾸어야 되는지 궁금합니다.
-
미해결TensorFlow 2.0으로 배우는 딥러닝 입문
코드 질문
코드 중 하기 부분이 이해되지 않습니다. # 평균 손실을 측정합니다 average_loss += current_loss/total_batch batch for loop 안에서 average_loss += current_loss 를 계산하고 이후 epoch for loop 뒷단에서 average_loss = average_loss/total_batch 를 계산해야 1 epoch당 평균 loss가 계산되는 것이 아닌가요?
-
해결됨딥러닝 CNN 완벽 가이드 - TFKeras 버전
Alexnet 구현 코드에서 BN 질문입니다
안녕하세요! 질 좋은 강의에 감사 인사부터 드립니다! 다름이 아니라 해당 강의 7:49초 부터 AlexNet 구현 코드를 설명해주시는데요! 이론적인 부분에서 원래 Alex Net이 LRN(Local Response Normalization)이 적용되지만 구현코드 상 BN을 적용하는 걸로 설명해주셨습니다! 그런데 BN layer 코드를 자세히 보니 AlexNet 구현 과정에서는 '컨볼루션 -> 활성함수 -> BN 적용' 순서로 되어 있더라구요? 물론 이 과정이 잘못되었다는 건 아닌데 보통 '컨볼루션 -> BN 적용 -> 활성함수' 과정으로 진행하는게 대부분 더 모델 최적화에 긍정적인 영향을 미친다고 알고 있어서요! 제가 AlexNet 논문까지는 확인을 안해보았지만 논문 상에서도 LRN(실습 코드에서는 BN)이 활성함수 이후에 적용되는 순서로 되어 있는지 문의드려도 될까요!?
-
미해결TensorFlow 2.0으로 배우는 딥러닝 입문
ppt 10p
ppt 10p, 아래 문장에 대해 질문이 있습니다.'또한 (W(in)-F/S)의 차원이 정수로 나누어 떨어지지 않을 수도 있기 때문에 인풋 이미지의 상하좌우 모서리에 P만큼 0을 채워주는 제로 패딩Zero-Padding을 P만큼 적용해줌' 일반적으로 제로 패딩을 시행하는 이유가 영상 모서리 부분의 특징을 더 잘 추출하기 위함이 아닌가요? 그리고 정수로 나누어 떨어지지 않으면 일반적으로 반올림을 해주는 게 맞지 않나요?
-
미해결TensorFlow 2.0으로 배우는 딥러닝 입문
ppt 13p 추가 질문
강의 ppt 13p 음성 설명이 (13:30분 경) 이상하게 돼있습니다.(1)미분 전 그래프를 활용해서 설명함(2)시그모이드 함수와 하이퍼볼릭 탄젠트 함수의 특정 인풋값에 대해 미분값이 0으로 빠져버리는 구조가 아니라 특정 range의 값(이전 질문 참고 바람)이 계속 곱해져 0으로 빠져버리는 구조가 맞음
-
미해결TensorFlow 2.0으로 배우는 딥러닝 입문
ppt 9p 추가 질문
RBM, Pre-training, ReLU가 Overfitting 방지와 어떤 관련이 있는지 설명 부탁 드립니다.
-
미해결TensorFlow 2.0으로 배우는 딥러닝 입문
ppt 5p 질문
ppt 5p, Batch Gradient Descent에서첫 번째 동그라미,'트레이닝 데이터 n개의 손실함수 미분값을 모두 더한 뒤 평균을 취해서 파라미터를 한 스텝 업데이트...' 문장을'트레이닝 데이터 n개의 손실함수 미분값을 계산해서 파라미터를 한 스텝 업데이트...'로 바꿔야 맞는 거 아닌가요? 추가로 ppt 7p, Mini-Batch Gradient Descent에서두 번째 동그라미,'...이를 100개씩 묶은 Mini-Batch 개수만큼의 손실 함수 미분값 평균을 이용해서...' 문장도'...이를 100개씩 묶은 Mini-Batch 개수만큼의 손실 함수 미분값을 이용해서...'와 같이 바꿔야 할 것 같습니다.
-
미해결TensorFlow 2.0으로 배우는 딥러닝 입문
ppt 9p 질문
ppt 9p, 'Hinton의 Science 논문을 시발점으로 RBM, Pre-training, Dropout, ReLU 등 Overfitting을 방지하기 위한 새로운 알고리즘들의 등장' 문장에서 RBM, Pre-training, ReLU는 Vanishing Gradient Problem과 Dropout은 Overfitting과 관련된 해결책 아닌가요?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
.pt 파일에서 .tflite로 어떻게 변환하는지 궁금합니다.
custom dataset으로 weight모델을 만들어 android에 연동을 하고자 합니다. android는 .pt이 아닌 .tflite를 사용하는데 혹시 변환하는 방법을 알수있을까요?
-
미해결TensorFlow 2.0으로 배우는 딥러닝 입문
vanishing gradient
시그모이드 함수 및 하이퍼볼릭 탄젠트 함수를 미분하면 각각의 미분 값의 범위가 0~0.25 (시그모이드), 0~1 (하이퍼볼릭 탄젠트) 사이여서 chain rule에 의해 계속해서 반복하여 계산하면 해당값이 0에 가까워져 gradient vanishing problem이 발생하는 거 아닌가요? 강의 내용 중 잘못된 부분이 있는 거 같아 질문 드립니다.
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
안녕하세요 강사님 FC가 적용되지 않는 경우 loss관련 질문드립니다.
안녕하세요 강사님. 수업 정말 잘 듣고있습니다. 지난 CNN강의부터 쭉 공부를 해보았는데도 직접 구현해보려고 하니까 계속 두루뭉실 이해가 되지 않는 부분이 있어서 질문드립니다. 마지막 출력단이 FC의 경우 loss라는 것이 결국 1차원의 긴 벡터의 요소의 각각의 오차를 구해서 쭉 합친것 혹은 평균낸 것 이라고 이해했는데, yolo v3나, 그 외의 마지막을 convolution연산으로 바꾼 모델들은 마지막 출력이 2차원 평면(x배치수)인데, loss를 어떻게 계산하는지 궁금합니다. [질문] 2차원 각 셀 부분별로 나온 다양한 종류의 loss들을 multi loss로 통합하여, 각 셀별 오차를 구하고 = 오차가 (16x16x배치수)처럼 나오고, FC오차와 같이 결국 모든 셀(16x16)의 개별 요소들의 합을 구하는 것이 맞는지요...? 바쁘실텐데 복잡한 질문 죄송합니다. 감사합니다.
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
안녕하세요 강사님, RPN 힉습관련하여 질문드립니다.
안녕하세요 강사님. 수업 항상 잘 듣고있습니다. 바쁘시겠지만.. detection 학습관련하여 계속 헷갈리는 부분 있어서.. 질문드립니다. 이번 강의 중간 부분에 faster RCNN의 문제점을 이야기 해주시면서 classification과 Bonding box rergression을 RPN 에서도 하고 뒷단의 detect부분에서도 똑같이 한다고 하셨습니다. 제가 이해하는 바로는 결국 마지막 부분에서 multi loss를 통해서 한번 역전파 시켜주는 것으로 알았는데, RPN부분에서 따로 weight 갱신이 이루어지는지요..? (inception의 auxiliary와 같은방식으로..) 아니면 FCN방식으로 9x(HW) 2x(HW)를 제안한 것 자체가 중복되는 구조라는 것인지요? >> 요약 : loss를 두번 흘려줘서 학습이 2번 이루어진다고 생각하는 것인지, 아니면 구조만 두번 중복되고 마지막 loss로 다같이 학습이 되는 것인지 궁금합니다.
-
미해결차량 번호판 인식 프로젝트와 TensorFlow로 배우는 딥러닝 영상인식 올인원
안녕하세요~ 강의 자료 부탁드립니다.
AISchool 강사님 안녕하세요~ 강의 자료를 받고 싶어서 이곳에 글을 올렸습니다. 수강평은 남겼고, 메일 주소는 ceng99@naver.com입니다. 좋은 강의에 감사드립니다.
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
테이터 셋
안녕하세요 교수님! 이 강의에서 yolov3의 데이터셋도 ms coco데이터로 pre trained 되어있고, 추가적인 다른 데이터셋은 추가하지않은 코드인가요?
-
미해결혼자 공부하는 머신러닝+딥러닝
특성공학과 규제 강의 중 질문
강의 도중 이해가 안되는 부분이 있어 질문드립니다. 1. poly.fit([[2,3]])은 기본적으로 [1, a, b, a^2, ab, b^2]의 꼴을 가지게 되는데 이 형태가 갖는 의미가 무엇이며 왜 이 형태를 불러와야하는지 모르겠습니다 2. poly.get_feature_names() ['x0', 'x1','x2', 'x0^2', 'x0 x1', 'x0 x2', 'x1^2', 'x1 x2', 'x2^2'] 각각의 이름들이 해당하는 의미가 무엇이며 이 코드의 필요성은 무엇인가요 수업 잘 듣고 있습니다.
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
선생님 param 계산되는 과정에서 질문이 있습니다.
안녕하세요 선생님, param 계산되는 과정에서 질문이 있습니다. 첫번째 param인 2432는 왜 2432가 나오는지 알겠는데 두번째 param인 9248은 어떻게 9248이 나오는지 잘 모르겠습니다 ㅠㅠㅠ 2432 + (?) = 9248이 되는거 같은데.... (?)는 3*3(kernel_size) * 3(channel)*32(filters) * ? 인거같은데... 제가 직접 계산해보면 9248이 안나옵니다 ㅠㅠㅠ 2432 + (?) = 9248 여기서 ?가 뭔지 알 수 있을까요? 감사합니다!!
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
프레임워크 개념관련해서 질문드립니다
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 안녕하세요. 고퀄 강의 감사드립니다~ robotics분야에서 Control과 Localization을 개발하고 있는데 CV딥러닝에 대한 것은 잘 몰라서 강의를 듣게 되었고 매우 만족하며 수강중입니다. 아직 초반 밖에 듣지 않았지만 , 사용하는 툴에 대해 궁금한 점이 있어서 질문드립니다. 보통 같이 일하는 CV쪽 딥러닝 엔지니어들 이야기들어보면 텐서플로우에 케라스 사용해서 직접 딥러닝 모델을 만들어 디텍을 하는 거라고 생각했는데, MMDetection이나 Detectron2같은 프레임워크를 사용하여 모델을 만드는 것이 더 일반적인 가요??
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
초기에 큰 LR 의 적용할시 오버피팅 문제
안녕하세요 선생님 초기에 LR을 크게 할 때 왜 overfitting인지 잘 이해가 가지 않습니다. 초기에 큰 LR을 적용할시 Weight의 급격한 변화로 지역 최적해에 빠져 과적합 가능성이 있다고 언급하십니다. (2:00~3:35쯤 설명) 그런데, 제 생각에는 지역최적해에 빠져 나오지 못 하는 경우, 충분한 학습을 하지 못하고 수렴 한 것이라 overfitting 보다는 under fitting이라고 생각되는데, 왜 overfitting인지 잘 모르겠습니다 . 항상 즐거운 강의 감사합니다 :)
-
해결됨딥러닝 CNN 완벽 가이드 - TFKeras 버전
안녕하세요 교수님 이미지 제너레이터 관련 질문드립니다.
이전 강의들에서는 이미지를 증강 할 때, data_generator.fit(image_batch) data_gen_iter = data_generator.flow(image_batch) aug_image_batch = next(data_gen_iter) 제너레이터에 fit을 하고 flow으로 이터레이터를 생성하고 next로 조금 씩가져오는 것으로 이해하였습니다. 하지만 이번 강의에서는 왜 제너레이터에 fit과 next를 하지 않으시는지 궁금합니다... 또한 제너레이터가 이미지를 생성하는 것이 아니라 flow를 만들어 주고, next로 랜덤하게 적용해서 가져와 주는 것으로 이해하는 것이 맞는지요..? 감사합니다.