묻고 답해요
164만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
Batch Normalization 효과
안녕하세요 선생님강의 정말 잘 보고 있고요제 많은 질문들에도 너무 성심성의껏 답변 달아주셔서 감사합니다 ㅎㅎBatchNorm이 설계된 의도는 internal covariate shift를 해결하기 위해 제안되었다는 것은 이해했습니다.하지만 실제로는 그렇지 않고 optimization surface를 매끄럽게 해서 학습이 잘된다라고 설명하신 것까지 들었습니다.제가 이해한 바로는 활성화 함수에 들어가는 입력의 분포를 조정해서 학습이 잘되는 위치? 분포를 학습하는 것으로 이해했는데요(sigmoid로 예시를 든다면 더 이상 업데이트가 되지 않아도 될 정도라면 기울기가 saturate되는 부분으로 혹은 업데이트가 많이 되어야 한다면 0부근으로 이동시키는 등의) 정확히 어떤 원인에 의해 surface가 매끄러워지는 효과를 가지게 되는 것인지 궁금합니다..!
-
미해결최신 딥러닝 기술과 객체인식
강의자료
안녕하세요 수업 자료를 다운 받았는데, 혹시 강의 슬라이드가 없어서요 확인 가능하실까요?
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
Layer Norm이 언어모델에 적합한 이유
안녕하세요 선생님강의 정말 잘 보고 있습니다.Layer Normalization을 보는 중에 입력 데이터를 Normalization하는 것을 통해 scale이나 shift에 robust하게 되는 것까진 이해했습니다.이런 효과가 왜 이미지보다 언어 모델에 더욱 효과적인지 이유를 알 수 있을까요?
-
미해결[OpenCV] 파이썬 딥러닝 영상처리 프로젝트 2 - 불량사과를 찾아라!
실습파일 제공
실습파일을 안내해주신 사이트에서 확인할 수가 없습니다.확인부탁드립니다.
-
미해결[OpenCV] 파이썬 딥러닝 영상처리 프로젝트 - 손흥민을 찾아라!
creapple 사이트에 실습파일이 없습니다.
실습 파일 예제를 받고 싶은데 안내해주신 사이트에는 없습니다.확인부탁드립니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
ROI Pooling Layer이 SPP Layer보다 성능이 뛰어난 이유가 궁금합니다.
SPP Layer의 경우 여러 Spatial Bins를 사용하여 이미지의 작은 부분부터 큰 부분까지의 정보를 취합하는 것으로 이해했습니다. 또한 ROI Pooling Layer의 경우 SPP Layer에서 Level이 1인 Bins만 적용하는 것으로 이해했습니다. 여기서 의문이 드는 것이 여러 정보를 종합적으로 취합한 SPP Layer가 ROI Pooling Layer보다 성능이 뛰어날 것으로 (직관적으로) 생각이 드는데, Fast RCNN에서 ROI Pooling을 선택한 이유가 궁금합니다. 실험적인 결과로 ROI Pooling을 선택했겠지만, ROI Pooling이 SPP Layer보다 Object Detection에서 우수한 성능을 보이는 이유가 궁금합니다!
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
YOLOv3에서 전체 예측 결과 갯수 10,647 구할 때 3을 곱해 주는 이유가 궁금합니다.
각 freture map 의 이미지 조각 갯수를 더하고 여기에 마지막에 3을 곱해주는데 여기에 대해서 좀 더 설명 부탁 드립니다.
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
9-2 fully connected NN
여기서 네트워크를 구성할 때 맨 마지막에 sigmoid를 태운 후에 마지막에 또 Softmax를 태우는데, 이렇게 할 거면 애초부터 네트워크의 마지막단을 sigmoid가 아닌 softmax를 태우면 되는 거 아닌가요?왜 sigmoid를 거친 후에 softmax를 태워야 하는 것인지 알 수 있을까요?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
옥스포드 pet 데이터 테스트(모델평가)
Ultralytics Yolo 실습 - 01 의 옥스포드 pet 데이터를 가지고 테스트 부분 따라하고 있습니다. 그런데 test.py가 없다는 오류가 뜹니다. test.py는 어느 단계에서 어떤 코드에 의해 만들어진 건가요?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Confidence score가 높을수록 많은 Box가 제거된다?
"NMS의 이해" 편 5:40에서 "Confidence score가 높을수록, IoU Threshold가 낮을수록 많은 Box가 제거된다"라고 말씀하셨는데,Confidence score가 아닌, Confidence threshold가 아닌지 질문 드립니다.
-
해결됨최신 딥러닝 기술과 객체인식
Yolov6 실습 에러
실습의 실행하기를 따라해보면 추론은 되지 않고 실행결과에 다음과 같은 문구가 들어있어요. 왜 실행이 안되는 걸까요?AttributeError: Can't get attribute 'SimConvWrapper' on <module 'yolov6.layers.common' from '/content/gdrive/MyDrive/yolo/YOLOv6/yolov6/layers/common.py'>
-
미해결[AI 실무] AI Research Engineer를 위한 논문 구현 시작하기 with PyTorch
gpu설정
엔비디아 gpu내장안되어있으면 gpu사용이 안되는건가요? 제 노트북은 Intel Arc TM Graphics 입니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
로컬 GPU 사용법
안녕하세요 mmdetection을 설치하려고 하는데로컬에 있는 GPU를 사용해서 학습을 해보려고 합니다.코랩에서 제공하는 GPU 말고 로컬의 GPU를 사용할 수 있는 방법이 있을까요?
-
미해결C# OpenCV 컴퓨터비전 입문 강좌
섹션2 1강 중, CvCapture 초기화 중 에러 발생.
선생님 ㅠ저는 노트북 카메라 화면을 가져오려고 해서 index는 0으로 기입했구요.try 구문에서 CvCapture.FromCamera 가져올 때부터 결과가 null이더라구요.Exception 메시지를 확인해보니까, "OpenCvSharp.CPlusPlus.NativeMethods'의 형식 이니셜라이저에서 예외를 Throw했습니다." 라고 하는데, 이 문제는 어떻게 해결해야 하나요?? ㅠ
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
Mini-batch Gradient Descent computation time 질문
안녕하세요 선생님시간과 체력이 더 많았으면 좋겠다는 생각이 들 정도로 강의를 너무 재밌게 보고 있습니다Mini batch Gradient Descent 이론 편에서 Mini batch Size에 비례하지 않는다는 설명을 보았는데요.물론 병렬처리를 하기 때문에 정비례하지 않겠지만 GPU에 올릴 수 있는 최대 데이터양이 100개라고 가정한다면 미니배치를 200, 300, .. 이런 식으로 키운다면 미니 배치크기에 따라 비례하는 것은 맞지 않나요?혹시 제가 잘못 생각하고 있다면 말씀해주세요 감사합니다!
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
Huber Loss에 대한 질문
안녕하세요?: 선생님강의 정말 재밌게 잘 보고 있습니다.강의 내용 중에 Huber Loss는 전미분이 한 번밖에 되지 않는다는 단점을 언급해주셨는데요Gradient Descent를 적용할 때는 weight에 대한 편미분만 적용하기 때문에 역전파 시에는 무관한 거 아닐까요?따라서 Epoch를 2 이상의 숫자를 두고 학습하는데 전혀 지장이 없는 거 아닌가요?왜 전미분이 1번만 된다는 게 단점이 된다는 것인지 이해가 잘 되지 않습니다.
-
미해결[모바일] 딥러닝 Computer Vision 실전 프로젝트
강의자료
안녕하세요, 강의자료가 어디있는지 모르겠어요.다른 질의응답 글 보고 구름모양 다운버튼을 찾아봤는데 안보여요ㅠㅠ
-
미해결[모바일] 딥러닝 Computer Vision 실전 프로젝트
[모바일] 딥러닝 Computer Vision 실전 프로젝트 강의 자료 받는법
[모바일] 딥러닝 Computer Vision 실전 프로젝트강의 자료 어떻게 받나요? https://www.creapple.com에 들어가봐도 자료가 없습니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
섹션5 <공지>
섹션5 <공지> 코드 https://github.com/chulminkw/DLCV <여기에 있나요?? 찾아도 없어서요.
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
Batch size 가 극단적으로 작은 경우 (예를들어 batch_size =1) Normalization 적용 방안
강사님, 본 강의 들으면서 정말 많은 도움을 받고 있습니다. normalization 에 대해서 이렇게 상세하게 설명해 준 온라인 강의는 본 적이 없네요 🙂 CNN 을 기반으로 하되 모델 파라메터도 엄청 크고, 데이터셋 크기도 매우 큰 경우, 예를 들어 3D Unet 을 구성해서 3차원의 고해상도 (256 x 256 x 256) 이미지를 input 과 output 으로 사용하다보니 GPU 메모리를 너무 많이 잡아먹어서 batch 에 복수의 샘플을 적용하지 못하고 하나의 batch 에 단일 샘플만 적용하는 경우를 study 하고 있는데요, BatchNormalization 을 적용했을 경우 오히려 학습이 잘 안 되는 것 같아서 Normalization layer 를 야예 제거한 후 모델 학습 진행 중이었습니다. 경험적으로 했던 것이었지만 본 강의를 보다 보니 그 이유가 조금 이해가 되기도 하는데요, 이와 같이 batch size 가 극단적으로 작은 경우에 Normalization layer 을 적용 안하는게 더 좋을 수 있나요? 혹은 설명해 주신 table 에 나와 있는 것 처럼 Group Normalization layer 나 Instance Normalization을 적용하는 것이 개념적으로 더 나은 방법일까요? (설명을 들었을 때는 Group Normalization 을 적용하는 것이 필요한 상황으로 이해가 되기도 하는데.. 제가 이해한 것이 맞는지 확인 부탁드립니다 ^^;) 그리고 Group Normalization 에서 "Group" 의 의미가 무엇인지 잘 와닿지가 않아서 (Batch 나 Width, Height, Sample Number 이외에 그룹이 될 수 있는 경우가 무엇인지가 잘 이해가 되지 않습니다.) ... 요 부분에 대해서 좀 더 설명해 주시면 감사드리겠습니다!