묻고 답해요
130만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨CUDA 프로그래밍 (1) - C/C++/GPU 병렬 컴퓨팅 - CUDA 커널 kernel
에러처리 매크로에서!!
에러처리 매크로에서 exit을 하게되면 이전에디바이스나 호스트에서 동적할당했던 자원을 해제해주는건가요?? 아니면 메모리해제를 추가적으로 구현해야하나요??
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
안녕하세요 ..? gpu 사용량에 대해서 질문이 있습니다.
안녕하세요 .. ? 강사님 강의 잘 듣고 있고, 정말 많이 배우고 있습니다. 자꾸 귀찮게 해드리는 것은 아닌지 죄송할 따름입니다. Oxford Pet의 dataset의 학습을 다 끝내거나, cfg와 epoch5.pth로 inference_detector로 모델을 만들어 하나의 이미지에 object detection을 수행을 끝낸 뒤에 리눅스에서 nvidia-smi로 gpu 사용량을 확인해 보면 학습 또는 object detection이 끝났음에도 gpu 사용량이 유지되는 것을 확인했습니다.(학습이 끝난 뒤에도 몇 분이 지났음에도 nvidia-smi를 눌렀을 때, 10650Mib의 사용량을 유지 했습니다.) 이 gpu 사용량이 왜 유지 되는 것인지 혹시 알 수 있을까요 .. ? 아래 사진은 object detection이 끝난 후 수분이 지났음에도 유지되는 gpu 사용량 사진입니다.
-
해결됨딥러닝 CNN 완벽 가이드 - Fundamental 편
안녕하세요.
안녕하세요. 딥러닝 CNN 완벽 가이드 - fundamental 강의를 수강하고 있는 수강생입니다. 딥러닝 학습 중 GPU 메모리 사용량에 대해서 궁금한 점이 있어 질문드립니다. 강의 중 GPU 메모리 용량 상한 때문에 training 데이터를 batch size로 나눠서 학습하신다고 하셨습니다. 그럼 batch size로 나눠서 학습을 진행하게 되면 batch size 만큼의 용량만 GPU에서 할당되어 계산되고 다음 batch 로 넘어가게 되면 GPU 메모리 사용량이 추가로 더 늘어나는게 아니고 batch size 만큼만 유지되는 건가요 ? 아니면 batch size 만큼 용량이 GPU 메모리 사용량으로 누적되면서 1 epoch 만큼의 GPU 메모리 여유분이 있어야 학습하는데 문제가 없는지요 ?