작성
·
273
0
안녕하십니까 교수님 기존에 custom cata 253장을 사용해 80epochs 학습한뒤 만들 모델이 480MB 정도 되는데요 (개별이미지 크기는 500KB 내외입니다 ) 웹캠을 사용해 돌려보니 컴퓨터 사양 문제도 있겠지만 , 정말 너무 느립니다
향후 웹캠이 아닌 고화질 카메라를 사용할 예정이고, 해당 모델의 고도화도 필요한 상황이라 데이터셋을 3천장정도 확보 해두고 재학습시키려고 하는데
모델을 크기를 결정하는 가장 큰 요소는 무엇인지 궁금합니다 (참고로 클래스는 1개입니다)
모델을 가볍게 만들면서도 성능을 좋게 만드는게 너무 어렵습니다....
답변 1
0
안녕하십니까,
학습이 느리다는 건가요? 아님 inference가 느린 건가요?
inference가 느리면 GPU를 사용하신 건가요? Yolo는 GPU가 아니고 일반 CPU에서는 많이 느립니다. 확인 부탁드립니다.
inference 속도를 높이려면
1. 상대적으로 작은 이미지로 학습하고 inference 수행
2. 좀 더 성능이 높은 GPU를 사용(V100 정도?)
3. Quantization 적용(detect 성능은 좀 떨어집니다). 해당 github에서 자료를 찾아보시면 ultralytics에 quantization 적용할 수 있습니다.
현재 사용하시는 GPU 모델은 무엇이고, 몇 FPS정도 나오는지요?
GPU 를 사용했습니다. 학습은 Colab에서 돌려서 4시간정도 소요되었고 inference 자체가 많이 느립니다 향후 60FPS 정도 나오는 카메라를 사용하려고 하는데 모델의 경량화를 목표로 재 학습 시키려고 합니다 2~3000개의 데이터 셋, 1클래스 식별이 가능한 모델을 만들고자 하는데 개별이미지 크기를 500KB 보다 더 줄여야 할까요?