• 카테고리

    질문 & 답변
  • 세부 분야

    컴퓨터 비전

  • 해결 여부

    미해결

YoloV3 pt 모델을 최적화 하는 방법

22.01.12 16:24 작성 조회수 191

0

안녕하십니까 교수님  기존에 custom cata 253장을 사용해  80epochs 학습한뒤 만들 모델이 480MB 정도 되는데요 (개별이미지 크기는 500KB 내외입니다 )   웹캠을 사용해 돌려보니  컴퓨터 사양 문제도 있겠지만 ,   정말 너무 느립니다 

향후 웹캠이 아닌 고화질 카메라를 사용할 예정이고,  해당 모델의 고도화도 필요한 상황이라  데이터셋을 3천장정도 확보 해두고 재학습시키려고 하는데 

모델을  크기를 결정하는 가장 큰 요소는 무엇인지 궁금합니다   (참고로 클래스는 1개입니다)

모델을 가볍게 만들면서도 성능을 좋게 만드는게 너무 어렵습니다....

답변 1

답변을 작성해보세요.

0

안녕하십니까, 

학습이 느리다는 건가요? 아님 inference가 느린 건가요? 

inference가 느리면 GPU를 사용하신 건가요? Yolo는 GPU가 아니고 일반 CPU에서는 많이 느립니다. 확인 부탁드립니다. 

GPU 를 사용했습니다.   학습은 Colab에서 돌려서 4시간정도 소요되었고  inference 자체가 많이 느립니다 향후 60FPS 정도 나오는 카메라를 사용하려고 하는데  모델의 경량화를 목표로 재 학습 시키려고 합니다     2~3000개의 데이터 셋, 1클래스 식별이 가능한 모델을 만들고자 하는데 개별이미지 크기를 500KB 보다 더 줄여야 할까요?

inference 속도를 높이려면 

1. 상대적으로 작은 이미지로 학습하고 inference 수행

2. 좀 더 성능이 높은 GPU를 사용(V100 정도?)

3. Quantization 적용(detect 성능은 좀 떨어집니다). 해당 github에서 자료를 찾아보시면  ultralytics에 quantization 적용할 수 있습니다. 

현재 사용하시는 GPU 모델은 무엇이고, 몇 FPS정도 나오는지요?