• 카테고리

    질문 & 답변
  • 세부 분야

    컴퓨터 비전

  • 해결 여부

    해결됨

임베디드 시스템에서 live inference 관련 질문드립니다.

23.01.03 17:31 작성 조회수 213

0

- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요!
- 먼저 유사한 질문이 있었는지 검색해보세요.
- 강의 내용을 질문할 경우 몇분 몇초의 내용에 대한 것인지 반드시 기재 부탁드립니다.
- 서로 예의를 지키며 존중하는 문화를 만들어가요.
- 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.

안녕하세요, 강사님. 우선 너무 좋은 강의 해주셔서 감사합니다.

현재 개발한 mmdetection, mmsegmentation 모델들을 임베디드 시스템에 배포하려고 합니다.

사용하는 보드는 비글보드이며, 관련 자료가 많지 않아 어려움을 겪고 있습니다.

혹시 비글보드에서 개발한 모델을 사용하려면 어떻게 해야하는지 러프하게라도 설명해주실 수 있으실까요? 꼭 비글보드가 아닌 타 임베디드 시스템이나 검색 키워드를 알려주셔도 큰 도움이 될 것 같습니다.

그리고 mmdetection, mmsegmentation은 live inference를 위한 API는 따로 없는 것일까요?

혹시 질문에 이해가지 않는 부분이 있다면 답글 남겨주세요.

감사합니다.

답변 1

답변을 작성해보세요.

1

안녕하십니까,

저도 mmdetection을 임베디드 시스템에 포팅해보질 않아서 정확하지 않을 수는 있지만,

mmdetection을 임베디드 시스템에 올릴 때 크게 다른 점은 없습니다.

임베디드 시스템에서 제대로 설치만 되면 아마 구동이 될 것입니다. 그런데 아마 설치가 어려울 것 같습니다. mmdetection은 임베디드 시스템을 위해서 만들어진 패키지가 아니기 때문입니다.

강의에서 사용되는 colab 환경은 pytorch, torchvision 다 설치되어 있지만, embeded 시스템에서 설치는 python 설치 , pytorch 설치 torchvision 설치, 다 하신 뒤에

pip install mmcv-full 로 mmcv를 설치를 하셔야 할 것 같습니다.

그리고 mmdetection 설치는 강의대로 git clone 한뒤 install 하시면 될 것 같습니다.

git clone https://github.com/open-mmlab/mmdetection.git
cd mmdetection; python setup.py install

 

그리고 inference를 하실 때 embedded 시스템은 gpu가 없으므로 device를 'cpu'로 설정해야 합니다.

model_ckpt = init_detector(cfg, checkpoint_file, device='cpu')

저도 실제 적용을 해보진 않아서 일단 이정도가 필요해 보입니다.

다만 mmdetection이 embedded용으로 경량화된 모델을 만들지 않기 때문에 inference 수행 속도는 매우 느릴 것으로 생각됩니다.

그리고 live inference가 의미하는게 어떤 건지요? 혹시 카메라로 실시간 영상을 의미하시는 건지요? 해당 방식은 opencv에서 동영상을 읽어들이는 방식과 매우 유사합니다. opencv에서 VideoCapture(0) 적용하면 됩니다.

아래는 해당 방식에 대한 인터넷 검색 결과 입니다.

https://velog.io/@woo0_hooo/openCV-CH1.-%EC%9D%B4%EB%AF%B8%EC%A7%80-%EB%B9%84%EB%94%94%EC%98%A4-%EC%9B%B9%EC%BA%A0-%EC%9D%BD%EC%96%B4%EB%93%A4%EC%9D%B4%EA%B8%B0%EC%99%80-%EA%B8%B0%EB%B3%B8-%ED%95%A8%EC%88%98%EB%93%A4

감사합니다.