큰 object와 작은 object 동시 segmentation성능 관련 질문
369
작성한 질문수 4
- 먼저 유사한 질문이 있었는지 검색해보세요.
- 서로 예의를 지키며 존중하는 문화를 만들어가요.
- 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.
답변 1
1
안녕하십니까,
오, 대단하시군요. 환경 세팅을 오브젝트 크기에 맞춰서 하시다니요,
1)
먼저, 수행하시는게 Segmentation 맞는지요? 지금 config가 mask-rcnn인가요? faster-rcnn인가요?
그리고 확인해보니, scales가 8로 기본값이 되어 있군요. 여기서 scale은 anchor 크기의 척도를 의미합니다. 단일 scale의 anchor가 ratio별로 크기 8로 feature map의 stride별로 3개가 만들어지는 군요. 원래 faster rcnn은 개별 stride별로 9개의 anchor를 만들어야 하는데, scales를 [1, 2, 4]로 하면 단일 크기보다 8보다는 작지만, 개별 크기 [1, 2, 4]로 rations [0.5, 1.0, 2.0] 으로 9개의 anchor를 만듭니다.
그리고 mmdetection은 faster-rcnn, mask-rcnn 둘다 fpn기반으로 모델을 만드는데, 아래와 같이 strides를 설정하면 fpn 층별로 서로 다른 anchor scale(크기)값을 가지게 됩니다. 그래서 아래와 같이 strides를 만들어 주면 개별 fpn별로 서로 다른 anchor 크기를 가지게 됩니다. 크기는 개별 fpn층 별로 다르지만 개별 feature map의 stride별로는 3개의 anchor를 만듭니다.
anchor_generator=dict(
type='AnchorGenerator',
scales=[8],
ratios=[0.5, 1.0, 2.0],
strides=[4, 8, 16, 32, 64])
요약하자면 scales를 [1, 2, 4]와 같이 할당하면 크기가 서로 다른 anchor 3개를 만듭니다. strides는 fpn 층별로 만들어지는 anchor의 크기를 재 설정하는데, fpn 층별로 [8*4, 8*8, 8*16, 8*32, 8*64] 로 scale값을 재 설정합니다.
2) 이건 저도 어렵군요. 일단 [1, 2, 4] 가 아니라 [2, 4, 8] 로 scale 설정을 바꿔 보시면 어떨까 싶습니다.
감사합니다.
강의 환경설정 질문
0
43
2
Custom Dataset에서의 polygon 정보 관련
0
90
3
cvat.ai 보안 수준이 궁금합니다
0
82
2
캐클 nucleus 챌린지 runpod 실습 코드 에러 질문드립니다.
0
99
3
추론 결과의 Precision(또는 mAP) 평가 방법
0
86
2
mmdetection mask rcnn inferenct 실습 시 runpod 템플릿 관해서 질문드립니다.
0
61
2
runpod에서 google drive 연결 시 오류 발생
0
110
2
로드맵 선택
0
69
1
mmcv
0
60
2
Anchor box의 Positive 처리 위치
0
64
2
해당 강의 runpod 적용 후 에러 제보드립니다
0
88
2
run pod credit 관련 제보
0
102
2
mmdetection 2.x과 3.x 호환 관련 표기
0
79
2
mm_faster_rcnn_train_kitti.ipynb 실행 오류
0
102
3
질문 드립니다.
0
83
3
mm_faster_rcnn_train_coco_bccd 실행 오류 질문드립니다.
0
81
1
강사님께 수정을 제안드리고 싶은 것이 있습니다.
0
96
1
google automl efficientdet 다운로드 및 설치 오류
0
78
1
이상 탐지에 사용할 비전 기술 조언 부탁드립니다.
0
104
2
OpenCV 관련 질문드립니다.
0
76
2
mmcv 설치관련해서 문의드려요
0
336
3
강의 구성 관련해서 질문이 있습니다
1
139
2
모델 변환 성능 질문드립니다.
0
123
1
NMS 로직 문의 드려요
0
116
2





