mAP 0.5와 mAP 0.5-0.95의 차이
6235
작성한 질문수 24
mAP의 측정 기준 중
mAP0.5와 mAP 0.5-0.95는 무엇을 의미하나요?
보니까 IoU를 0.5에서 0.95까지 0.05씩 올려가면서 측정한 평균 mAP라는데, 이것이 무엇을 의미하는 지 자세히 모르겠습니다
답변 2
1
안녕하십니까,
IOU를 0.5로 설정하여 모델 성능을 평가할 경우 원래 Ground true Box와 절반 이상만 겹치는 예측을 하면 맞는 걸로 평가합니다. 즉 절반만 겹치던, 완전히 동일하게 겹치던 모두 다 맞는 걸로 인정하기 때문에 상대적으로 성능이 떨어지는 모델의 평가가 제대로 평가되지 않을 수 있습니다.
예전에 Pascal VOC Contest할 때는 이 정도 수준에서 맞는 걸로 평가했습니다만, Coco Contest에서는 평가 기준을 바꿔 버립니다.
IOU가 0.5 부터 시작해서 보다 엄격한 기준을 적용해 가면서 평가합니다.
IOU가 0.95 정도 되면 거의 Ground Trueth Box와 거의 동일한 수준으로 예측해야 합니다. 이 경우는 상대적으로 IOU가 0.5 일때 보다 모델 성능 평가가 떨어지게 됩니다.
이처럼 IOU를 0.5 부터 조금씩 증가 시켜서 모델 성능 평가를 하는 방식으로 보다 엄격한 모델 성능 평가가 가능합니다.
감사합니다.
강의 환경설정 질문
0
43
2
Custom Dataset에서의 polygon 정보 관련
0
89
3
cvat.ai 보안 수준이 궁금합니다
0
81
2
캐클 nucleus 챌린지 runpod 실습 코드 에러 질문드립니다.
0
99
3
추론 결과의 Precision(또는 mAP) 평가 방법
0
86
2
mmdetection mask rcnn inferenct 실습 시 runpod 템플릿 관해서 질문드립니다.
0
61
2
runpod에서 google drive 연결 시 오류 발생
0
110
2
로드맵 선택
0
69
1
mmcv
0
60
2
Anchor box의 Positive 처리 위치
0
64
2
해당 강의 runpod 적용 후 에러 제보드립니다
0
88
2
run pod credit 관련 제보
0
102
2
mmdetection 2.x과 3.x 호환 관련 표기
0
79
2
mm_faster_rcnn_train_kitti.ipynb 실행 오류
0
102
3
질문 드립니다.
0
83
3
mm_faster_rcnn_train_coco_bccd 실행 오류 질문드립니다.
0
81
1
강사님께 수정을 제안드리고 싶은 것이 있습니다.
0
96
1
google automl efficientdet 다운로드 및 설치 오류
0
77
1
이상 탐지에 사용할 비전 기술 조언 부탁드립니다.
0
104
2
OpenCV 관련 질문드립니다.
0
76
2
mmcv 설치관련해서 문의드려요
0
335
3
강의 구성 관련해서 질문이 있습니다
1
139
2
모델 변환 성능 질문드립니다.
0
123
1
NMS 로직 문의 드려요
0
116
2





