묻고 답해요
130만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결
yolov5를 이용해서 hololens 앱 만드는 방법이 궁금합니다.
yolo 객체인식을 이용한 hololens 어플을 개발하고 싶은데, 방법을 잘 모르겠습니다. yolov5는 git에서 clone해서 실행이 완료되었는데, 이 프로젝트를 unity, visual studio와 연결할 수 있는 방법이 있는지 궁금합니다 !
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
큰 object와 작은 object 동시 segmentation성능 관련 질문
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 안녕하세요 선생님, 선생님 덕분에 segmentation 과제를 재미있게 수행하고 있습니다 제가 하고 있는 과제 중에 큰 object와 작은 object를 동시에 판별하는 task가 있습니다 비유를 하자면 콩이 큰콩과 작은콩이 섞여 있고 나머지 특성은 동일한 콩이라 class는 한개로 했습니다 (큰 콩과 작은콩은 많으면 지름 기준 최대 10~20 배 차이) 그런데 작은 콩은 많으면 1000~2000 개씩 있고 큰 콩만 있는 이미지 (30~100 개)도 있습니다 또 쪼개진 콩도 있습니다 (쓰고 나니까 task가 너무 어렵네요...) 그래서 제가 이문제를 잘 맞추기 위해 접근한 방식은 mmdetection에서 max object를 3000 개로 늘리고 roi 제안은 6000개로 늘렸습니다 (cfg.model.test_cfg.rcnn.max_per_img = 3000 #default 100 cfg.model.test_cfg.rpn.nms_pre = 6000 # default 1000 cfg.model.test_cfg.rpn.max_per_img = 6000 # default 1000) 그 다음에 anchor generator stride라는것이 중요하다는 것을 찾아서 기존 [8]에서 [1, 2, 4]로 바꿨습니다 (구글 검색해서 찾은건데 사이트를 지금은 못 찾겠네요;;;) (cfg.model.rpn_head.anchor_generator.scales = [1, 2, 4] # default [8]) 그랬더니 어느정도 작은 입자를 잘 찾는 모델을 만들었습니다만 문제는 큰입자가 있을때 큰입자의 일부분을 쪼개서 작은입자로 찾는 문제가 발견되었습니다 여기서 여쭈어 보고 싶은 점은 1) anchor generator stride 의 정확한 의미가 궁금합니다 제가 이해하기로는 피쳐맵에서 anchor 를 찾는 stride 같은데 (8로 하면 8 grid에 한번 4면 4 grid에 한번) 이걸 1, 2, 4로 하는 것은 무슨 의미인지 아시나요? 2) 큰입자를 찾으면 작은입자를 못잡고 작은입자를 찾으면 큰입자를 못잡는 (잡긴하는데 실제로는 쪼개진 영역이 아닌데 쪼개서 잡는 영역 존재) 문제가 발생하는데 두가지 task를 동시에 하는것이 가능할까요? 3) 다른 모델 (efficient det 등?)을 써야할지 아니면 다른 일반적인 해결책인 있는지 문의드립니다 감사합니다!!
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
선생님께 질문이 있습니다.
안녕하세요 선생님 저는 현재 구조물 유지관리 분야에서 박사를 준비준인 학생입니다. 선생님의 강의를 접하기전에 독학으로 Tensorflow2와 Tensorflow 2 Detection model Zoo (https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/tf2_detection_zoo.md) 에 있는 EfficientDetd-0를 활용해서 제가 사용하고 있는 레이저스캐닝 데이터를 학습데이터로 사용해서 CNN학습을 진행해 보았습니다. 이 내용으로 적은 SCI는 아래 링크에 있습니다. https://doi.org/10.3390/s21217105 다름이 아니오라 선생님의 강의를 듣고 저의 방식에 대해 혼란이 왔습니다. 제 학습방식은 efficientdet_d0_coco17_tpu-32의 pipeline.config 에서 클래스의 수와 Labelmap / train,test tfrecode / 배치사이즈 / 스텝 / Epoch 를 변경하여 Tensorflow에서 제공하는 model_main_tf2.py 파일을 실행해서 학습을 진행했습니다. (https://tensorflow-object-detection-api-tutorial.readthedocs.io/en/latest/training.html) 학습후 eval 폴더를 Tensorboard를 활용해서 결과를 보았구요 의문점은 다음과 같습니다. 1. 강의에서는 Train / Validation / Test 데이터셋을 나누는데 C:\Tensorlfow\models\research\object_detection에 서 제공하는 EfficientDet config파일에는 Train과 Test만 있는데 Validation은 Train에 포함되어 있는건가요? 2. 학습을 아래와 같은 명령어로 진행후 (python model_main_tf2.py --model_dir=models/my_efficientdet_d0 --pipeline_config_path=models/my_efficientdet_d0/pipeline.config) --checkpoint_dir=models/my_efficientdet_d0 이 명령어를 통해 mAP결과가 보입니다. 저는 이 결과를 가지고 논문을 썼는데 선생님의 강의를 듣고나서 이건 학습에 대한 결과일뿐 모델 테스트에 대한 결과가 아닌것 같다는 생각이 들었습니다. 강의에 나오는 1장에 대한 결과가 아닌 Test data 폴더안에 모든 이미지를 대상으로 테스트해서 mAP를 보는 방법이 따로 있는지 궁급합니다. 딥러닝을 독학으로 공부한지 얼마안되서 단어의 선택이나 질문의 방식이 어떻게 보일지 잘모르겠습니다. 실례가 될 수 있는 질문인거 같지만 그 어디에서도 찾아보기 힘들고 물어볼곳이 없어서 선생님께 질문드립니다. 감사합니다.