월 24,200원
5개월 할부 시다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
실습코드 tensorflow 2.0대로 업그레이드 안되나요?
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. tensorflow 2.0대로 업그레이드 안되나요? 요즘은 1.0대를 사용하지 않고 거의 다 2.0 대를 사용합니다. 콜랩으로 말고 개인환경에서 실습 코드 돌리기 어렵네요
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
colab Error 관련
안녕하세요 선생님, tensorflow-gpu==1.15.2 를 설치 후 코랩에서 import keras를 실행할 때 버전에러?같은것이 발생합니다. 혹시 해결할 수 있는 방법이 있을까요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
TF_RECORD 파일 생성 시 오류
교수님 안녕하세요! 강의 항상 잘 듣고 있습니다! 수업을 따라가다가 잘 안되는 부분이 있어서 질문하나만 하려고 합니다! 저는 개인 컴퓨터에 있는 GPU를 이용해서 수업을 듣고 있습니다. 환경변수 잡는 것까지는 아래 사진과 같이 잘 됩니다. 하지만, TF_RECORD 파일을 생성하는 코드만 실행하면 아래 사진과 같이 오류가 납니다. 수많은 시도를 했지만 오류가 잡히지 않아 답답한 마음에 교수님에 쪽지를 보냅니다. 항상 유용한 강의 감사합니다!
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Tensorflow 1.x 버전 가상 환경에서 돌아가지가 않습니다.
안녕하세요? 선생님께서 해 주시는 컴퓨터비전 강의를 수강하고 있는데 오류가 계속 발생해서 글을 써 봅니다. 제 데스크탑 내에 GPU가 있어서 데스크탑으로 코드를 수행하고 있었는데 yolo코드를 Tensorflow 1.x 버전에서 수행하려고 하는데 코드가 돌아가지가 않습니다. 제 경우는 일단 선생님께서 알려주신 대로 아나콘다 가상 환경을 만들고 tf113환경에서 코드를 돌리려고 하니 위의 그림과 같이 모듈을 가져올 수 없다는 오류가 계속 뜹니다. 전에 해 주신 Faster-R-CNN, SSD 같은 경우에는 Tensorflow 2.0 환경에서도 몇 가지 함수들만 바꿔서 실행을 해 보니 2.x 환경에서도 코드가 잘 수행이 되었는데 yolo부터는 아예 2.x 환경에서는 이런 식으로 2.x 버전에서 지원하지 않은 함수라고 해서 yolo부분에서부터 선생님께서 알려주신 대로 tf113환경에서 돌리려고 하니 ImportError가 나서 어떻게 하는게 좋을지 선생님께 여쭤보고 싶어서 이렇게 글을 쓰게 되었습니다. 어떻게 하는게 좋을까요?
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
YOLO 정량적 평가
안녕하세요 선생님. 제가 커스터마이징하여 만든 YOLO모델의 성능을 확인해보고 싶습니다. 정성적으로는 많이 테스트해보았는데 정량적으로 평가하려면 어떤 방법을 사용해야 할까요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
tensorflow_object_detection_api 설치과정에 필요한 setup.py 파일이 보이지 않아요!
삭제된 글입니다
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
윈도우 환경에서 진행하는 방법은 없을까요?
윈도우 환경에서 설치하는 방법은 없을까요? PC에 있는 GPU를 활용하고 싶기도하고 네트워크가 제한된 환경에서 진행하기가 어렵네요... 아나콘다는 설치했는데 환경세팅이 어렵습니다. ㅜ.ㅜ
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
yolo 모델 크기 관련
안녕하세요 선생님, 모델 크기 관련하여 질문드립니다. YOLOv3를 긴 시간동안에 걸쳐 학습을 마무리하면 trained_weights_final.h5 모델 파일이 생성되는데요, 아무리 많은 데이터를 학습해도 237MB이상 커지지 않습니다. h5파일의 크기는 저장할 수 있는 가중치의 수용량이라고 알고 있는데요, 보다 많은 데이터를 학습시키고 성능 향상을 위해서 h5파일의 크기를 키우고 싶은데 방법이 있을까요?
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Keras_YOLO cpu inference error
안녕하세요 강사님. 저번에 친절하게 올려주신 답변을 보고 따라하는 중에 또 질문을 올리네요!! Keras-yolo를 데스크탑 gpu로 train해서 만든 .h5파일을 노트북 cpu로 inference 과정 중 문제가 생겼습니다. 모델 로드는 제대로 되었는데, Yolo의 detect_image()를 사용하여 inference 중 아레와 같은 에러가 발생하였습니다! 혹시 cpu에서 keras-YOLO는 사용이 불가능한 것일까요? -------------- 모델 학습 25회 학습 + validation 2회 진행 중 한번 끊겨서 중간 저장된 model_stage_1.h5로 5회 학습 + 5회 validation 진행한 결과입니다. train_yolo(pretrained_path, annotation_path,classes_path, anchors_path, log_dir,trained_model_name, b_size, epochs_cnt) pretrained_path: C:/JupyterNotebook/ClothClassified/model_data/cloth_stage_1.h5 Create Tiny YOLOv3 model with 6 anchors and 14 classes. Load weights C:/JupyterNotebook/ClothClassified/model_data/cloth_stage_1.h5. Freeze the first 42 layers of total 44 layers. Train on 28938 samples, val on 3215 samples, with batch size 2. Epoch 1/5 14469/14469 [==============================] - 2273s 157ms/step - loss: 17.7330 - val_loss: nan WARNING:tensorflow:From C:\Users\min96\anaconda3\envs\tf115\lib\site-packages\keras\callbacks\tensorboard_v1.py:343: The name tf.Summary is deprecated. Please use tf.compat.v1.Summary instead. Epoch 2/5 14469/14469 [==============================] - 2078s 144ms/step - loss: 17.6376 - val_loss: nan Epoch 3/5 14469/14469 [==============================] - 2094s 145ms/step - loss: 17.5342 - val_loss: nan Epoch 4/5 14469/14469 [==============================] - 2049s 142ms/step - loss: 17.6445 - val_loss: nan Epoch 5/5 14469/14469 [==============================] - 2042s 141ms/step - loss: 17.6296 - val_loss: nan Unfreeze all of the layers. Train on 28938 samples, val on 3215 samples, with batch size 2. Epoch 6/10 14469/14469 [==============================] - 2111s 146ms/step - loss: 14.0190 - val_loss: 5.6780 Epoch 7/10 14469/14469 [==============================] - 2111s 146ms/step - loss: 11.0151 - val_loss: 4.3427 Epoch 8/10 14469/14469 [==============================] - 2114s 146ms/step - loss: 9.7026 - val_loss: 7.6887 Epoch 9/10 14469/14469 [==============================] - 2115s 146ms/step - loss: 9.0433 - val_loss: 2.4560 Epoch 10/10 14469/14469 [==============================] - 2105s 146ms/step - loss: 8.5110 - val_loss: 7.9146 ------------- 모델 로드 cloth_tiny_yolo = YOLO(model_path=pretrained_path, anchors_path=anchors_path, classes_path=classes_path) C:/JupyterNotebook/model_data/cloth_final.h5 model, anchors, and classes loaded. ----------------------- train detected_img = yolo.detect_image(img) plt.imshow(detected_img) (192, 192, 3) --------------------------------------------------------------------------- UnimplementedError Traceback (most recent call last) ~\anaconda3\envs\t115c\lib\site-packages\tensorflow_core\python\client\session.py in _do_call(self, fn, *args) 1364 try: -> 1365 return fn(*args) 1366 except errors.OpError as e: ~\anaconda3\envs\t115c\lib\site-packages\tensorflow_core\python\client\session.py in _run_fn(feed_dict, fetch_list, target_list, options, run_metadata) 1349 return self._call_tf_sessionrun(options, feed_dict, fetch_list, -> 1350 target_list, run_metadata) 1351 ~\anaconda3\envs\t115c\lib\site-packages\tensorflow_core\python\client\session.py in _call_tf_sessionrun(self, options, feed_dict, fetch_list, target_list, run_metadata) 1442 fetch_list, target_list, -> 1443 run_metadata) 1444 UnimplementedError: The Conv2D op currently does not support grouped convolutions on the CPU. A grouped convolution was attempted to be run because the input depth of 512 does not match the filter input depth of 1 [[{{node conv2d_49/convolution}}]] During handling of the above exception, another exception occurred: UnimplementedError Traceback (most recent call last) <ipython-input-23-b6fbc29987b5> in <module> 1 # with tf.device('/cpu:0'): ----> 2 detected_img = yolo.detect_image(img) 3 plt.imshow(detected_img) C:\JupyterNotebook\model_data\keras-yolo3\yolo.py in detect_image(self, image) 122 self.yolo_model.input: image_data, 123 self.input_image_shape: [image.size[1], image.size[0]], --> 124 K.learning_phase(): 0 125 }) 126 ~\anaconda3\envs\t115c\lib\site-packages\tensorflow_core\python\client\session.py in run(self, fetches, feed_dict, options, run_metadata) 954 try: 955 result = self._run(None, fetches, feed_dict, options_ptr, --> 956 run_metadata_ptr) 957 if run_metadata: 958 proto_data = tf_session.TF_GetBuffer(run_metadata_ptr) ~\anaconda3\envs\t115c\lib\site-packages\tensorflow_core\python\client\session.py in _run(self, handle, fetches, feed_dict, options, run_metadata) 1178 if final_fetches or final_targets or (handle and feed_dict_tensor): 1179 results = self._do_run(handle, final_targets, final_fetches, -> 1180 feed_dict_tensor, options, run_metadata) 1181 else: 1182 results = [] ~\anaconda3\envs\t115c\lib\site-packages\tensorflow_core\python\client\session.py in _do_run(self, handle, target_list, fetch_list, feed_dict, options, run_metadata) 1357 if handle is None: 1358 return self._do_call(_run_fn, feeds, fetches, targets, options, -> 1359 run_metadata) 1360 else: 1361 return self._do_call(_prun_fn, handle, feeds, fetches) ~\anaconda3\envs\t115c\lib\site-packages\tensorflow_core\python\client\session.py in _do_call(self, fn, *args) 1382 '\nsession_config.graph_options.rewrite_options.' 1383 'disable_meta_optimizer = True') -> 1384 raise type(e)(node_def, op, message) 1385 1386 def _extend_graph(self): UnimplementedError: The Conv2D op currently does not support grouped convolutions on the CPU. A grouped convolution was attempted to be run because the input depth of 512 does not match the filter input depth of 1 [[node conv2d_49/convolution (defined at C:\Users\min96\anaconda3\envs\t115c\lib\site-packages\tensorflow_core\python\framework\ops.py:1748) ]] Original stack trace for 'conv2d_49/convolution': File "C:\Users\min96\anaconda3\envs\t115c\lib\runpy.py", line 193, in _run_module_as_main "__main__", mod_spec) File "C:\Users\min96\anaconda3\envs\t115c\lib\runpy.py", line 85, in _run_code exec(code, run_globals) File "C:\Users\min96\anaconda3\envs\t115c\lib\site-packages\ipykernel_launcher.py", line 16, in <module> app.launch_new_instance() File "C:\Users\min96\anaconda3\envs\t115c\lib\site-packages\traitlets\config\application.py", line 664, in launch_instance app.start() File "C:\Users\min96\anaconda3\envs\t115c\lib\site-packages\ipykernel\kernelapp.py", line 612, in start self.io_loop.start() File "C:\Users\min96\anaconda3\envs\t115c\lib\site-packages\tornado\platform\asyncio.py", line 199, in start self.asyncio_loop.run_forever() File "C:\Users\min96\anaconda3\envs\t115c\lib\asyncio\base_events.py", line 442, in run_forever self._run_once() File "C:\Users\min96\anaconda3\envs\t115c\lib\asyncio\base_events.py", line 1462, in _run_once handle._run() File "C:\Users\min96\anaconda3\envs\t115c\lib\asyncio\events.py", line 145, in _run self._callback(*self._args) File "C:\Users\min96\anaconda3\envs\t115c\lib\site-packages\tornado\ioloop.py", line 688, in <lambda> lambda f: self._run_callback(functools.partial(callback, future)) File "C:\Users\min96\anaconda3\envs\t115c\lib\site-packages\tornado\ioloop.py", line 741, in _run_callback ret = callback() File "C:\Users\min96\anaconda3\envs\t115c\lib\site-packages\tornado\gen.py", line 814, in inner self.ctx_run(self.run) File "C:\Users\min96\anaconda3\envs\t115c\lib\site-packages\tornado\gen.py", line 162, in _fake_ctx_run return f(*args, **kw) File "C:\Users\min96\anaconda3\envs\t115c\lib\site-packages\tornado\gen.py", line 775, in run yielded = self.gen.send(value) File "C:\Users\min96\anaconda3\envs\t115c\lib\site-packages\ipykernel\kernelbase.py", line 365, in process_one yield gen.maybe_future(dispatch(*args)) File "C:\Users\min96\anaconda3\envs\t115c\lib\site-packages\tornado\gen.py", line 234, in wrapper yielded = ctx_run(next, result) File "C:\Users\min96\anaconda3\envs\t115c\lib\site-packages\tornado\gen.py", line 162, in _fake_ctx_run return f(*args, **kw) File "C:\Users\min96\anaconda3\envs\t115c\lib\site-packages\ipykernel\kernelbase.py", line 268, in dispatch_shell yield gen.maybe_future(handler(stream, idents, msg)) File "C:\Users\min96\anaconda3\envs\t115c\lib\site-packages\tornado\gen.py", line 234, in wrapper yielded = ctx_run(next, result) File "C:\Users\min96\anaconda3\envs\t115c\lib\site-packages\tornado\gen.py", line 162, in _fake_ctx_run return f(*args, **kw) File "C:\Users\min96\anaconda3\envs\t115c\lib\site-packages\ipykernel\kernelbase.py", line 545, in execute_request user_expressions, allow_stdin, File "C:\Users\min96\anaconda3\envs\t115c\lib\site-packages\tornado\gen.py", line 234, in wrapper yielded = ctx_run(next, result) File "C:\Users\min96\anaconda3\envs\t115c\lib\site-packages\tornado\gen.py", line 162, in _fake_ctx_run return f(*args, **kw) File "C:\Users\min96\anaconda3\envs\t115c\lib\site-packages\ipykernel\ipkernel.py", line 306, in do_execute res = shell.run_cell(code, store_history=store_history, silent=silent) File "C:\Users\min96\anaconda3\envs\t115c\lib\site-packages\ipykernel\zmqshell.py", line 536, in run_cell return super(ZMQInteractiveShell, self).run_cell(*args, **kwargs) File "C:\Users\min96\anaconda3\envs\t115c\lib\site-packages\IPython\core\interactiveshell.py", line 2867, in run_cell raw_cell, store_history, silent, shell_futures) File "C:\Users\min96\anaconda3\envs\t115c\lib\site-packages\IPython\core\interactiveshell.py", line 2895, in _run_cell return runner(coro) File "C:\Users\min96\anaconda3\envs\t115c\lib\site-pa
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
KearaYolo OpenImage multi gpu model을 이용한 학습
from keras.utils import multi_gpu_modelballnfish_model = create_yolo_model()ballnfish_model = multi_gpu_model(create_yolo_model(), gpus=4) 다음과 같이 mult_gpu_model을 이용해서 모델을 학습시키려고 하면 to_list not defined라는 에러가 발생하는데 어디가 문제인지 모르겠습니다. multi-gpu를 통한 yolov3 학습을 구글링했을 때 https://github.com/anvien/Multi-YOLOv3 깃허브가 나오는데 기존에 배우던거와 조금달라서 적용이 쉽지않습니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
keras-yolo 로드시 오류 발생
KerasYolo 이미지와 영상 Detection 강의 중 오류가 발생했습니다. 위의 소스 코드를 실행할 경우 아래와 같은 오류가 발생했습니다. 해당 오류와 관련된 질문이 있었는지 확인할 결과 ~를 제대로 인식하지 못해서 그런것일 수 있고, 절대경로 변환해서 시도해보라는 답변이 있어서 다음과 같이 변경 후 실행해 봤습니다. 1번) 1번 결과) 2번) 2번 결과) 1번, 2번 방식으로 절대경로를 설정하고 소스코드를 실행했을 때 위와 같은 결과가 나왔습니다. 어떻게 하면 좋을까요? 디렉토리 경로는 'hoem/compu/DLCV/Detection/yolo/keras-yolo3/model_data/yolo.h5'입니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Object Detection 성능평가 지표 mAP의 이해 02/ AP, mAP 계산하기
안녕하세요? 강사님! 또 질문을 드리네요~ ^^ Object Detection 성능평가 지표 mAP의 이해 02번 강의를 들었습니다. AP를 구할 때 Confidence에 따른 Precision과 Recall변화를 구해서 AP계산한다고 이해했습니다. [AP 계산] 1번. 한 개의 이미지에서 한 개의 오브젝트가 있다면 , 오브젝트에 대해서 confidence를 0.1 ~ 0.9까지 변경을 시켜가면서 Precision과 Recall 값을 구해서 AP를 계산합니다. 2번. 그리고 최종 모델의 성능은 1번에서 계산된 모든 AP에 대한 평균으로 산출합니다. [mAP계산] *. mAP는 object가 여러 개인 경우에 해당 합니다. 1번. 한 개의 이미지에서 여러 개의 object가 있다면 , 각 object에 대해서 confidence를 0.1 ~ 0.9까지 변경을 시켜가면서 Precision과 Recall 값을 구하고, 그 구한 AP에 대한 평균을 계산하면 mAP입니다. 2번. 그리고 최종 모델의 성능은 1번에서 계산된 모든 mAP에 대한 평균으로 산출합니다. [coco challenge의 mAP] 그리고 coco challenge에서의 mAP는 confidence가 아닌 IOU값에 따른 mAP계산합니다. 제가 제대로 이해했는지요? 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
keras-yolo raccoon 관련 질문 있습니다.
안녕하세요 선생님 먼저, raccoon 강의 정말 잘 들었습니다. 제가 저만의 학습데이터에 전이학습을 완성해봤는데요. 그 성능을 테스트하기 위해서 예전 질문&답변을 살펴보았고 git 주소를 알려주셨던게 있어서 그것을 통해 평가하려고 하고있습니다. 다름이 아니라 제 질문은 train 데이터를 제외하고 학습시 사용했던 validation 데이터셋만 추출하여 평가하고 싶습니다. 예를 들어, 코드에서 val_split = 0.3의 경우 30%를 val로 할당하는 것으로 알고 있는데, 여기서 random.seed를 설정했으니 그 인덱스를 알 수 있을까요? 학습시 사용했던 validation 파일만 추출하려면 어디서 확인해야할까요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
confidence score(confidence score threshold), iou threshold는 관련해서 문의드립니다.
안녕하세요? 강사님! 잘 듣고 있습니다. 도움이 많이 됩니다. 강사님! 1. confidence score(confidence score threhold), iou threshold가 좀 헷갈리네요! @@ confidence score는 학습하고 나오면 계산되고, confidence score thresholde는 사전에 어떤 이유로 지정한 값으로 인식하면 되는지요? 그리고 confidence score threshold와 iou threshold가 동일한 값으로 생각하면 되는지요? 2. confidence score(confidence score threshold), iou threshold 값은 개발자가 정해서 사용하면 되나요? 아니면 data set을 제공할 때 데이터 제공하는 측에서 제공하나요? 감사합니다.
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
메모리 사용량 질문
안녕하세요, 개인 환경에서 돌리는 것을 연습중인데, 왜 자꾸 에러가 나나 했는데 강의에서 트레이닝 시 메모리를 15G 정도 먹고있는 것을 발견해서 이것이 원인이라고 생각해요! 정말 메모리를 많이 먹는군요... load_weights 할 때부터 10G 정도를 먹고, fit을 하려고 하니 제 그래픽카드 할당량인 11G가 넘어서 에러가 나는 것 같스빈다. 제가 11G짜리 그래픽카드를 두장을 쓰고 있는데, 혹시 메모리 사용량을 절반씩 나눠서 트레이닝하는 방법이 있을까요??
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
이미지 값, bounding box 값 min max
안녕하세요~! 선생님, 혼동이 와서 질문을 드립니다. 수업시간에서 이미지를 들고 왔습니다. 이미지에서의 top left가 0부터 시작하고 x도 0으로 xmin, ymin인 것 같은데 bounding box 값에서는 bottom left가 xmin, ymin으로 되는 건가요~? image와 bounding box에서의 min max 위치가 다른 것일까요? bouding box 값을 변경하는 과정(yolo format, coco, pascal 등)에서 헷갈리고 있습니다...ㅠㅠ 실례가 안된다면 annotation의 bounding box값 형태 또는 opencv retangle을 사용하면 변경 과정에 대한 영상도 추가적으로 가능할까요? 추가적으로 안 되도 괜찮습니다~! 찾아보고 더 공부하도록 하겠습니다. 아~! yolo format - class, x center, ycenter, width, height와 coco dataset의 bounding box의 width, height가 이미지의 w와 h가 아닌 bbox의 w,h 값이라고 생각했는데 서로 다른 것일까요??
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Raccoon 데이터 세트에서 GPU대신 CPU를 사용하려면 어떻게 해야하나요?
Raccoon 데이터 세트에서 GPU대신 CPU를 사용하려면 어떻게 해야하나요? 데스크탑에서 gpu로 학습을 완료하고 노트북cpu로 돌려보려고 합니다. GPU, CPU 사용 설정을 어떻게 하는지 궁금합니다.
- 해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Mask RCNN 관련해 몇 가지 질문드립니다.
Q1. ROI Pooling의 Quantization 문제점들을 설명해주시면서 크게 2번의 Quantization 문제가 발생한다고 하셨는데요! [1.원본이미지 -> Feature Map 될 때] 와 [2.Feature Map -> ROI Feature 될 때] 그런데 ROI Align은 Feature Map -> ROI Feature로 변환되는 즉 위에서 2번에서 발생하는 Quantization 문제점을 해결한 것인데.. 그러면 1번에서 발생하는 Quantization 문제점을 해결하는 방법은 따로 존재하나요? Q2. 위 그림에서 ROI Align 예시를 설명해주실 때 Pixel 포인트 곱해주는 과정에서 가까운 그리드 중 S_4를 선택할 때 0.1, 0.2 중 왜 굳이 0.2를 선택한 이유는 뭔가요? 또 S_3에서는 0.9와 0.6중 굳이 0.9를 선택한 건가요..? 선택하는 기준이 뭔지 궁금하네요! Q3.Binary Mask Prediction에서 픽셀이 'Masking인지 아닌지 여부'만 따진다고 했는데, 이 말의 의미가 A라는 픽셀이 클래스가 무엇이든 상관없이 Masking이면 1, 아니면 0이 된다라는 의미인건가요? 아니면 A라는 픽셀이 "'강아지'라는 객체를 Masking하는 것이다" 또는 "'강아지'가 아닌 객체를 Masking하는 픽셀이거나 Masking이 아닌 픽셀이다" 둘 중 하나를 의미하는 건가요?(무슨 말인지 이해가 잘 안되신 다면 답글 부탁드립니다 :) )
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
iou 관련 질문입니다.
x2 구하는 과정에서 (cand_box[2], gt_box[2]) 를 사용하는데 cand_box에서 2번에 해당하는건 width가 아닌가요? 최솟값 좌표를 비교하는것이라면 (cand_box[0]+cand_box[2]) 가 맞지않나요? gt_box[2]도 똑같이 (gt_box[0]+gt_box[2])가 맞지않나요?
- 미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
val_loss=nan
안녕하세요! 강의 잘 듣고 있습니다. 라쿤 데이터셋 학습 중, val_loss가 50번이 될 때까지 nan이 지속되다가, 51부터는 값이 생기는데, nan이 이렇게 지속되도 괜찮은걸까요? 그리고 nan이 나오는 이유는 뭘까요??