묻고 답해요
161만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결Google 공인! 텐서플로(TensorFlow) 개발자 자격증 취득
(재등록) 슬렉 메일이 안와요..
다른 메일로 받고싶어서 4월 9일에 올려서 답변도 받았는데.. 안왓습니다...... jkw06444@gmail.com
-
미해결비전공자를 위한 진짜 입문 올인원 개발 부트캠프
Failed to compile [./src/App.js 12:35-41 문제 원인 좀
어디 쪽에서 문제가 발생 하는지 모르겠습니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
선생님 질문입니다!
3:23 에서 질문을 드리고 있습니다!예측 BBbox 와 positive 좌표차이가 Ground truth와 positive 좌표차이와 같게 만든다고 하셨는데 가령 빨간점이 파랑 점과의 거리 가 같은 곳은 무수히 많다고 생각하는데 단순히 거리를 줄이는 것이 어떤 원리로 regression이되는지 이해가 되지 않습니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
선생님 질문입니다!
1:01의 그림을 보면서 질문드리고 있습니다!원래 CNN을 거치면 FC layer에 가기전에 여러개의 피처맵을 Flatten 해서 맞춰주는데 지금 그림에서 Conv Network를 통과한 feature 이미지는 하나만 있다고 표현되는데 왜 그런건가요? 제 생각대로라면 Flatten이 되기전에는 여러 피처맵이 있는걸로 알고 있습니다.그리고 이미 vggnet 을 통해서 나온 피처맵을 3*3 conv를 하는 이유를 모르겠습니다. conv를 적용하지 않고 그냥 1*1 conv를 하는 것이 나을거라 생각하는데 이해가 잘 되지 않습니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
multi-class segmentation mask일 때 COCO format으로 변환하는 방법
구글링을 해도 도저히 답을 못 찾겠어서 질문 드립니다. 지금 맡고 있는 프로젝트에서는, 총 4개의 class가 masking되어있는 이미지 형태로 annotation이 준비되어 있고 이걸 json annotation으로 만들어야 하는데 이럴 경우에는 어떻게 해야 하죠?
-
미해결Google 공인! 텐서플로(TensorFlow) 개발자 자격증 취득
슬렉 가입메일이 안옵니다.
jkw06444@gmail.com 이 주소로 부탁드립니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
선생님 질문입니다!
구글링을 해도 잘 이해가 안되서 이렇게 질문을 남깁니다.원본이미지는 이미지내에 오브젝트가 어떤 것이 있는지, 어디에 있는지에 대한 정보인 레이블 값과 비슷한 Annotation 파일과 1:1 매치가 됩니다. (pascal데이터라는 가정하에) 그러한 이미지를 selective search를 통해서 예측한 box와 실제위치 (ground truth)의 겹치는 정도(IOU)가 0.5 이상인 이미지를 미리 학습된 CNN(Alexnet)에 넣어 이 이미지가 예측한 이 곳이 "사람"이다. 라고 분류를 해주는 순으로 가는거라 생각하는데. 제가 이해한게 맞는건지 잘 모르겠습니다. 또한 IOU가 0.5이상인 ss predicted 된 박스의 레이블은 어떻게 결정되는 건가요? 머릿속이 너무 뒤죽박죽이라 질문이 두서가없는 점 죄송합니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
안녕하세요 선생님
선생님 제가 생각하는 annotation 파일에 대한 생각이 맞는지 궁금합니다.이전에 배웠던 mnist 파일에 빗대어 표현하자면숫자 '1'이라는 이미지에 레이블값 '1' 이 같이 매핑되어있지 않았습니까? 그렇다면 pascal voc에서는 '1' (물론 없지만) 이미지에 레이블값'1', 1이 있는 위치(bounding box), 또는 사진내 다른 이미지의 위치(bounding box)와 같은 좀 더 세분화 된 레이블 내용을 가진 것이 annotation 파일인가요? 그래서 이러한 많은 정보에 다가가기 위해 파싱을 통해 접근하는 거구요.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
코랩 파이토치 환경 변화 관련
안녕하세요 선생님가장 최근에 코랩 파이토치 환경이 변경되어 선생님께서 코멘트 주신 내용이 있었는데요저도 그 글을 보고 파이토치를 재설치해서 mmcv를 사용하고 있었습니다.그런데 오늘 오후부터 mmdetection 첫번째 사진과 같은 방법으로 코드를 돌리면mmengine 이 인식되지 않는다는 오류가 발생합니다. 확인한번 부탁드려도 될까요?혼자 해결해보려고 mmdetection installation 페이지에서 아래와 같이 설치해보았는데그 때는 mmengine이 없다는 말은 안나오는데 mmdet.datasets.builder가 인식이 안되더라구요실제로 mmdet.dataset 폴더 안에 builder.py가 없더라구요. 제가 어느 부분을 놓친건지.. 조언부탁드립니다.
-
해결됨예제로 배우는 딥러닝 자연어 처리 입문 NLP with TensorFlow - RNN부터 BERT까지
BERT를 이용한 텍스트 분류에서 다중분류라면 어떻게 해야할까요?
보여주신 두 개의 예가 모두 이진 분류 문제라서 질문드려 봅니다.AUTOTUNE = tf.data.AUTOTUNE batch_size = 32 class_names = ['neg', 'pos'] # train 데이터셋 준비 df_train_target = df_train.pop('labels') train_dataset = tf.data.Dataset.from_tensor_slices((df_train.values, df_train_target.values)) raw_train_ds = train_dataset.shuffle(len(df_train)).batch(batch_size) train_ds = raw_train_ds.cache().prefetch(buffer_size=AUTOTUNE) # validation 데이터셋 준비 df_valid_target = df_valid.pop('labels') valid_dataset = tf.data.Dataset.from_tensor_slices((df_valid.values, df_valid_target.values)) valid_ds = valid_dataset.shuffle(len(df_valid)).batch(batch_size) valid_ds = valid_ds.cache().prefetch(buffer_size=AUTOTUNE) # test 데이터셋 df_test_target = df_test.pop('labels') test_dataset = tf.data.Dataset.from_tensor_slices((df_test.values, df_test_target.values)) test_ds = test_dataset.shuffle(len(df_test)).batch(batch_size) test_ds = test_ds.cache().prefetch(buffer_size=AUTOTUNE)여기서 class_names를 class수 에 맞게 변경하고 net = tf.keras.layers.Dense(1, activation=None, name='classifier')(net)Fine Tuning시 Dense Layer를 class수에 맞게 변경 하고...< 여기서 activation은 이진 분류 문제임에도 sigmoid가 아니라 None인데, 그럴경우 linear로 되는 것으로 알고있습니다. 다중분류 문제 분류를 할 때도 None으로 설정하면 될까요? > def print_my_examples(inputs, results): result_for_printing = \ [f'input: {inputs[i]:<30} : score: {results[i][0]:.6f}' for i in range(len(inputs))] print(*result_for_printing, sep='\n') print() examples = [ 'this is such an amazing movie!', # this is the same sentence tried earlier 'The movie was great!', 'The movie was meh.', 'The movie was okish.', 'The movie was terrible...' ] reloaded_results = tf.sigmoid(reloaded_model(tf.constant(examples))) original_results = tf.sigmoid(classifier_model(tf.constant(examples))) print('Results from the saved model:') print_my_examples(examples, reloaded_results) print('Results from the model in memory:') print_my_examples(examples, original_results)마지막으로 다중분류를 할 때,reloaded_results = tf.sigmoid(reloaded_model(tf.constant(examples))) original_results = tf.sigmoid(classifier_model(tf.constant(examples)))여기서 tf.softmax로 바꿔주면 되나요?
-
미해결비전공자를 위한 진짜 입문 올인원 개발 부트캠프
var isFool = true; 는 무슨 용도인가요?
var name ="그랩";var num = 100;이렇게만 입력해도 비교 연산자가 작동하는데var isFool = true; 는 왜 쓰인건지 궁금합니다
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mmdetection mask-rcnn 모델 훈련 성공 후 inference 오류
안녕하세요... 좋은 강의 감사합니다. 제가 질문 드리고자 하는 부분은 다음과 같습니다.이미지 데이터셋을 자체적으로 만들어서 코랩에서 학습을 시키고, 학습된 모델을 코랩에서 inference 는 되는데, 이 모델을 제 개인 컴퓨터 ( GPU가 없는 cpu 로 진행)에서 진행하면 아래와 같은 오류가 발생하면서 작동이 되지 않습니다. 진행순서는 다음과 같습니다.자체 이미지셋 50장을 코랩에서 mmdetection mask-rcnn 으로 학습 (pre-train 모델 사용)학습 성공후, 코랩 유지상태에서 테스트용 이미지 inference 성공, 보기 및 저장 성공학습된 epoch.pth 모델을 다운받아서 개인 pc (CPU only) inference. 할 경우 아래와 같은 오류발생, mmdetection 예제 모델로 예제 이미지를 개인 pc에 다운받아서 inference 할 경우느 성공혹시 몰라서 tools 폴더내 publish.py로 모델을 생성해서도 해보았으나, 동일한 오류 발생오류 내용은 다음과 같습니다.load checkpoint from local path: /Users/category/Projects/WatizB/mmdetection/checkpoints/mask_rcnn_r101_fpn_1x_WatizB-ddc77fa4.pthThe model and loaded state dict do not match exactlysize mismatch for roi_head.bbox_head.fc_cls.weight: copying a param with shape torch.Size([12, 1024]) from checkpoint, the shape in current model is torch.Size([81, 1024]).size mismatch for roi_head.bbox_head.fc_cls.bias: copying a param with shape torch.Size([12]) from checkpoint, the shape in current model is torch.Size([81]).size mismatch for roi_head.bbox_head.fc_reg.weight: copying a param with shape torch.Size([44, 1024]) from checkpoint, the shape in current model is torch.Size([320, 1024]).size mismatch for roi_head.bbox_head.fc_reg.bias: copying a param with shape torch.Size([44]) from checkpoint, the shape in current model is torch.Size([320]).size mismatch for roi_head.mask_head.conv_logits.weight: copying a param with shape torch.Size([11, 256, 1, 1]) from checkpoint, the shape in current model is torch.Size([80, 256, 1, 1]).size mismatch for roi_head.mask_head.conv_logits.bias: copying a param with shape torch.Size([11]) from checkpoint, the shape in current model is torch.Size([80]).[[[148 148 148] [147 147 147] [147 147 147] ... [150 148 140] [152 149 141] [151 149 139]] [[147 147 147] [147 147 147] [147 147 147] ... [154 151 146] [154 151 143] [151 149 139]] [[147 147 147] [147 147 147] [147 147 147] ... [157 154 149] [155 152 144] [152 149 141]] ... [[155 155 155] [154 154 154] [154 154 154] ... [150 148 148] [151 149 149] [151 149 149]] [[153 153 153] [154 154 154] [154 154 154] ... [149 147 147] [150 148 148] [150 148 148]] [[152 152 152] [153 153 153] [155 155 155] ... [149 147 147] [149 147 147] [150 148 148]]]/Users/category/Projects/WatizB/mmdetection/mmdet/datasets/utils.py:66: UserWarning: "ImageToTensor" pipeline is replaced by "DefaultFormatBundle" for batch inference. It is recommended to manually replace it in the test data pipeline in your config file. warnings.warn( 바쁘시겟지만 확인 혹시 이런 상황에 대한 경험이 있으시면 답변 부탁드립니다. 수고하세요>~~
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
dataset 질문
정말 간단한 질문 하나만 하겠습니다..datasets 는 config.data.train을 통해서 말그대로 모든 데이터의 집합인 datasets를 만듭니다.이때 datasets과 datasets[0]을 출력 하게 되면 다른게 없는데 차이점이 뭔가요?? - 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 강의 내용을 질문할 경우 몇분 몇초의 내용에 대한 것인지 반드시 기재 부탁드립니다. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mmdetection에서 테스트 수행 관련 문의
안녕하세요 선생님항상 강의 잘 듣고 있습니다.강의목록을 보면 bccd 데이터셋에서는 test를 수행하는데 oxford pet 데이터 셋에서는 test를 수행하는 과정이 없어서요 bccd 강의에서 했던 그대로 하면 다른 데이터셋도 test와 evaluation이 가능한가요? bccd 강의를 참고하여 test와 evaluation을 수행하고 싶은데 다음과 같은 오류가 발생합니다.- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 강의 내용을 질문할 경우 몇분 몇초의 내용에 대한 것인지 반드시 기재 부탁드립니다. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.
-
미해결TensorFlow 2.0으로 배우는 딥러닝 입문
char-rnn 코랩 에러 ... 못보나요,, cpus는 너무 느려서
65 unique characters FATAL Flags parsing error: Unknown command line flag 'f' Pass --helpshort or --helpfull to see help on flags. E0331 00:27:13.561940 139884619077440 ultratb.py:152] Internal Python error in the inspect module. Below is the traceback from this internal error. Traceback (most recent call last): File "/usr/local/lib/python3.9/dist-packages/absl/app.py", line 156, in parse_flags_with_usage try: File "/usr/local/lib/python3.9/dist-packages/absl/flags/_flagvalues.py", line 652, in __call__ raise _exceptions.UnrecognizedFlagError( absl.flags._exceptions.UnrecognizedFlagError: Unknown command line flag 'f' During handling of the above exception, another exception occurred: Traceback (most recent call last): File "/usr/local/lib/python3.9/dist-packages/IPython/core/interactiveshell.py", line 3553, in run_code exec(code_obj, self.user_global_ns, self.user_ns) File "<ipython-input-6-c4a8a0bf2191>", line 170, in <cell line: 168> app.run(main) File "/usr/local/lib/python3.9/dist-packages/absl/app.py", line 300, in run try: File "/usr/local/lib/python3.9/dist-packages/absl/app.py", line 369, in _run_init logging.use_absl_handler() File "/usr/local/lib/python3.9/dist-packages/absl/app.py", line 216, in _register_and_parse_flags_with_usage original_argv = sys.argv if argv is None else argv File "/usr/local/lib/python3.9/dist-packages/absl/app.py", line 166, in parse_flags_with_usage sys.stderr.write('Pass --helpshort or --helpfull to see help on flags.\n') SystemExit: 1 During handling of the above exception, another exception occurred: Traceback (most recent call last): File "/usr/local/lib/python3.9/dist-packages/IPython/core/ultratb.py", line 1101, in get_records return _fixed_getinnerframes(etb, number_of_lines_of_context, tb_offset) File "/usr/local/lib/python3.9/dist-packages/IPython/core/ultratb.py", line 248, in wrapped return f(*args, **kwargs) File "/usr/local/lib/python3.9/dist-packages/IPython/core/ultratb.py", line 281, in _fixed_getinnerframes records = fix_frame_records_filenames(inspect.getinnerframes(etb, context)) File "/usr/lib/python3.9/inspect.py", line 1543, in getinnerframes frameinfo = (tb.tb_frame,) + getframeinfo(tb, context) AttributeError: 'tuple' object has no attribute 'tb_frame' --------------------------------------------------------------------------- UnrecognizedFlagError Traceback (most recent call last) /usr/local/lib/python3.9/dist-packages/absl/app.py in parse_flags_with_usage(args) 155 """ --> 156 try: 157 return FLAGS(args) 13 framesUnrecognizedFlagError: Unknown command line flag 'f' During handling of the above exception, another exception occurred: SystemExit Traceback (most recent call last) [... skipping hidden 1 frame] SystemExit: 1 During handling of the above exception, another exception occurred: TypeError Traceback (most recent call last) [... skipping hidden 1 frame] /usr/local/lib/python3.9/dist-packages/IPython/core/ultratb.py in find_recursion(etype, value, records) 380 # first frame (from in to out) that looks different. 381 if not is_recursion_error(etype, value, records): --> 382 return len(records), 0 383 384 # Select filename, lineno, func_name to track frames with TypeError: object of type 'NoneType' has no len()
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
config 파일 수정 문의
안녕하세요 선생님선생님 강의를 통해서 custom dataset을 이용하여faster-rcnn 모델을 돌려볼 수 있었습니다.이 custom dataset으로 다른 모델(swin)도 적용해보려고 하는데요 https://github.com/open-mmlab/mmdetection/tree/master/configs/swin 이 페이지의 mask_rcnn_swin-t-p4-w7_fpn_1x_coco.py 파일을 이용해보려고 합니다. 그에 맞게 config파일과 checkpoints를 변경하고 모델을 구동하려고 하니 mask관련해 오류가 발생했습니다. 아마 mask-rcnn으로인해 발생한 오류처럼 보입니다. 구글링을 해보니 이 부분을 주석 처리해서 실행해보라고 하던데 colab에서 해당 부분을 주석처리할 수 있는 방법이 있을까요? 혹시 더 좋은 방법이 있다면 가르쳐 주시면 감사하겠습니다.2023-03-27 14:19:05,247 - mmdet - INFO - Automatic scaling of learning rate (LR) has been disabled. <ipython-input-14-f8ce61995cc8>:47: DeprecationWarning: `np.long` is a deprecated alias for `np.compat.long`. To silence this warning, use `np.compat.long` by itself. In the likely event your code does not need to work on Python 2 you can use the builtin `int` for which `np.compat.long` is itself an alias. Doing this will not modify any behaviour and is safe. When replacing `np.long`, you may wish to use e.g. `np.int64` or `np.int32` to specify the precision. If you wish to review your current use, check the release note link for additional information. Deprecated in NumPy 1.20; for more details and guidance: https://numpy.org/devdocs/release/1.20.0-notes.html#deprecations 'labels': np.array(gt_labels, dtype=np.long), <ipython-input-14-f8ce61995cc8>:49: DeprecationWarning: `np.long` is a deprecated alias for `np.compat.long`. To silence this warning, use `np.compat.long` by itself. In the likely event your code does not need to work on Python 2 you can use the builtin `int` for which `np.compat.long` is itself an alias. Doing this will not modify any behaviour and is safe. When replacing `np.long`, you may wish to use e.g. `np.int64` or `np.int32` to specify the precision. If you wish to review your current use, check the release note link for additional information. Deprecated in NumPy 1.20; for more details and guidance: https://numpy.org/devdocs/release/1.20.0-notes.html#deprecations 'label_ignore':np.array(gt_labels_ignore, dtype=np.long) 2023-03-27 14:19:08,688 - mmdet - INFO - load checkpoint from local path: checkpoints/mask_rcnn_swin-t-p4-w7_fpn_1x_coco_20210902_120937-9d6b7cfa.pth 2023-03-27 14:19:08,849 - mmdet - WARNING - The model and loaded state dict do not match exactly size mismatch for roi_head.bbox_head.fc_cls.weight: copying a param with shape torch.Size([81, 1024]) from checkpoint, the shape in current model is torch.Size([16, 1024]). size mismatch for roi_head.bbox_head.fc_cls.bias: copying a param with shape torch.Size([81]) from checkpoint, the shape in current model is torch.Size([16]). size mismatch for roi_head.bbox_head.fc_reg.weight: copying a param with shape torch.Size([320, 1024]) from checkpoint, the shape in current model is torch.Size([60, 1024]). size mismatch for roi_head.bbox_head.fc_reg.bias: copying a param with shape torch.Size([320]) from checkpoint, the shape in current model is torch.Size([60]). size mismatch for roi_head.mask_head.conv_logits.weight: copying a param with shape torch.Size([80, 256, 1, 1]) from checkpoint, the shape in current model is torch.Size([15, 256, 1, 1]). size mismatch for roi_head.mask_head.conv_logits.bias: copying a param with shape torch.Size([80]) from checkpoint, the shape in current model is torch.Size([15]). 2023-03-27 14:19:08,856 - mmdet - INFO - Start running, host: root@06d3ab7dae34, work_dir: /content/gdrive/MyDrive/htp_dir_swin 2023-03-27 14:19:08,858 - mmdet - INFO - Hooks will be executed in the following order: before_run: (VERY_HIGH ) StepLrUpdaterHook (NORMAL ) CheckpointHook (LOW ) EvalHook (VERY_LOW ) TextLoggerHook -------------------- before_train_epoch: (VERY_HIGH ) StepLrUpdaterHook (NORMAL ) NumClassCheckHook (LOW ) IterTimerHook (LOW ) EvalHook (VERY_LOW ) TextLoggerHook -------------------- before_train_iter: (VERY_HIGH ) StepLrUpdaterHook (LOW ) IterTimerHook (LOW ) EvalHook -------------------- after_train_iter: (ABOVE_NORMAL) OptimizerHook (NORMAL ) CheckpointHook (LOW ) IterTimerHook (LOW ) EvalHook (VERY_LOW ) TextLoggerHook -------------------- after_train_epoch: (NORMAL ) CheckpointHook (LOW ) EvalHook (VERY_LOW ) TextLoggerHook -------------------- before_val_epoch: (NORMAL ) NumClassCheckHook (LOW ) IterTimerHook (VERY_LOW ) TextLoggerHook -------------------- before_val_iter: (LOW ) IterTimerHook -------------------- after_val_iter: (LOW ) IterTimerHook -------------------- after_val_epoch: (VERY_LOW ) TextLoggerHook -------------------- after_run: (VERY_LOW ) TextLoggerHook -------------------- 2023-03-27 14:19:08,859 - mmdet - INFO - workflow: [('train', 1)], max: 5 epochs 2023-03-27 14:19:08,860 - mmdet - INFO - Checkpoints will be saved to /content/gdrive/MyDrive/htp_dir_swin by HardDiskBackend. --------------------------------------------------------------------------- KeyError Traceback (most recent call last) <ipython-input-35-c8cc0d536607> in <module> 4 mmcv.mkdir_or_exist(os.path.abspath(cfg.work_dir)) 5 # epochs는 config의 runner 파라미터로 지정됨. 기본 12회 ----> 6 train_detector(model, datasets, cfg, distributed=False, validate=True) 6 frames/usr/local/lib/python3.9/dist-packages/mmdet-2.28.2-py3.9.egg/mmdet/apis/train.py in train_detector(model, dataset, cfg, distributed, validate, timestamp, meta) 244 elif cfg.load_from: 245 runner.load_checkpoint(cfg.load_from) --> 246 runner.run(data_loaders, cfg.workflow) /usr/local/lib/python3.9/dist-packages/mmcv/runner/epoch_based_runner.py in run(self, data_loaders, workflow, max_epochs, **kwargs) 134 if mode == 'train' and self.epoch >= self._max_epochs: 135 break --> 136 epoch_runner(data_loaders[i], **kwargs) 137 138 time.sleep(1) # wait for some hooks like loggers to finish /usr/local/lib/python3.9/dist-packages/mmcv/runner/epoch_based_runner.py in train(self, data_loader, **kwargs) 47 self.call_hook('before_train_epoch') 48 time.sleep(2) # Prevent possible deadlock during epoch transition ---> 49 for i, data_batch in enumerate(self.data_loader): 50 self.data_batch = data_batch 51 self._inner_iter = i /usr/local/lib/python3.9/dist-packages/torch/utils/data/dataloader.py in __next__(self) 626 # TODO(https://github.com/pytorch/pytorch/issues/76750) 627 self._reset() # type: ignore[call-arg] --> 628 data = self._next_data() 629 self._num_yielded += 1 630 if self._dataset_kind == _DatasetKind.Iterable and \ /usr/local/lib/python3.9/dist-packages/torch/utils/data/dataloader.py in _next_data(self) 1331 else: 1332 del self._task_info[idx] -> 1333 return self._process_data(data) 1334 1335 def _try_put_index(self): /usr/local/lib/python3.9/dist-packages/torch/utils/data/dataloader.py in _process_data(self, data) 1357 self._try_put_index() 1358 if isinstance(data, ExceptionWrapper): -> 1359 data.reraise() 1360 return data 1361 /usr/local/lib/python3.9/dist-packages/torch/_utils.py in reraise(self) 541 # instantiate since we don't know how to 542 raise RuntimeError(msg) from None --> 543 raise exception 544 545 KeyError: Caught KeyError in DataLoader worker process 0. Original Traceback (most recent call last): File "/usr/local/lib/python3.9/dist-packages/torch/utils/data/_utils/worker.py", line 302, in _worker_loop data = fetcher.fetch(index) File "/usr/local/lib/python3.9/dist-packages/torch/utils/data/_utils/fetch.py", line 58, in fetch data = [self.dataset[idx] for idx in possibly_batched_index] File "/usr/local/lib/python3.9/dist-packages/torch/utils/data/_utils/fetch.py", line 58, in <listcomp> data = [self.dataset[idx] for idx in possibly_batched_index] File "/usr/local/lib/python3.9/dist-packages/mmdet-2.28.2-py3.9.egg/mmdet/datasets/custom.py", line 220, in __getitem__ data = self.prepare_train_img(idx) File "/usr/local/lib/python3.9/dist-packages/mmdet-2.28.2-py3.9.egg/mmdet/datasets/custom.py", line 243, in prepare_train_img return self.pipeline(results) File "/usr/local/lib/python3.9/dist-packages/mmdet-2.28.2-py3.9.egg/mmdet/datasets/pipelines/compose.py", line 41, in __call__ data = t(data) File "/usr/local/lib/python3.9/dist-packages/mmdet-2.28.2-py3.9.egg/mmdet/datasets/pipelines/loading.py", line 398, in __call__ results = self._load_masks(results) File "/usr/local/lib/python3.9/dist-packages/mmdet-2.28.2-py3.9.egg/mmdet/datasets/pipelines/loading.py", line 347, in _load_masks gt_masks = results['ann_info']['masks'] KeyError: 'masks'
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
파라미터 개수에 대한 질문
안녕하세요.수업 중에 가중치 W와 파라미터가 같은 말이라고 설명해주셨습니다. 보통 파라미터의 개수라고 하면 정확히 무엇을 의미하나요?아래 수업 자료를 보면 앞 노드에서 다음 노드로 연결되는 화살표가 3개씩 있습니다. 그럼 이 화살표 각각을 파라미터 1개라고 간주해서, 아래 화살표 개수를 모두 합친 것을 파라미터 개수라고 하는지요? 아니면 앞 레이어에서 다음 레이어로 넘어갈 때, 한 노드에서 다음 노드로 화살표가 3개 있더라도, 파라미터는 1개라고 간주하나요?예를 들어 오픈AI의 GPT3의 파라미터는 1750억개라고 하는데, 여기서 파라미터 개수의 정의가 궁금합니다.
-
미해결비전공자를 위한 진짜 입문 올인원 개발 부트캠프
3분 쯤 catch함수에 console.error가 안되네요
타이핑은 똑같이 했습니다.. catch함수 빼면 나머지는 동작됩니다
-
미해결파이썬을 활용한 머신러닝 딥러닝 입문
모델 적용에 대한 문의 사항
안녕하십니까.2월에 인공지능 서비스 모델 설계을 수강후 주신 쿠폰으로 좋은 교육 듣고 있습니다.몇가지 문의 사항이 있어서 연락드립니다.1. 학습된 모델을 “Model 적용” regr.predict()를 사용하여 모델적용 결과를 도출하는게 맞는지요?2. 모델에 지속적인 학습을 위해서는 regr.fit()으로 전체 데이터를 재구성하여 재 학습시키는지, 아니면 추가 데이터만 학습 시키는 방법이 있는지요?예) regr.fit(diabetes_X_curr, diabetes_y_curr)3. . 모델을 계속 적용하여 결과를 도출하고, 학습을 지속적으로 하면서 결정계수가 계속 낮아진다면 어떤 작업을 해야 하는지요?010.Simple Linear Regression 정리 자료
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
안녕하세요 선생님 질문입니다!
선생님 제가 가지고 있는 이미지를 가지고 모듈을 활용해 보려고 하는데 error: OpenCV(4.7.0) /io/opencv/modules/imgproc/src/color.cpp:182: error: (-215:Assertion failed) !_src.empty() in function 'cvtColor'이러한 오류가 뜹니다. 스택오버플로우나 다른 곳을 찾아봐도 잘 안나오는데 이유가 뭔지 알려주실 수 있으신가요?