묻고 답해요
160만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결차량 번호판 인식 프로젝트와 TensorFlow로 배우는 딥러닝 영상인식 올인원
한국번호판 머신러닝
안녕하세요~한국 번호판도 OCR 인식이 가능할까요?데이터셋에 필요한게 무엇이 있을까요? 한국 번호판은 생성을 했는데..groundtruth.csv 파일도 필요할까요?
-
미해결차량 번호판 인식 프로젝트와 TensorFlow로 배우는 딥러닝 영상인식 올인원
CRNN_license_plate_data_fine_tuning_example_solution.ipynb 코랩 url 알려주세요.
pdf에 없는거 같아요.영상시작할때도 페이지 열려있는 상태에서 시작해서들어가는 방법을 모르겠구요.그리고 차량번호판 OCR때문에 영상듣는건데전체 프로젝트 파일은 따로 없는 건가요?
-
미해결구현하며 이해하는 이미지 생성모델 - CNN 기초부터 Diffusion까지
DDIM Reverse term 질문
DDIM 설명해주신 부분을 보다가 이해가 안 되는 부분이 있어서 질문드립니다.선생님께서 Reverse term이 이렇다고 말씀을 해주셨는데요.. 다른 강의도 찾고, 논문도 보고 하다가 이 수식이 다음과 같은 과정으로 전개될 수 있다는 것을 확인하였습니다.그러면 위 그림의 두 번째 수식에서 x_0와 epsilon_t를 (epsilon를 예측하는) Neural Network를 통해 계산한 것으로 바꿔 쓴다면 선생님께서 설명하신 아래의 수식이 되는 것인가요? 다시 말해, DDPM에서 x_0를 x_t와 epsilon_0로 표현할 수 있다고 들었는데, 이 수식을 이용하여 x_0를 예측하는 것인지 질문드립니다.만약 이게 맞다면, epsilon의 아래첨자에 있는 0, t 이런 것은 그냥 무시하고 생각해도 되는 것인가요?왜냐하면 초록색 밑줄에 있는 epsilon_t의 아래첨자는 t이지만, x_0를 나타낸 epsilon_0의 아래첨자는 0이어서 그냥 무시하고 생각해도 되는건지 여쭙습니다.
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
gradient descent 코드 구현시 편미분으로 변환하는 부분 질문드립니다!
안녕하세요!!강의를 듣는 도중 궁금한것이 생겼습니다이전 영상에서 손실함수의 편미분을 구해서 weight를 업데이트 하는 방식의 설명중에 공식의 오른쪽 부분 xi * (실제값i - 예측값i) 부분이 코드 상에 구현된것이이부분 인거 같은데 해당 코드에서, 예를 들면 w1_update 변수 부분에 공식의 xi 를 곱하는 부분이 빠진게 아닌가 싶은 의문이 듭니다!! 제가 못찾고 있는건지...아니면 어디서 따로 구현이 된것인지 여쭤봅니다!! 강의 감사합니다^^
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
학습 데이터 가져오는 부분과 배치사이즈, iteration 에 관해 질문드립니다!!
추가로 질문 드리고 싶습니다1.SGD시 1건의 데이터는 모든 피쳐를 포함한 1건의 데이터(RM, LSTAT의 경우 2개의 W를 가지는 2개의 열방향 데이터)인것인가요? 맞다면 1000번의 iteration시 동일한 데이터로 1000번 학습을 하는건가요? 아니면 열방향으로 순차대로 학습을 하는건가요?(예를 들면 600개의 데이터가 있다고 하면 1번부터 600번까지...)2.미니배치에서 Batch size만큼 학습데이터를 순차적으로 학습시킬때, Batch size는 순서대로(600개의 데이터가 있다면 1~30번, 31~60번...이렇게 정직하게 가져 오는건가요?? 아니면 1, 5, 8, 11, 50, 100 과 같이 랜덤하게 선택하되, Batch size만 지키는 것인가요??진짜 감사드립니다...강의 계속 보고 있습니다!!
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
손실함수의 편미분에서 w의 갯수가 많을경우
안녕하세요!!다시 복습하는 중입니다...!!강의를 들으면서 궁금한건데 강의에서는 손실함수의 편미분과업데이트시 w0(바이어스)과 w1(기울기,가중치)를 예시로 들면서 설명을 해주셨는데 만약 바이어스를 제외한 w1(기울기, 가중치)의 갯수가 여러개일경우(w2, w3, w4)편미분하는 절차는 어떻게 되나요??w1만 편미분하고 업데이트 하구, w2만 편미분하고 업데이트 하는...방식인지 아니면 w1, w2, w3를 한번에? 편미분 해서 나온 값으로 업데이트 하는것인지 궁금합니다! 좋은 강의 감사합니다^^
-
미해결차량 번호판 인식 프로젝트와 TensorFlow로 배우는 딥러닝 영상인식 올인원
장시간 Training이 필요한 Colab 실습 진행시 유의사항 관련 질문입니다
!python train.py \ --training_data_path="./data/ICDAR2015/train_data/" \ --checkpoint_path="/content/drive/MyDrive/Colab Notebooks/east_resnet_50_rbox"python3: can't open file '/content/train.py': [Errno 2] No such file or directory위 코드에 대해 자꾸 에러가 생기는데 해결방법을 알고 싶습니다
-
미해결설계독학맛비's 실전 AI HW 설계를 위한 바이블, CNN 연산 완전정복 (Verilog HDL + FPGA 를 이용한 가속기 실습)
FPGA 보드 관련문의
AI CNN 하드웨어 가속기 FPGA 관련 문의드립니다.강의에서 사용하는 보드 말고, ZedBoard를 사용하여 실습하고 있습니다.ZedBoard는 JTAG 핀 꼽는 곳이 따로 있는데 JTAG USB Blaster 구매하여 usb로 연결해주어야 할까요?micro usb 사용하면 장치 인식을 못하고, 아래와 같은 메세지가 뜹니다.이렇게 JTAG 핀을 꼽는 부분이 따로 있습니다.위와 같이 JTAG에 핀 연결해서 구성해야할까요?레퍼런스 찾아보아도 간략하게만 설명되어 있어서, 문의드립니다. 답변 부탁드립니다. 감사합니다.
-
해결됨딥러닝 CNN 완벽 가이드 - TFKeras 버전
CIFAIR10 CNN 모델 실습 중 모델 평가에 대한 질문
안녕하세요 선생님. 강의중 12분 20초쯤에 손실값과 정확도가 둘 다 높은 상태로 보이는데, 정확도가 높으면 손실값이 낮아야하는거 아닌가요? 아무리 테스트 데이터에 대한 평가라고 해도 정확도에 비해 손실값이 너무 높은게 좀 이상해보입니다. 학습할 때는 손실값을 낮게, 정확도는 높게라는 개념이 모델을 평가할 때는 조금 다른건가요?
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
VGG_Practice 실습예제 accuracy 계산값이 이상합니다.
현재 오픈된 커리큘럽 강의 소개 및 실습 환경에서 주피터 노트북 에제파일 다운로드 받아서 실행하였습니다.이상한 점은 VGG16 모델 생성 후 학습 및 성능 검증 cell 실행결과 cal_accuracy가 0.1정도 나오는데 값이 너무 낮은 것 같습니다.동영상 강죄에서 교수님이 보여주신 결과는 0.85 정도 나오는데 을 원인을 모르겠습니다.예제파일상의 어떤 부분이 문제인지 확인부탁드립니다. 감사합니다.
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
섹션 8. keras sequence 기반의 dataset 관련 질문입니다.
안녕하세요 교수님!keras sequence 기반 dataset에서 label을 one-hot encoding을 해주는 과정에서,pd.get_dummies와 pd.factorize를 소개해주셨는데.. 만약 강의에서와 달리 pd.factorize로 인코딩하지 않고, pd.get_dummies로 인코딩했다면 모델 생성 부분에서 마지막 layer에output = Dense(2, activation='softmax')(x)로 바꿔준다면 동일한 로직인 것이 맞겠죠..? 또 다른 질문으로는, 이진 분류라면 아무래도 softmax 보다는 sigmoid를 사용하는 편이 더 나은 것인지 궁금합니다! (혹시 성능적으로 더 좋을까요...?)좋은 강의 정말 감사합니다!!
-
미해결TensorFlow Object Detection API 가이드 Part1 - 코드 10줄 수정으로 물체검출하기
python -m pip install . 이 아예 안되서 전체 다 수행할 수 없습니다.
어제 구매했는데 조금 속상하네요ㅠ설치 부터가 안 되니.. 뭘 시도할 수가 없습니다.
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
사전 훈련 모델 VGG16을 이용하여 CIFAR10 학습 모델 구현 성능
CIFAR10_Pretrained_01에서 성능이 매우 낮게 나와서 공유된 코드 복붙도 해보고 껐다 켜보기도 했지만 결과가 이상합니다. 뭐가 문제일까요?
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
ImageDataGenerator 질문
Generator랑Augmentation이랑 같은건가요? 코드에서 아래 부분을 이미지데이터에서의 fit_transform이랑 비슷하다고 생각하면 되나요? # ImageDataGenerator 적용. fit()후 flow()로 image batch를 넣어주어야 함.data_generator.fit(image_batch)data_gen_iter = data_generator.flow(image_batch)# ImageDataGenerator를 동작하기 위해서는 next()등으로 iteration을 호출해야함.aug_image_batch = next(data_gen_iter)아래 코드를 실행하기 전에 type이 float일 때랑 코드를 실행해서 int일 때랑 값은 큰 차이가 없는데 왜 show_image 했을 때 그림이 다르게 나오는건가요? aug_image = aug_image.astype('int')저는 width_shift 했을 때 위아래로 되는 거 같은데... 교수님 코드랑 결과가 다릅니다.. 교수님 코드처럼 width_shift는 좌우 이동으로 생각하면 되나요?
-
미해결차량 번호판 인식 프로젝트와 TensorFlow로 배우는 딥러닝 영상인식 올인원
오토인코더 sigmoid
오토인코더 예시에서 ReLu대신에 sigmoid를 사용하는 이유는 무엇인가요?
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
캐글 너무 길게 출력됩니다.
첫번째 사진처럼 너무 길게 출력되어 밑에 사진처럼 변경하고 싶은데 어떻게 변경하나요? 플랫폼은 캐글 사용중입니다.
-
해결됨딥러닝 CNN 완벽 가이드 - TFKeras 버전
섹션6 CIFAR10 imshow() 시각화 문제
안녕하세요 교수님!5강 시작부분에서 get_preprocessed_data의 scaling 파라미터 값을 False로 하셨는데, 그러면 픽셀값을 255로 나누지 않는 것인데 이렇게 하면 다음과 같은 흰색 배경만 뜨더라구요..그래서 구글링을 해보니까 plt.imshow() 함수가 0 ~ 1 사이의 float형이나 0 ~ 255 사이의 int형만 가능하다고 해서 다음과 같이 바꾸었는데 제대로 출력되더라구요..!... def get_preprocessed_data(images, labels, scaling=True): if scaling: # 직접 scaling을 한다고 했을때? images = np.array(images/255.0, dtype=np.float32) else: images = np.array(images, dtype=np.int32) # 이 부분을 수정했습니다. oh_labels = np.array(labels, dtype=np.float32) return images, oh_labels def get_preprocessed_ohe(images, labels): images,labels = get_preprocessed_data(images, labels, scaling=False) # OHE oh_labels = to_categorical(labels) return images, oh_labels ...교수님 코드랑 다른 부분이 없는데 저는 흰 배경으로만 나오고, 저렇게 설정해야지만 올바르게 나오는 점이 이상해서 여쭤보고자 합니다ㅠㅠ! 혹시 몰라서 해당 부분 전체 코드 올리겠습니다!from tensorflow.keras.datasets import cifar10 from tensorflow.keras.utils import to_categorical from sklearn.model_selection import train_test_split # seed 설정 def set_random_seed(seed_value): np.random.seed(seed_value) python_random.seed(seed_value) tf.random.set_seed(seed_value) def get_preprocessed_data(images, labels, scaling=True): if scaling: # 직접 scaling을 한다고 했을때? images = np.array(images/255.0, dtype=np.float32) else: images = np.array(images, dtype=np.float32) oh_labels = np.array(labels, dtype=np.float32) return images, oh_labels def get_preprocessed_ohe(images, labels): images,labels = get_preprocessed_data(images, labels, scaling=False) # OHE oh_labels = to_categorical(labels) return images, oh_labels def get_train_valid_test_set(train_images, train_labels, test_images, test_labels, valid_size=0.15, random_state=2023): train_images, train_ohe_labels = get_preprocessed_ohe(train_images, train_labels) test_images, test_ohe_labels = get_preprocessed_ohe(test_images, test_labels) train_images, valid_images, train_ohe_labels, valid_ohe_labels = train_test_split(train_images, train_ohe_labels, test_size=valid_size, random_state=random_state) return train_images, train_ohe_labels, valid_images, valid_ohe_labels, test_images, test_ohe_labelsset_random_seed(2023) (train_images, train_labels), (test_images, test_labels) = cifar10.load_data() print(train_images.shape, train_labels.shape, test_images.shape, test_labels.shape) train_images, train_ohe_labels, valid_images, valid_ohe_labels, test_images, test_ohe_labels = get_train_valid_test_set(train_images, train_labels, test_images, test_labels, valid_size=0.15, random_state=2023) print(train_images.shape, train_ohe_labels.shape, valid_images.shape, valid_ohe_labels.shape, test_images.shape, test_ohe_labels.shape)NAMES = np.array(['Airplane', 'Automobile', 'Bird', 'Cat', 'Deer', 'Dog', 'Frog', 'Horse', 'Ship', 'Truck']) def show_images(images, labels, ncols=8): figure, axs = plt.subplots(nrows=1, ncols=ncols, figsize=(22, 6)) for i in range(ncols): axs[i].imshow(images[i]) label = labels[i].squeeze() axs[i].set_title(NAMES[int(label)]) show_images(train_images[:8], train_labels[:8], ncols=8) show_images(train_images[8:16], train_labels[8:16], ncols=8) show_images(train_images[16:24], train_labels[16:24], ncols=8)감사합니다!
-
해결됨파이썬을 활용한 머신러닝 딥러닝 입문
LeNet-5 실습 중 loss값 nan이 나오고 있습니다.
강의와 동일하게 코드를 쳐서 진행한 것 같은데 loss값 자체가 nan이 나오고 accuracy는 0.1을 넘기지 못하는 중입니다. 왜 이렇게 나오는 건지 알려주실 수 있을까요?
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
from tensorflow.keras.models import Sequential
제목처럼 Sequenital을 import해서 쓰는 것과 keras.Sequential을 쓰는 것의 차이가 있나요? models의 차이가 있는지 궁금합니다. 실행했을 땐 똑같긴한데.. 굳이 왜 다른지 궁금합니다. Dense(1, input_shape = (2, ), ....) 에서 왜 2가 앞에 쓰이는 건가요?? 앞은 보통 행인데...ㅠㅠkeras가 행은 몇개인지 몰라도 되는데 피쳐는 몇개인지 알아야 하는건가요?
-
해결됨딥러닝 CNN 완벽 가이드 - TFKeras 버전
save_weights_only=True로 했을 때 load_model 오류
안녕하세요 교수님!ModelCheckpoint에서 ModelCheckpoint('best_model.h5', save_weights_only=True, monitor='val_loss', save_best_only=True, mode='min')save_weights_only = True로 했을 때 아래와 같은 load_model 에러가 나더라구요..그래서 구글링을 해봤는데 저렇게 설정할 경우에 모델 아키텍처가 저장이 안되어서 load_model을 할 수 없다고 json 파일로 모델을 따로 저장하고 나중에 json 모델을 다시 불러오는 방법을 사용하라고 나왔습니다. 강의 중에도 언급해주셨지만 save_weights_only = True로 했을 때의 이점이 있을까요..? False로 했을 때 교수님께서 모델을 불러올 때 충돌..? 비슷한 것이 난다고 하셨는데 좀 더 세부적인 내용을 알고 싶습니다..!만약에 True로 설정했다면 매번 json으로 모델을 저장하는 과정을 거쳐야 하는 것인지 궁금합니다!model.save() 함수도 있던데 이거는 modelcheckpoint와 달리 학습 중에 저장은 안되는 것 같아서요.. 항상 감사합니다 교수님!!