33,000원
다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결TensorFlow 2.0으로 배우는 딥러닝 입문
vanishing gradient
시그모이드 함수 및 하이퍼볼릭 탄젠트 함수를 미분하면 각각의 미분 값의 범위가 0~0.25 (시그모이드), 0~1 (하이퍼볼릭 탄젠트) 사이여서 chain rule에 의해 계속해서 반복하여 계산하면 해당값이 0에 가까워져 gradient vanishing problem이 발생하는 거 아닌가요? 강의 내용 중 잘못된 부분이 있는 거 같아 질문 드립니다.
- 미해결TensorFlow 2.0으로 배우는 딥러닝 입문
TensorFlow 2.0을 이용한 CIFAR-10 이미지 분류를 위한 CNN 구현 질문
여기 강의 및 코드 epoch이라고 하시는것이, 배치를 1번 쭉 돈것을 1000번 반복한다는 말씀이 아니시고, 배치를 몇번 도냐, iteration을 말씀하시는거 맞죠?
- 미해결TensorFlow 2.0으로 배우는 딥러닝 입문
텐서플로우 설치 오류
선생님 안녕하세요. 파이썬에서 명령어 입력시 아래와 같은 메시지가 뜨며 텐서플로우가 설치되지 않는데 왜 그러는건지 알 수 있을까요?
- 미해결TensorFlow 2.0으로 배우는 딥러닝 입문
코드 실행 질문
안녕하세요? 강의를 듣다가 코드 실행이 안되는 점 질문 드리려고 글을 남깁니다. 윈도우에서 가르쳐주신대로 파워쉘 창을 띄우고 코드를 실행하려고 했는데 잘 되지 않아 무엇이 잘못되었는지 궁금합니다. 첨부된 사진에서 어떤 점이 잘못되었는지 알려주시면 감사하겠습니다.
- 해결됨TensorFlow 2.0으로 배우는 딥러닝 입문
CNN 모델 관련 질문 드립니다.
안녕하세요. 강의를 듣다가 궁금한게 생겨서 질문 남깁니다. 아래 CNN 모델 파라미터 설정 부분에서 tf.keras.layers.Conv2D(filters=32, kernel_size=5, strides=1, padding='same', activation='relu') filters와 activation에서 의문이 듭니다. 첫 째, filters가 32로 설정되어 있는데, 이미지에 5x5 크기의 32개 필터를 적용한 것으로 이해가 됩니다. 즉, 1개의 이미지가 32개의 필터링된 이미지로 변환. 여기서 드는 의문점은 필터의 종류만해도 수십가지가 될텐데, 이거는 CNN 모델이 알아서 적용을 하는 것인가요? 만약 그렇다고하면 원리가 무엇인지 알 수 있을까요? CNN을 제가 이해하기로는 이미지에서 특정 부분을 추출하여 NN 입력으로 사용하는 것 같은데, 여기서 학습하면서 바뀌는 건 NN의 파라미터라 생각이 되거든요. 그러니까 필터는 학습하는 과정에서 바뀔 것이라 생각이 안되는데 어떻게 CNN 모델이 알맞은 필터를 적용할 수 있는지가 궁금합니다. 둘 째, activation이 설정되어 있는데, 필터링한 이미지에 왜 activation을 적용해야하는지 의문이 듭니다. 제가 머신러닝에 대한 기초도없고 딥러닝에 대한 기초가 없어 질문이 너무 난해할 수 있을 것 같네요. 그래도 답변 부탁 드립니다. 감사합니다.
- 미해결TensorFlow 2.0으로 배우는 딥러닝 입문
tf.keras.optimizers.schedules.ExponentialDecay와 같은 lr 스케줄러를 사용해야만 lr이 학습 중에 변경되는 것인가요?
안녕하세요 무조건 스케줄러를 설정해야만 lr이 변경되는 것인가요? 아니면 단순 옵티마이저 설정에도 내부적으로 조정을 하게 되는 것인가요?
- 미해결TensorFlow 2.0으로 배우는 딥러닝 입문
tf.function 데코레이터로 된 함수는 반드시 tf.function로 데코레이터가 되어 있어야 하나요?
궁금합니다~
- 미해결TensorFlow 2.0으로 배우는 딥러닝 입문
tf.nn.softmax_cross_entropy_with_logits 질문..
ANN 강의 중 cross_entropy 정의를 class ANN_model(tf.keras.Model): def __init__(self): super(ANN_model, self).__init__() self.hidden_layer_1 = tf.keras.layers.Dense(hidden1_size, activation = 'relu', kernel_initializer = random_normal_initializer(), bias_initializer = random_normal_initializer()) self.hidden_layer_2 = tf.keras.layers.Dense(hidden2_size, activation = 'relu', kernel_initializer = random_normal_initializer(), bias_initializer = random_normal_initializer()) self.output_layer = tf.keras.layers.Dense(output_size, activation = None, kernel_initializer = random_normal_initializer(), bias_initializer = random_normal_initializer()) def call(self, x): H1_output = self.hidden_layer_1(x) H2_output = self.hidden_layer_2(H1_output) logits = self.output_layer(H2_output) return logits @tf.function def cross_entropy(logits, y): return tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits = logits, labels = y)) 하시더라구요. 저도 이 코드를 따라서 실행하니 잘 수행되었습니다. 그런데 이전 강의와 같이 def call(self, x): H1_output = self.hidden_layer_1(x) H2_output = self.hidden_layer_2(H1_output) logits = self.output_layer(H2_output) return tf.nn.softmax(logits) @tf.function def cross_entropy(y_pred, y): reutrn tf.reduce_mean(-tf.reduce_sum(y * tf.math.log(y_pred), axis = [1])) 으로 수행하니 loss가 nan이 뜨더라구요. tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits = logits, labels = y)) 와 tf.reduce_mean(-tf.reduce_sum(y * tf.math.log(y_pred), axis = [1]))는 같은 코드가 아닌가요?
- 미해결TensorFlow 2.0으로 배우는 딥러닝 입문
`간략히 살펴보는 딥러닝의 역사` 강의 자료가 없어요
- 강의 슬라이드 다운로드 받았는데, `간략히 살펴보는 딥러닝의 역사`에 해당하는 문서는 없어요. - 정리 잘되어 있어서 복습할 때 보고싶은데... 공유 부탁드립니다!
- 미해결TensorFlow 2.0으로 배우는 딥러닝 입문
텐서플로우 학습 전 배워야할 것들은 무엇이 있을까요?
tf.Variable로 난수를 만들때 shape 파라미터의 의미를 모르겠습니다. 넘파이나 기초수학에 대한 이해가 없어서 그런걸까요? 강사님의 강의를 보기위해 기본적으로 알고있어야 하는 것이 무엇이 있는지 알려주실수 있을까요?
- 미해결TensorFlow 2.0으로 배우는 딥러닝 입문
오토인코더에서 최외각 주변 픽셀 복원은 다른 위치보다 취약한가요?
안녕하세요. 오토인코더 인코딩, 디코딩쪽에서 중심보다는 많이 보지 못하다보니 복원에서 조금 취약하다고 말할 수 있을까요?
- 미해결TensorFlow 2.0으로 배우는 딥러닝 입문
오토인코더 acc, precision, recall metric은 어떻게 설정할 수 있나요?
안녕하세요. 제가 오토인코더 loss를 ssim나 mse로 설정해서 훈련을 하습니다 오토인코더가 binary_crossentropy 혹은 categorical_crossentropy와 같은 기본 분류가 아니다보니 metric을 아래와 같이 그냥 적으면 이게 맞는 것인지 모르겠습니다 metrics=['mae'] if loss == 'mse' else ['mse'] metrics.append(['acc', Precision(name='precision'), Recall(name='recall'), AUC(name='auc')]) 일정 threshold가 있어야, 정상 혹은 비정상으로 분류한 것인지 알아야 하는데 헷갈리네요
- 미해결TensorFlow 2.0으로 배우는 딥러닝 입문
구글링해도 도저히 오류를 찾기 힘듭니다...
이 문제가 해결이 안됩니다...
- 미해결TensorFlow 2.0으로 배우는 딥러닝 입문
영상 끊김
영상을 보다보면,, 영상 자체가 끊기는게 아니라 선생님의 마우스 커서 끊김 현상이 발생합니다 대처 방안을 알 수 있을까요
- 미해결TensorFlow 2.0으로 배우는 딥러닝 입문
error가 발생했습니다.
어떤 문제일까요?..
- 미해결TensorFlow 2.0으로 배우는 딥러닝 입문
오토인코더 훈련에서 궁금한 점이 있습니다
안녕하세요. 불량 데이터가 그렇게 많지 않을 때 오토인코더를 사용하면 x, y는 각각 자기 자신이 들어가게 됩니다 입력과 정답이 같게 되는 거죠 근데 불량 데이터가 어느정도 있다면 이미지 배치를 (x, y)=(불량, 정상)로 해서 입력해도 되나요? 아니면 그냥 정상만 훈련하는 것이 좋을까요? 클래스는 정상/비정상 2개뿐입니다
- 미해결TensorFlow 2.0으로 배우는 딥러닝 입문
error!!
Failed to get convolution algorithm. This is probably because cuDNN failed to initialize, so try looking to see if a warning log message was printed above 에러가 났습니다!. GPU사용에 대해서 문제가 생긴거 같은데 해결 방법이 궁금합니다!
- 미해결TensorFlow 2.0으로 배우는 딥러닝 입문
drop out 질문
drop out에서 사용하지 않을 노드의 퍼센트를 지정해주는데, 가령 0.1을 drop out한다고 디자이너가 설정할 시, 전체 hidden layer노드의 0.1이 drop되는 것인지, 아니면, 각 layer마다 0.1의 노드가 drop되는 것인지 궁금합니다!
- 미해결TensorFlow 2.0으로 배우는 딥러닝 입문
오토인코더 질문드립니다
오코인코더 예제 코드를 보고 있는데, 처음부터 dense를 사용하지 않고, 계속 2차원을 유지하면서 복원에 좀 더 유리하게 할 수는 없을까요?
- 미해결TensorFlow 2.0으로 배우는 딥러닝 입문
with 구문이 무엇을 의미합니까?
파이썬 초보자로서 with으로 시작되는 구문을 처음 보게 되어서, 구글링을 해보니 파일을 열 때 닫는 것을 잊지 않게 해주는 데 유용한 구문으로 보통 사용되는 것으로 보입니다. 그러나 파일 오픈이 아닌 텐서플로우에서 쓰이는 경우는 짐작할 수가 없습니다. import tensorflow as tf 가 "텐서플로우 라이브러리를 임포트하되 앞으로 tensorflow 대신 간단하게 tf로 줄여서 쓰겠다" 를 의미하는 것처럼, with tf.GradientTape() as tape 는 tf.GradientTape() 대신 tape로 줄여서 쓰겠다 라는 것을 의미하는 것입니까? 그렇다면 왜 tape.gradient(loss,[W,b]) 대신 tf.GradientTape().gradient(loss,[W,b]) 라고 치면 런타임 에러가 뜨는건지요? 그전에, tf.GradientTape()은 인풋이 없는 함수의 일종입니까? 아니면 다른 어떤 것입니까?(tf.square가 제곱해주는 함수인 것처럼 말입니다) 또한 그와 별개로 with 구문이 작동하는 방식 자체도 직관적으로 이해가 되지 않습니다. tf.GradientTape() as tape를 with으로 선언했다면 tape라는 단어는 with 안에서만 쓰여야 하는게 아닌가요? 어떻게 with 과 동일한 들여쓰기 레벨을 가진 gradient=tape.gradient(loss,[W,b]) 과 같은 방식으로 유효하게 사용될 수 있는 것인가요?