묻고 답해요
164만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결파이썬 무료 강의 (기본편) - 6시간 뒤면 나도 개발자
실행 오류
# 손님을 부르고 주문한 손님이 맞는지 확인(조건에 만족하는 손님이 나올 때까지 무한 반복) customer = "토르" person = "unknown" while person != customer: print("{0}님, 커피가 준비되었습니다. ".format(customer)) person = input("이름이 어떻게 되세요? ") if person == "토르": print("맛있게 드세요!") else: print("토르 님이 아닙니다.") 아래 게시글을 읽고 궁금해서 저 또한 작성해봤는데 else: 문장에 대해 오류가 자꾸 뜹니다. 왜 이러는 건지 알려주실 수 있나요?
-
미해결실전 인공지능으로 이어지는 딥러닝 개념 잡기
Grad CAM에 관한 질문 입니다.
조금 황당한 질문일 수도 있는데요. Grad CAM 에서 왜 ac k를 wc k * 1/N으로 놓았을까요?
-
미해결홍정모의 따라하며 배우는 C언어
지정된 파일을 찾을 수 없습니다
실행시 저런 문구가 뜨는데 어떻게 해결할 수 있을까요?
-
미해결CSS Flex와 Grid 제대로 익히기
flex ui card source관련
안녕하세요 강의 잘 듣고 있습니다. 강의하신대로 따라했는데 카드가 제대로 출력이 잘 안되는데 강의 소스를 실행해도 잘 카드가 제대로 출력이 안되네요 혹시 소스 다시 한번 확인해시면 감사하겠습니다. 감사합니다.
-
미해결[개념반]배워서 바로 쓰는 SQL 쿼리
슬랙 초대 부탁드립니다.
안녕하세요. 슬랙 초대링크가 1/11 만료로 떠서 제 이메일 주소를 남기려고 합니다. 초대해주시면 감사하겠습니다! 소중히 준비해주신 강의, 열심히 듣겠습니다. 감사합니다.
-
미해결웹 게임을 만들며 배우는 React
로또 추첨 timeouts
안녕하세요 제로초님 강의잘 듣고 있는 수강생입니다. 로또추첨에서 useEffect 크롬 개발도구 창에서 콘솔을 보면 Lotto.jsx:25 (7) [9, 10, 11, 12, 13, 14, 15] , (7) [148, 149, 150, 151, 152, 153, 154] 이런식으로 배열안에 값이 나오는데 저 값이 어떻게 나오고 뭔지를 잘모르겠습니다 ...
-
미해결홍정모의 따라하며 배우는 C언어
q to quit
q를 입력해야만 끝나고 다른 문자열을 입력했을때는 안끝나고 싶어서 이리저리 해봣는데... q라고해도 결국 정수113과 q를 컴퓨터는 같은 것으로 인지하기 때문에 실패했습니다. 선생님이 보여준 강의예제에서는 q말고도 다른 문자 즉 int(%d)로는 받을 수 없는 문자를 입력했을 때 어떤 문자든 종료가 되었습니다. %d로 받았기 때문에 문자가 자동으로 정수화가 이루어지지 않는 것 같은데 이것은 'q' 버튼 하나만을 종료로 만들기에는 어려움이 있네요... 만약 받은 것을 불러와서 while문 조건으로 비교 할때 내가 입력한 것을 문자인지 숫자인지 확인이 가능하면 좋겠습니다. 이런방법이 있을까요??그리고 선생님 이전강의에서 형식지정자 %c는 printf 에서는 문자로 출력하고 숫자로출력하려면 %hhd를 이용해야해서 %hhd로 스캔f받아봤지만 이것도 아니네요 ㅠㅠ
-
미해결실전! 스프링 부트와 JPA 활용1 - 웹 애플리케이션 개발
안녕하세요 강사님 인텔리j에 관해서 질문드려봅니다!
혹시 인텔리j 커뮤니티 버전 사용해도 무방할까요?
-
해결됨모든 개발자를 위한 HTTP 웹 기본 지식
웹 서버 포트에 대해서 ...
웹 서버, 즉 http는 80번 포트로 연결된다고 알고있는데, 스프링 부트에서 동작하는 톰캣은 왜 8080번 포트로 연결되는 것이 기본값 인가요?
-
해결됨공공데이터로 파이썬 데이터 분석 시작하기
.isin
.isin의 역할이 무엇인가요?
-
미해결Vue.js 중급 강좌 - 웹앱 제작으로 배워보는 Vue.js, ES6, Vuex
강의안내문 문의드려요
안녕하세요 캡틴판교님 강의 열강하고 있는 수강생입니다. 다름 아니라 강좌에 대한 교육안내문 혹은 커리큘럼이 pdf 파일로 있을까요? 확인 부탁드려요~
-
해결됨[리뉴얼] React로 NodeBird SNS 만들기
질문있습니다
reducer폴더의 post.js에서 case LOAD_POSTS_SUCCESS: draft.loadPostsLoading = false; draft.loadPostsDone = true; draft.mainPosts = draft.mainPosts.concat(action.data); draft.hasMorePosts = action.data.length === 10; break; 이 코드를 case LOAD_POSTS_SUCCESS: draft.loadPostsLoading = false; draft.loadPostsDone = true; draft.mainPosts = action.data; draft.hasMorePosts = action.data.length === 10; break; 이와같이 바꿔봤는데 똑같이 작동하더라구요? draft.mainPosts = draft.mainPosts.concat(action.data); draft.mainPosts = action.data; 이 둘의 차이점이 무엇인지 궁금합니다. 첫번째것은 mainPosts에 콘캣해서 배열을 합치는 것이고 두번째에서 action.data도 같은 기능을 하는것 같은데 무엇이 차이일까요?
-
해결됨반응형 웹사이트 포트폴리오(Architecture Agency)
main.js 창 켜면 하단에 느낌표가 떠요 !
노란색 삼각형에 느낌표가 떴어요....! 상관 없는 건가요? 어쨌든 잘 작동하기는 해요....!
-
해결됨스프링 입문 - 코드로 배우는 스프링 부트, 웹 MVC, DB 접근 기술
@Entity 작성이 안되는데 해결방안이 있을까요??
삭제된 글입니다
-
미해결커피 한 잔으로 입문하는 Convolutional Neural Network
@tf.function 데코레이터 사용시 ValueError 문제 질문
안녕하세요? 알찬 교육에 정말 감사드립니다. trainer(), validation(), tester() 함수를 정의해서 학습을 시킬때... 그냥 학습시키면 작동이 되는데, @tf.function 데코레이터만 붙여서 사용하면 ValueError 예외가 발생하는데요, 집의 컴퓨터에서 돌릴때와 코랩에서 돌릴 때 동일한 issue 가 생깁니다. 만약 for epoch in range(EPOCHS): 이후의 코드 대신에 model.compile(optimizer='adam',loss = 'sparse_categorical_crossentropy', metrics =['accuracy']) history = model.fit(train_ds, validation_data=validation_ds, epochs=EPOCHS) 와 같이 model.compile 이나 model.fit 을 통해서 학습시키는 경우에는 @tf.function 데코레이터가 제대로 작동합니다; 제가 만든 아래 코드 중에서 뭐가 문제일까요?? ㅠㅠ 그리고 학습 데이터 뿐아니라 validation 이나 test data 도 100% 예측성능이 나와서 제대로 한것이 맞나도 모르겠네요 ㅠㅠ 코드를 한번 점검해 주실 수 있으실지.... 문의 드립니다. --------------------------------------------------------------------------- ValueError Traceback (most recent call last) <ipython-input-1-896c4f98ef4d> in <module>() 120 121 for epoch in range(EPOCHS): --> 122 trainer() 123 validation() 124 8 frames /usr/local/lib/python3.6/dist-packages/tensorflow/python/framework/func_graph.py in wrapper(*args, **kwargs) 975 except Exception as e: # pylint:disable=broad-except 976 if hasattr(e, "ag_error_metadata"): --> 977 raise e.ag_error_metadata.to_exception(e) 978 else: 979 raise ValueError: in user code: <ipython-input-1-896c4f98ef4d>:91 trainer * for images, labels in train_ds: /usr/local/lib/python3.6/dist-packages/tensorflow/python/autograph/operators/control_flow.py:424 for_stmt iter_, extra_test, body, get_state, set_state, symbol_names, opts) /usr/local/lib/python3.6/dist-packages/tensorflow/python/autograph/operators/control_flow.py:719 _tf_dataset_for_stmt _verify_loop_init_vars(init_vars, symbol_names) /usr/local/lib/python3.6/dist-packages/tensorflow/python/autograph/operators/control_flow.py:193 _verify_loop_init_vars raise ValueError(error_msg) ValueError: 'predictions' must be defined before the loop. --- 아래 부터 full code 입니다 --- import numpy as np import matplotlib.pyplot as plt from termcolor import colored import tensorflow as tf import tensorflow_datasets as tfds from tensorflow.keras.models import Model, Sequential from tensorflow.keras.layers import Conv2D, MaxPooling2D, Flatten, Dense, Activation, Dropout from tensorflow.keras.losses import SparseCategoricalCrossentropy from tensorflow.keras.optimizers import Adam, SGD from tensorflow.keras.metrics import Mean, SparseCategoricalAccuracy # data pre processing def get_mnist_dataset_and_normalize(ratio, n_batch_train, n_batch_test): def normalization(images, labels): images = tf.cast(images, tf.float32)/255 labels = tf.cast(labels, tf.int32) return images, labels (train_validation_ds, test_ds), ds_info = tfds.load(name='mnist', as_supervised = True, shuffle_files = True, with_info = True, split = ['train', 'test']) n_train_validation = ds_info.splits['train'].num_examples n_train = int(ratio * n_train_validation) n_validation = n_train_validation - n_train train_ds = train_validation_ds.take(n_train) validation_ds = train_validation_ds.skip(n_train) train_ds = train_ds.map(normalization).shuffle(1000).batch(n_batch_train) validation_ds = validation_ds.map(normalization).batch(n_batch_train) test_ds = test_ds.map(normalization).batch(n_batch_test) return train_ds, validation_ds, test_ds # hyper parameter 와 인스턴스 정의 EPOCHS = 10 n_batch_train = 32 n_batch_test = 32 ratio = 0.8 LR = 0.001 # 데이터 불러오기 train_ds, validation_ds, test_ds = get_mnist_dataset_and_normalize(ratio, n_batch_train, n_batch_test) class CNN_Model(Model): def __init__(self): super(CNN_Model, self).__init__() # feature extractor self.conv1 = Conv2D(filters=8, kernel_size=5, padding='same', activation='relu') self.conv1_maxpool = MaxPooling2D(pool_size=2, strides=2) self.conv2 = Conv2D(filters=8, kernel_size=5, padding='same', activation='relu') self.conv2_maxpool = MaxPooling2D(pool_size=2, strides=2) # Classifier self.flatten = Flatten() self.dense1 = Dense(units=64, activation='relu') self.dense1_dropout = Dropout(0.5) self.dense2 = Dense(units=10, activation='softmax') def call(self, x): x = self.conv1(x) x = self.conv1_maxpool(x) x = self.conv2(x) x = self.conv2_maxpool(x) x = self.flatten(x) x = self.dense1(x) x = self.dense1_dropout(x) x = self.dense2(x) return x # 각종 인스턴스 정의 model = CNN_Model() loss_object = SparseCategoricalCrossentropy() optimizer = Adam(learning_rate=LR) loss_train = Mean() loss_validation = Mean() loss_test = Mean() acc_train = SparseCategoricalAccuracy() acc_validation = SparseCategoricalAccuracy() acc_test = SparseCategoricalAccuracy() @tf.function def trainer(): # 하나의 epoch 내에서 학습데이터로 모델 학습시키는 함수 global model, loss_object, loss_train, acc_train, optimizer for images, labels in train_ds: with tf.GradientTape() as tape: predictions = model(images) loss = loss_object(labels, predictions) gradients = tape.gradient(loss, model.trainable_variables) optimizer.apply_gradients(zip(gradients, model.trainable_variables)) loss_train(loss) acc_train(labels, predictions) @tf.function def validation(): # 하나의 epoch 내에서 학습데이터로 모델 학습시키는 함수 global model, loss_object, loss_validation, acc_validation for images, labels in validation_ds: predictions = model(images) loss = loss_object(labels, predictions) loss_validation(loss) acc_validation(labels, predictions) @tf.function def tester(): # 하나의 epoch 내에서 학습데이터로 모델 학습시키는 함수 global model, loss_object, loss_test, acc_test for images, labels in test_ds: predictions = model(images) loss = loss_object(labels, predictions) loss_test(loss) acc_test(labels, predictions) for epoch in range(EPOCHS): trainer() validation() print(colored('Epoch','red','on_white'), epoch+1) print("Train Loss : {:.4f} / Train Accuracy : {:.2f}".format(loss_train.result(), acc_train.result()*100)) print("Validation Loss : {:.4f} / Validation Accuracy : {:.2f}".format(loss_validation.result(), acc_validation.result()*100)) loss_train.reset_states() loss_validation.reset_states() acc_train.reset_states() acc_validation.reset_states() tester() print(colored('TEST','cyan','on_white')) print("Test Loss : {:.4f} / Test Accuracy : {:.2f}".format(loss_test.result(), acc_test.result()*100)) 아래 결과가 @tf.function 를 지우고 돌렸을 때의 결과 입니다. 정상적으로 학습이 되는데Validation Accuracy 나 Test Accuracy 가 100% 로 나오는데... 원래 MNIST 정도의 데이터는 이렇게 잘 맞는 건가요?? ;; ================= Epoch 1 Train Loss : 0.2663 / Train Accuracy : 96.88 Validation Loss : 0.1054 / Validation Accuracy : 96.88 Epoch 2 Train Loss : 0.0721 / Train Accuracy : 100.00 Validation Loss : 0.0400 / Validation Accuracy : 100.00 Epoch 3 Train Loss : 0.0665 / Train Accuracy : 100.00 Validation Loss : 0.0373 / Validation Accuracy : 100.00 Epoch 4 Train Loss : 0.0575 / Train Accuracy : 96.88 Validation Loss : 0.0157 / Validation Accuracy : 100.00 Epoch 5 Train Loss : 0.1948 / Train Accuracy : 90.62 Validation Loss : 0.0192 / Validation Accuracy : 100.00 Epoch 6 Train Loss : 0.0520 / Train Accuracy : 96.88 Validation Loss : 0.0250 / Validation Accuracy : 100.00 Epoch 7 Train Loss : 0.0365 / Train Accuracy : 100.00 Validation Loss : 0.0134 / Validation Accuracy : 100.00 Epoch 8 Train Loss : 0.0342 / Train Accuracy : 100.00 Validation Loss : 0.0166 / Validation Accuracy : 100.00 Epoch 9 Train Loss : 0.0837 / Train Accuracy : 96.88 Validation Loss : 0.0062 / Validation Accuracy : 100.00 Epoch 10 Train Loss : 0.0166 / Train Accuracy : 100.00 Validation Loss : 0.0112 / Validation Accuracy : 100.00 TEST Test Loss : 0.0096 / Test Accuracy : 100.00
-
미해결스프링 핵심 원리 - 기본편
자동등록에서는 이 방법을 사용할 수 없나요?
@Component에서도 적용이 될까 싶어서 @Component(initMethod = "init", detroyMethod = "close") 를 해봤는데 컴파일 에러가 나네요. 이 방법은 수동 등록에서만 가능한 방법인건가요?
-
미해결애플 웹사이트 인터랙션 클론!
fixed 된 곳에서 scroll not working
안녕하세요 해당 강의를 거의 다 듣고, 혼자 해보고 있는데, sticky-elem에서 fixed로 준 영역에서 스크롤이 되지 않는 이슈가 발생했습니다. 아무리 해결하려고 해도 해결이 되지를 않네요,, 혹시 도움 받을 수 있을가요,, 영상 촬영은 했는데요,, 어떻게 올리는지 몰라서 못했습니다. 조금 더 상황을 설명하면, sticky-elem영역(fixed된 영역) 부분에서 스크롤이 되지 않는 버그가 일어납니다. 이런 저런 방법을 사용해도 잘안되네요 ㅜㅜ
-
미해결페이스북 클론 - full stack 웹 개발
수업자료
facebook master 자료는 어디에 첨부되어 있나요?
-
미해결실전! 스프링 부트와 JPA 활용1 - 웹 애플리케이션 개발
@ModelAttribute 질문입니다.
@GetMapping("/orders")public String orderList(Model model, OrderSearch orderSearch) { List<Order> orders = orderService.findOrders(orderSearch); model.addAttribute("orders", orders); return "order/orderList";} @ModelAttibute가 궁금해서 이걸 빼놓고 실행하면 안될거 같아서 빼고 한번 실행해 봤는데 정상적으로 잘 동작했습니다. 제가 생각할땐 thymeleaf에 ${orderSearch}가 있는데 @ModelAttibute("orderSearch")를 빼놓고 쓰면 실행이 안되는게 정상일거 같은데.. 왜 실행이 돼는지 궁금합니다.
-
미해결파이썬 알고리즘 문제풀이 입문(코딩테스트 대비)
역수열 문제 관련 질문
안녕하세요 강사님 역수열 문제를 풀다가 제 코드가 논리상에 오류가 있는지와 효율성에 대해 알고 싶어서 질문드립니다. 저는 이전 강의에서 강사님께서 알려주신 deque를 이용해서 문제를 풀었습니다. deque를 선언하고 큰 수부터 내림차순으로 위치 배치를 수행했습니다. 특정 숫자와 특정숫자보다 큰 수의 갯수는 인덱스로 deque의 insert 연산을 이용하였는데요 deque의 insert연산을 사용하는 알고리즘이 정적 크기 list를 선언하고 배치하는 알고리즘과 효율성이 얼마나 차이가 나는지 알고 싶습니다. 또 제 코드의 논리가 맞는지도 알고 싶습니다 import sys from collections import deque def solution(n, lst): dq = deque() for i in range(n, 0, -1): dq.insert(lst.pop(),i) return " ".join(list(map(str, dq))) if __name__ == "__main__": sys.stdin = open("input9.txt", "r") n = int(input()) lst = list(map(int, input().split())) answer = solution(n, lst) print(answer)