묻고 답해요
130만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결스프링 MVC 2편 - 백엔드 웹 개발 활용 기술
HttpServletResponse와 Model의 차이점이 궁금합니다.
'로그인 처리하기 - 쿠키사용' 부분을 듣고 제가 모르는 부분이 있는 것 같아 질문 남깁니다. 쿠키를 생성하고 쿠키를 보낼 때 response.addCookie(idCookie)를 했는데 Model에도 model.addAttribute(idCookie)가 가능한지가 궁금합니다. 만약 가능하다면 어떤것을 쓰는것이 더 좋을지 만약 불가능하다면 불가능한 이유가 궁금합니다.
-
미해결앨런 iOS 앱 개발 (15개의 앱을 만들면서 근본원리부터 배우는 UIKit) - MVVM까지
Model에서의 UIKit import
안녕하세요. 강의 정말 잘 듣고 있습니다.코드 import와 관련하여 궁금한 점이 생겨서 질문을 남깁니다.MVC 패턴과 관련하여 공부하다보니 Model에서는 UIKit을 import 하지 않도록 구현을 해야한다고 들었습니다. 혹시 현재 BMI 리팩토링한 코드와 같이 UIKit을 Model에서 import 하는건 문제가 없는지 알고 싶습니다. 감사합니다.
-
미해결
코랩에서 파이토치 모델 재학습 시
코랩에서 파이토치로 신경망 모델 구현했을 때 학습을 마치고 파라미터 수정 시 다시 학습을 진행한다면 런타임 다시 시작 후 처음부터 코드 전체를 다시 돌려야하나요?
-
미해결스파크 머신러닝 완벽 가이드 - Part 1
StringIndexer와 IndexToString (vectorassembler)
스파크 환경에서 모델링 단계(VectorAssembler부터 이해가 안되어서 일단 쭉 듣고 있습니다.) 대한 개념이 모호해서 쭉 몇회씩 돌린다는 느낌으로 듣는 중인데요,[인코딩 개요 및 레이블 인코딩 실습]의 8:00 ~ 8:45 구간에서(StringIndexer는 fit이 있지만)"IndexToString 는 fit 없이 transform만 있다. VectorAssembler와 같이 transform만 있다." 라는 식으로 말씀을 주셨는데 이 transform만 가능하다는 점이 모호해서 질문드립니다.fit을 해줘야 하는 경우(StringIndexer)와 transform만 해줘도 되는 경우(IndexToString)를 바로 구분할 수 있을 만한 포인트(차이점)가 있을지 궁금합니다. 이런 경우들을 일일히 다 외워줘야 하는걸까요, 아니면 어떤 규칙성 같은 게 있을까요?
-
미해결스프링 MVC 2편 - 백엔드 웹 개발 활용 기술
안녕하세요 WebDataBinder와 Model관련해서 궁금한 점이 있습니다.
안녕하세요 항상 좋은 강의 만들어주셔서 감사합니다.강의 자료를 보다,강의 내용과는 조금 거리가 있을수도 있지만, 궁금한 점이 생겨 질문드립니다.강의자료에서는 "WebDataBinder 는 스프링의 파라미터 바인딩의 역할을 해주고 검증 기능도 내부에 포함한다." 라고 되어 있는데 그러면 public String addItemV6(@Validated @ModelAttribute Item item, BindingResult bindingResult, RedirectAttributes redirectAttributes, Model model)해당 부분에서 파라미터로 넘어오는 데이터들은 @Validated에 의해서 검증기가 동작하면서 WebDataBinder 에 담기고 @ModelAttribute에 의해 model에도 담기게 되는건가요?
-
미해결[리뉴얼] Node.js 교과서 - 기본부터 프로젝트 실습까지
기 구축된 DBMS에서 ORM model을 생성할 수 있는지?
안녕하세요. 제로초님. 기 구축된 MySQL DBMS 스키마로부터 Sequelize model, 즉 js 소스 형태의 table model들을 생성하는 방법이 있습니까? 아니면, 기능 호환성을 100% 맞추기 어렵기 때문에, 사실상 수동으로 한땀 한땀 model 코딩을 해야 할까요? 이것은 아마도 legacy 시스템에서 db는 그대로 두고 프로그램 부분을 ORM 활용하는 것으로 재작업하는 프로젝트에서 요구되는 사항일 것 같습니다. 감사합니다.
-
미해결유니티 머신러닝 에이전트 완전정복 (기초편)
torch.model.nn to unity onnx로 변환 후 사용 가능한가요?
안녕하세요. torch model의 checkpoint를 onnx로 conversion 했을 때, 유니티의 agent에 해당 onnx를 load시, version_number 비롯한 여러가지 필요 constant가 없어서 실패합니다. 방법이 있을까요?현재 torch로 학습된 모델을 Webgl로 빌드해서, aws에 hosting을 계획하고 있습니다. (Webgl hosting Build Link)ppo나 sac로 학습하면 onnx로 나와서 해당 onnx를 붙여서 하는건 이슈가 없습니다만,유니티가 제공하지 않는 알고리즘으로 (muzero)를 구현해서 붙일려고하니 torch에서 학습한 prediction, representation, dynamic 모델을 unity에서 사용가능한 onnx로 변환을 실패하고 있습니다. 아니면 torch로 학습한 모델을 퍼블리싱하는 다른 방법이 있을까요?학습된 모델을 서버로 띄어서 통신으로 하는 방법 정도가 생각납니다만, 서버를 사용하지 않고 클라이언트로만 해결 가능하면 좋겠습니다.
-
미해결3. 웹개발 코스 [스프링 프레임워크+전자정부 표준프레임워크]
model과 modelmap의 차이점을 자세히 알려주세요
model과 modelmap의 차이점을 자세히 알려주세요
-
미해결따라하며 배우는 노드, 리액트 시리즈 - 기본 강의
mongoDB 의 모델의 역할
module.exports = mongoose.model('User', userSchema) 와 같은 스키마를 감싼 모델(mongodb의 컬렉션)을 이용하면const user = new User(req.body) 와 같이 req 정보를 이용하여 모델 인스턴스를 만든다음에이걸 다시 save 메서드를 통해 mongoDB의 User(users) 컬렉션에 저장할 수도 있고,User.findOne({ email: req.body.email }, (err, user) => { //요청한 email이 db정보 안에 있을 때 해당 db정보를 담은 객체 user 가 생성된다. if (!user) { return res.json({ loginSuccess: false, message: "제공된 이메일에 해당하는 유저가 없습니다." }) }와 같이 User(users)컬렉션에 접근(조회)하여 해당 객체를 찾을 수도 있다. 결론: mongoDB의 모델은 모델 인스턴스를 생성할 수도 있고, DB에 접근하여 값을 조회,수정 등등을 할 수 있다라고 이해했는데 맞는 것인지 궁금합니다. 역할이 다양한게 조금 헷갈려서 질문드립니다.
-
미해결딥러닝 CNN 완벽 가이드 - Fundamental 편
Model API과 Keras.Application API input_tensor와의 동작 관계에 대해서 궁금합니다
안녕하세요. 토이 프로젝트로 이미지 안의 text를 감지하는 모델 중 하나인 EAST에 대해서 코드 수행을 하려고 했는데 누군가 짜놓은 코드 기반으로 하다보니, 코드 내부에서 모델 구성하는 부분에서 궁금한 점이 있어서요! 모델의 시작은 resnet50 입력부터 시작하는 것 같습니다. 실제 summary에서도 그렇게 나오고, 이 출력은 Unet 기반으로 피처를 concat 하는 형태로 가져가서 마지막에 regression을 하게 됩니다 모델 resnet50 입력에 input_tensor 파라미터를 통해서 input_image라고 지정을 하게 되어서 shape는 아래 캡쳐한 것처럼 (None, None, None, 3)라고 나온 것 같습니다 그런데 코드 마지막에 최종 모델 API에서는 입력에 overly_small_text_region_training_mask, text_region_boundary_training_mask, target_score_map 을 추가로 지정하는데, 해당 입력 텐서 3개는 전혀 모델 입력으로 들어가지 않는 것 아닌가요? 감사합니다 class EAST_model: def __init__(self, input_size=512): input_image = Input(shape=(None, None, 3), name='input_image') overly_small_text_region_training_mask = Input(shape=(None, None, 1), name='overly_small_text_region_training_mask') text_region_boundary_training_mask = Input(shape=(None, None, 1), name='text_region_boundary_training_mask') target_score_map = Input(shape=(None, None, 1), name='target_score_map') resnet = ResNet50(input_tensor=input_image, weights='imagenet', include_top=False, pooling=None) # print(resnet.summary()) x = resnet.get_layer('conv5_block3_out').output x = Lambda(resize_bilinear, name='resize_1')(x) x = concatenate([x, resnet.get_layer('conv4_block6_out').output], axis=3) x = Conv2D(128, (1, 1), padding='same', kernel_regularizer=regularizers.l2(1e-5))(x) x = BatchNormalization(momentum=0.997, epsilon=1e-5, scale=True)(x) x = Activation('relu')(x) x = Conv2D(128, (3, 3), padding='same', kernel_regularizer=regularizers.l2(1e-5))(x) x = BatchNormalization(momentum=0.997, epsilon=1e-5, scale=True)(x) x = Activation('relu')(x) x = Lambda(resize_bilinear, name='resize_2')(x) x = concatenate([x, resnet.get_layer('conv3_block4_out').output], axis=3) x = Conv2D(64, (1, 1), padding='same', kernel_regularizer=regularizers.l2(1e-5))(x) x = BatchNormalization(momentum=0.997, epsilon=1e-5, scale=True)(x) x = Activation('relu')(x) x = Conv2D(64, (3, 3), padding='same', kernel_regularizer=regularizers.l2(1e-5))(x) x = BatchNormalization(momentum=0.997, epsilon=1e-5, scale=True)(x) x = Activation('relu')(x) x = Lambda(resize_bilinear, name='resize_3')(x) #x = concatenate([x, ZeroPadding2D(((1, 0),(1, 0)))(resnet.get_layer('conv2_block3_out').output)], axis=3) x = concatenate([x, resnet.get_layer('conv2_block3_out').output], axis=3) x = Conv2D(32, (1, 1), padding='same', kernel_regularizer=regularizers.l2(1e-5))(x) x = BatchNormalization(momentum=0.997, epsilon=1e-5, scale=True)(x) x = Activation('relu')(x) x = Conv2D(32, (3, 3), padding='same', kernel_regularizer=regularizers.l2(1e-5))(x) x = BatchNormalization(momentum=0.997, epsilon=1e-5, scale=True)(x) x = Activation('relu')(x) x = Conv2D(32, (3, 3), padding='same', kernel_regularizer=regularizers.l2(1e-5))(x) x = BatchNormalization(momentum=0.997, epsilon=1e-5, scale=True)(x) x = Activation('relu')(x) pred_score_map = Conv2D(1, (1, 1), activation=tf.nn.sigmoid, name='pred_score_map')(x) rbox_geo_map = Conv2D(4, (1, 1), activation=tf.nn.sigmoid, name='rbox_geo_map')(x) rbox_geo_map = Lambda(lambda x: x * input_size)(rbox_geo_map) angle_map = Conv2D(1, (1, 1), activation=tf.nn.sigmoid, name='rbox_angle_map')(x) angle_map = Lambda(lambda x: (x - 0.5) * np.pi / 2)(angle_map) pred_geo_map = concatenate([rbox_geo_map, angle_map], axis=3, name='pred_geo_map') model = Model(inputs=[input_image, overly_small_text_region_training_mask, text_region_boundary_training_mask, target_score_map], outputs=[pred_score_map, pred_geo_map])
-
미해결mongoDB 기초부터 실무까지(feat. Node.js)
client code refactoring 질문
client code에서 리팩토링 파트에서 보니 좀 오히려 프로덕션 레벨 및 좀더 깔끔 한 코드로 바꾸실려고 하는데 오히려 너무 복잡했습니다. model schema를 만들때 보면, 지금 user schema에는 관게를 안만들고 오히려 blog 와 comment 에만 만드셨는데 좀 쉽게 오히려 user schema에 comments: [commentSchema], 를 만들어줘도 되지 않았나요? 그리고 Types.objectId만 넣지말고 모든 데이타를 ref 해도 되지 않았을 까요? 아님 필요 한것만이라도요. 지금 comment schema에 user 와 blog는 Types.ObjectId만 있으니 너무 복잡하게 돌아 가는 것 같아 좀 헷갈렸습니다.