묻고 답해요
152만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨딥러닝 CNN 완벽 가이드 - Pytorch 버전
EfficientNet V2 M 모델로 학습 후 성능 평가
안녕하세요.강의 잘 듣고 있습니다."EfficientNet V2 M 모델로 학습 후 성능 평가" 강의 동영상이 Weight Decay 강의로 재생되는 것 같습니다.
-
미해결딥러닝 이론 + PyTorch 실무 완전 정복
오타
안녕하세요.7:13에 맨 오른쪽아래에 XN(t+1)에서 M인데 N으로 오타가 있습니다.
-
미해결딥러닝 CNN 완벽 가이드 - Pytorch 버전
Sequential을 이용하여 모델 만들기
이거 케글 파일은 어디있나요..?없는것 같은데..그 직전 2개 강의랑..
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
혹시 이론강의 자료도 공유가 가능하실까요?
안녕하세요 변정현 강사님.강의 잘 듣고있습니다. 실습 수업 때는 주피터 노트북 형식으로 강의자료 다운로드가 가능한데, 혹시 이론강의 자료도 공유가 가능하신가해서 질문을 드립니다. 내용만 볼수있으면 pdf형식이나 워터마크가 추가되어도 크게 문제가 없을것 같은데, 혹시 가능하실까요?
-
미해결딥러닝 CNN 완벽 가이드 - Pytorch 버전
lr_scheduler 관련 질문 있습니다.
안녕허세요.강의 잘 보고 있습니다.옵티마이저 Adam과 RMSprop 은 자동으로 lr 를 조정한다고 배운 것 같습니다. lr_scheduler 이하 모듈들의 lr 조정과 차이가 무엇인가요?
-
미해결딥러닝 CNN 완벽 가이드 - Pytorch 버전
섹션 10 cat-and-dog 폴더를 찾지못합니다.
Dataset_DataLoader노트북을 임포트 한 후 !ls -lia /kaggle/input 명령어를 실행시켰는데 결과가 아래와 같이 나옵니다. 그래서 7분경에 나오는 paths 를 출력했을 때 계속 빈 리스트만 출력이 됩니다.total 4 54734666216 drwxr-xr-x 4 nobody nogroup 0 Mar 31 10:58 . 146563915 drwxr-xr-x 5 root root 4096 Apr 4 06:33 .. 54734666268 drwxr-xr-x 3 nobody nogroup 0 Mar 31 10:58 test_set 54725050546 drwxr-xr-x 3 nobody nogroup 0 Mar 31 10:58 training_set
-
미해결딥러닝 이론 + PyTorch 실무 완전 정복
[sec. 2-8 실습] 배치사이즈의 선택
안녕하세요. 좋은 강의 잘 듣고 있습니다. 반복해서 여러 차례 들을 수 있어서 정말 좋습니다. 조금 기초적인 질문인가 싶은데요. 아래 이미지에서 질문이 있습니다.맨 아래 셀의 코드 x = torch.rand(8, 128)에서 배치 사이즈를 8로 정하는 이유를 질문드립니다.in feature가 128이고, out feature가 64라서 대략 2의 배수가 선택된 것인가 추측합니다. 다음 시리즈 기다리고 있습니다. 감사합니다.
-
미해결파이썬을 활용한 머신러닝 딥러닝 입문
scikit-learn이 업데이트 된 건가요?
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. =tree.plottree(clf, feature_names=iris.feature_names, class_names=iris.traget_names, filled=True)이부분에서 iris.target_names을 numpy.ndarray배열로 인식하고 리스트로 인식을 안한다고 해서 에러가 뜹니당...ㅎ scikit=learn이 업데이트 된 거 같아요
-
미해결딥러닝 CNN 완벽 가이드 - Pytorch 버전
Conv Stride를 늘렸을 때 연산이 늘어나는 이유가 무엇인가요?
안녕하세요 강의 정말 정말 잘 듣고 있습니다.!궁금한 점이 하나 있어 질문 남깁니다.섹션 8. CNN이해의 Pooling 강의에 8분 50초를 보면 Conv적용 시 Stride를 늘릴 경우 연산이 늘어난다고 언급하셨는데, 저는Stride가 늘어나면 이동폭이 늘어나고 그에 따라 output feature map 크기 또한 줄어들기 때문에 연산량은 줄어드는 것으로 생각했습니다.제가 이해했던 부분이랑 차이가 있어서 질문 남깁니다.질 좋은 강의 정말 정말 감사드립니다. 항상 잘 챙겨보고있습니다.!
-
미해결딥러닝 CNN 완벽 가이드 - Pytorch 버전
numpy, pandas
안녕하세요. 선생님numpy, pandas가 아직 익숙하지 않은데, 이 경우 어떤 교재나 강의를 보면서 하는걸 추천드리시나요?
-
미해결6일 만에 배우는 파이토치 딥러닝 기초
3-4 이진분류 모델링 실습 원핫 인코딩 질문 드립니다.
안녕하세요.3-4 이진분류 모델링 실습 .ipynb 파일에서 궁금증이 생겨 질문 드립니다.이직 여부 예측 분류 문제에서 직원 샘플에 대해 여러 가지 종류의 feature가 있는 것을 알 수 있습니다.이 feature 중에는 숫자형 데이터도 존재하고, 범주형 데이터, 문자형 데이터(drop해서 삭제)도 존재합니다.숫자형 데이터 같은 경우에는 그대로 모델링에 사용해도 되지만, 범주형 데이터 같은 경우에는숫자 1 ~ 5 혹은 1 ~ 4 형태이긴 하지만 해당 숫자가 연속성을 가진 숫자가 아니고, 특정 의미(Bad, Good 등)를 가지는 범주를 나타내는 형태로 의미가 파악이 됩니다. 그렇기에 해당 데이터들에는 원핫 인코딩을 해야 할 것이라고 생각이 되는데, 이러한 생각이맞는지 여쭈어 보고 싶습니다. 더불어 문자 데이터 feature는 삭제하고, 범주형 데이터는 원핫 인코딩을 하고, 숫자형 데이터는그대로 이용해서 모델을 학습하고 예측을 한 결과, 이직 여부에서 Yes(1.0)인 경우에서의 정밀도와 재현율이 상당히 낮게 나오는 것을 확인할 수 있었습니다.그래서 혹시 Yes(1.0)이 200개, No(0.0)이 1050개로 차이가 나서 이런 결과가 나온 것인가 싶어 훈련, 평가 데이터 분류에서 stratify=y를 하였는데도 결과는 크게 달라지지 않았습니다. 이에 대해서도 선생님께 여쭈어 보고 싶습니다. 읽어주셔서 감사합니다.
-
미해결[AI 기초] AI Research Engineer를 위한 CNN 이해하기
input_channel, output_channel은 질문입니다.
강의 CNN (2) - input_channel, output_channel은 무엇을 의미하는가 ? 이 파트 질문입니다.3분에 8채널이 되면, 필터가 어마무시하게 많아진다고 하셨는데 아래 그림같이 엣지 필터나 블러필터 하나로 1,1열 적용하고 1,2행 적용하는거 아닌가요?[[-1, 0, 1],[-2, 0, 2],[-1, 0, 1]])
-
미해결[AI 기초] AI Research Engineer를 위한 CNN 이해하기
.
.
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
Boston 코랩 실습
안녕하세요. 코랩에서 해당 실습을 진행하고자 합니다. 현재 코랩 내의 사이킷런 버전이 1.6.1이며, 안내해주신 방법으로 버전 재설치가 되지 않아서 문의를 남깁니다. 버전 설치 코드에 대한 오류는 다음과 같습니다. 확인해주시면 감사하겠습니다!
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
[section 14 / [실습] 직접 만든 CNN 모델과 ResNet, VGGNet을 활용한 CV 프로젝트] transforms.Normalize 질문
cifar10 데이터셋에 대하여 Normalize를 적용하는 이유가 궁금합니다.mean과 std 리스트에 들어있는 값의 의미가 무엇인가요?이미 ToTensor()로 0~1값의 스케일링 된 데이터를, 표준화까지 적용하여 평균0, 분산 1로 만드는데 장점이 있는건가요??normalize = transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]) def get_dataloaders(): train_data = torchvision.datasets.CIFAR10( root="../.cache", train=True, download=True, transform=transforms.Compose([torchvision.transforms.ToTensor(), normalize]), )
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
[section 14 / VGGNet ] receptive filed 질문
안녕하세요. 항상 강의 잘 듣고 있습니다. 감사합니다. 다름이 아니라 section14. vggnet 강의를 듣던 중 receptive field에 대해 의문이 생겨 질문하게 되었습니다. 교안 82페이지에 (3,3) conv layer 2개를 쌓으면 receptive field가 (5,5)가 아니라 왜 (7,7)이 되는 것인지 궁금합니다.(1,1) 픽셀이 직전 에 (3,3)에서 왔고, (3,3)은 직전 (5,5)에서 convolution 연산으로 오는 것이 아닌가요?
-
해결됨파이썬을 활용한 머신러닝 딥러닝 입문
feature scaling 부분
안녕하세요. feature scaling 부분에그래프 예시 (before, after) 에 표준정규화를 거치면 분포가 다 같아지는것처럼 그려졌는데각각 다른 분포를 가진 데이터들이 전부 같은 분포로 바뀌게 되면 서로 다른 데이터의 의미자체를 잃어버리는것 아닌가요? 감사합니다.
-
미해결[AI 기초] AI Research Engineer를 위한 CNN 이해하기
pytorch 설치시 anaconda를 더이상 지원하지 않는다고 합니다.
pip3로 설치해도 괜찮을까요?
-
미해결6일 만에 배우는 파이토치 딥러닝 기초
2일차 참조 답안
2일차 참조 답안을 보면 학습을 두 번 시키는 이유가 있을까요? 학습을 두 번 시키면 과적합이 발생하지 않나요?
-
해결됨딥러닝 이론 + PyTorch 실무 완전 정복
[섹션3, PyTorch로 구현해보는 Loss Function] 분류task loss함수 질문입니다.
좋은 강의 정말 잘 듣고있습니다. 항상 감사합니다.다름이 아니라 nn.BCEloss 나 nn.BCEWithLogitsLoss에서 이름에 B(Binary)가 들어가 이진분류 문제에 사용하는 함수인가 싶었는데, 실습 강의때 처럼 다중 분류 문제의 loss 함수로 사용해도 괜찮은 것인지 여쭙고 싶습니다.generate_onehot 함수는 클래스가 10개인 다중분류 데이터를 생성합니다.batch_size = 16 n_class=10 def generate_onehot(batch_size=16, n_class=10): pred = torch.nn.Softmax()(torch.rand(batch_size, n_class)) gt = torch.rand(batch_size, n_class) gt = torch.tensor(gt == torch.max(gt, dim=1, keepdim=True)[0]).float() # convert to onehot return pred, gt