묻고 답해요
158만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결비전공자를 위한 진짜 입문 올인원 개발 부트캠프
error:03000086:digital envelope routines::initialization error axios오류
안녕하세요 axios 코드 실행 하면 아래 사진과 같이 오류가 뜹니다.
-
미해결[개정판] 파이썬 머신러닝 완벽 가이드
교재 p.331 예제코드 질문
안녕하세요 선생님. 교재 p.331 윗부분 예제코드에서 위와 같이 X 데이터를 임의로? 지정해주셨고, print문으로 '계수'라는 워딩을 써서 보충설명하셨는데요. (코드 전체적으로 '계수'라는 말이 거의 모든곳에 혼용되어 있어 좀 혼란스러운데)위의 X 데이터는 다항식의 '계수' 데이터가 아니라 x1, x2 에 입력값으로서 학습에 사용되는 피처 데이터인게 맞죠? 일종의 X_train 데이터로서요.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
선생님 세그멘테이션관련 질문을 드립니다 ㅎ
선생님 안녕하세요이번에 선생님강의 머신러닝2개, 컴퓨터비젼2개를 모두 완강한 열혈팬 회사원입니다 ㅎㅎㅎ선생님 강의 덕분에 이번에 회사에서 세그멘테이션을 담당하게 되엇는데, 세그멘테이션강의관련 질문이 잇어서 이렇게 메일을 드립니다 ㅎ 바쁘시겟지만 조언 좀 부탁드리겟습니다<배경>이번에 검출할 객체(첨부파일)는 바늘과 같이 아주 가늘고 긴 객체(섬유)인데 이미지1장당 객체전체면적이 0.5 - 2%밖에 없는 아주 미세한 객체입니다. 실제원본데이터에서도 객체는 눈으로 자세히 보아야 검출할수 잇을정도입니다 ㅎ (학습데이터30장, 학습마스크영상 30장, 테스트데이터 5장 ). 사용모델은 깃헙에서 공개한 U-NET모델로 세그멘테이션을 수행햇는데, 첫epoch부터 정확도가 90%이상, 로스가 0.1이하로 상당히 높은 성능을 보엿는데 예측결과이미지영상에는 아무것도 검출이 안된 상태(완전검은영상)입니다. 참고로 다른 이미지데이터를 가지고 U-NET모델로 세그멘테이션을 수행해본결과 예측결과도 상당히 잘되어서 모델에는 문제가없는것으로 판단햇습니다.여기서 조언을 좀 부탁드리겠습니다.1> 정확도는 90%이상, 로스가 0.1이하인데 아무것도 검출이 안되엇다는 것은 , 객체가 너무미세해서 검출을 못한걸로 이해해도 되는지요?2> 이런경우 성능을 올리기 위한방법으로 오그멘테이션방법도 잇는데, 특히 사용해야할 오그멘테이션방법이 잇는지요? 참고로 확대기능등을 사용햇습니다.3> 다른방법으로 선생님CNN강의에서사용한 mark-rcnn 방법도 해볼려고 하는데, 어떻게 생각하시는지요?글을 적다보기 글이 너무 길어져서 죄송합니다, 바쁘시겟지만 조언 좀 부탁드리겟습니다 ㅎ
-
미해결유니티 머신러닝 에이전트 완전정복 (기초편)
경로 생성
안녕하세요 DDPG 부분까지 재밌게 수강했습니다.드론이 랜덤하게 생성되는 particle (goal)에 도달하는 것 말고 유니티 상에서 경로를 생성해 준 후 그 경로를 goal이라고 지정한 후에, 그 경로를 잘 따라가게끔 하는 것을 실습해보고자 합니다.혹시, 유니티에서 경로를 생성하게끔 해주는 툴을 알고 계신가요?강의 내용과는 거리가 있지만, 알고 계시다면 답변 부탁드립니다.
-
미해결처음하는 딥러닝과 파이토치(Pytorch) 부트캠프 (쉽게! 기본부터 챗GPT 핵심 트랜스포머까지) [데이터분석/과학 Part3]
Prepare dataset 부분에서 코드 오류가 납니다 ㅠㅠ
첨부해주신 코드를 복사 붙여넣기 했는데, 오류가 나네요.. ㅠㅠ오류명은 : ---> 21 class CustomDataset(Dataset): 22 def init(self, file_list, transform=None): 23 self.file_list = file_listTypeError: str() argument 'encoding' must be str, not tupledataset_train = CustomDataset(train_list, transform=transforms_for_train) dataset_valid = CustomDataset(val_list, transform=transforms_for_val_test) dataset_test = CustomDataset(test_list, transform=transforms_for_val_test)CustomDataset 클래스를 통해, train, valid, test를 만들어주는 과정에서, str() arguments를 받아야 한다는 것 같은데.. 왜 오류가 나는지 잘 모르겠습니다.from torchvision import transforms input_size = 224 transforms_for_train = transforms.Compose([ transforms.RandomResizedCrop(input_size, scale=(0.5, 1.0)), transforms.RandomHorizontalFlip(), transforms.RandomVerticalFlip(), transforms.RandomRotation(10), transforms.ToTensor(), transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225]) ]) transforms_for_val_test = transforms.Compose([ transforms.Resize(input_size), transforms.CenterCrop(input_size), transforms.ToTensor(), transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225]) ]) #class Dataset class CustomDataset(Dataset): def __init__(self, file_list, transform=None): self.file_list = file_list self.transform = transform def __len__(self): return len(self.file_list) def __getitem__(self, idx): img_path = self.file_list[idx] if img_path.split('/')[-1][-3:] == 'jpg': img = Image.open(img_path) if self.transform is not None: img_transform = self.transform(img) label = img_path.split('/')[-1].split('.')[0] if label == 'dog': label = 1 elif label == 'cat': label = 0 return img_transform, label dataset_train = CustomDataset(train_list, transform=transforms_for_train) dataset_valid = CustomDataset(val_list, transform=transforms_for_val_test) dataset_test = CustomDataset(test_list, transform=transforms_for_val_test) # from torch.utils.data import DataLoader # 데이터 로더 클래스 # # train_batches = DataLoader(dataset=dataset_train, batch_size=8, shuffle=True) # val_batches = DataLoader(dataset=dataset_valid, batch_size=8, shuffle=False) # test_batches = DataLoader(dataset=dataset_test, batch_size=8, shuffle=False)강의 내용과 같이 len(train_list), len(val_list)가 잘 출력이 됨을 볼 수 있고, Reference 항목에서 특정 img의 사이즈를 출력해볼 떄도, (500, 374) 라고 잘 출력됨을 알 수 있었습니다.train할 데이터와 test 데이터는 강의 중에 배운 os 명령어 및 with zip 명령어를 사용해서<오류 화면 입니다.>전체 작성한 코드 첨부드립니다.import zipfile Dataset = 'dogs-vs-cats-redux-kernels-edition' with zipfile.ZipFile('../BecomeProfessional/' + Dataset + ".zip", "r") as z: z.extractall(".")import pandas as pd import numpy as np import warnings warnings.filterwarnings('ignore') from PIL import Image import torch import torch.nn as nn from torch.utils.data import DataLoader, Subset from torchvision import datasets, transforms from sklearn.model_selection import train_test_split from copy import deepcopy import matplotlib.pyplot as plt import os, shutilimport random import os #device 설정 device = 'cuda' if torch.cuda.is_available() else 'cpu' print(device) seed = 42 # seed값 설정 random.seed(seed) # 파이썬 난수 생성기 os.environ['PYTHONHASHSEED'] = str(seed) # 해시 시크릿값 고정 np.random.seed(seed) # 넘파이 난수 생성기 torch.manual_seed(seed) # 파이토치 CPU 난수 생성기 torch.backends.cudnn.deterministic = True # 확정적 연산 사용 설정 torch.backends.cudnn.benchmark = False # 벤치마크 기능 사용 해제 torch.backends.cudnn.enabled = False # cudnn 기능 사용 해제 if device == 'cuda': torch.cuda.manual_seed(seed) torch.cuda.manual_seed_all(seed)original_data_path = './Dog_Cat/' os.makedirs('dogsvscats', exist_ok=True) import zipfile with zipfile.ZipFile(os.path.join(original_data_path, 'train.zip')) as train_zip: train_zip.extractall('./Dog_Cat/dogsvscats') with zipfile.ZipFile(os.path.join(original_data_path, 'test.zip')) as test_zip: test_zip.extractall('./Dog_Cat/dogsvscats')import glob print(glob.glob('./Dog_Cat/dogsvscats/train/*'))출력: ./Dog_Cat/dogsvscats/train\\cat.11346.jpg', './Dog_Cat/dogsvscats/train\\cat.11347.jpg', './Dog_Cat/dogsvscats/train\\cat.11348.jpg', './Dog_Cat/dogsvscats/train\\cat.11349.jpg', ' .... (엄청 많이 출력됩니다)train_dir = './Dog_Cat/dogsvscats/train' test_dir = './Dog_Cat/dogsvscats/test' all_train_files = glob.glob(os.path.join(train_dir, '*.jpg')) test_list = glob.glob(os.path.join(test_dir, '*.jpg')) train_labels = [path.split('/')[-1].split('.')[0] for path in all_train_files] train_list, val_list = train_test_split(all_train_files, test_size=0.1, stratify=train_labels, random_state=seed) print(len(train_list), len(val_list))출력: 22500 2500train_list[0]출력: './Dog_Cat/dogsvscats/train\\cat.4814.jpg'img = Image.open('./Dog_Cat/dogsvscats/train/cat.4814.jpg') img.size출력: (500, 374)import IPython image1 = IPython.display.Image(filename='./Dog_Cat/dogsvscats/train/cat.4814.jpg') display(image1)from torchvision import transforms input_size = 224 transforms_for_train = transforms.Compose([ transforms.RandomResizedCrop(input_size, scale=(0.5, 1.0)), transforms.RandomHorizontalFlip(), transforms.RandomVerticalFlip(), transforms.RandomRotation(10), transforms.ToTensor(), transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225]) ]) transforms_for_val_test = transforms.Compose([ transforms.Resize(input_size), transforms.CenterCrop(input_size), transforms.ToTensor(), transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225]) ]) #class Dataset class CustomDataset(Dataset): def __init__(self, file_list, transform=None): self.file_list = file_list self.transform = transform def __len__(self): return len(self.file_list) def __getitem__(self, idx): img_path = self.file_list[idx] if img_path.split('/')[-1][-3:] == 'jpg': img = Image.open(img_path) if self.transform is not None: img_transform = self.transform(img) label = img_path.split('/')[-1].split('.')[0] if label == 'dog': label = 1 elif label == 'cat': label = 0 return img_transform, label dataset_train = CustomDataset(train_list, transform=transforms_for_train) dataset_valid = CustomDataset(val_list, transform=transforms_for_val_test) dataset_test = CustomDataset(test_list, transform=transforms_for_val_test)오류 발생
-
미해결[개정판] 파이썬 머신러닝 완벽 가이드
GridSearchCV 후에 다시 학습을 시키는 이유가 있을까요?
안녕하세요, 선생님.아직 초반이지만 강의를 정말 만족스럽게 듣고 있습니다. 추후 업데이트되는 내용도 강의에 반영해주셔서 감사드립니다.강의를 듣던 중 4:30쯤에 궁금한 점이 있어서 문의드립니다.앞에서 GridSearchCV로 최적 하이퍼 파라메터를 찾았으면 best_estimator_가 생성되었을거 같은데 다시 최적 파라메터를 사용한 rf_clf1를 생성하여 학습후 예측하는 이유가 따로 있을까요?bestestimator를 사용해서 예측해도 동일 accuracy가 나오는 걸 보면 큰 이유는 없을 거 같은데, 혹시나 이유가 있을까 하여 문의드립니다.감사합니다.
-
미해결[개정판] 파이썬 머신러닝 완벽 가이드
로지스틱 회귀 시그모이드와 회귀트리 질문
안녕하세요 선생님 로지스틱 회귀분석을 공부하다가 잘 이해가 가지 않는 부분이 있습니다로지스틱 회귀는 시그모이드 함수를 활용하는데 해당 함수의 최적의 선을 구하는데Y= 1/1+e^-x 인데여기서 x가 w0 + w0x1 … 의 값을 구해서 x에 넣는건가요?그리고 여기서 나온 시그모이드 값을 0.5이상이면 신용카드 사기(1) 그리고 0.5미만이면 사기아님(0)으로 간주하게 되는건가요? (그리고 기본이 0.5초과면 1이고 미만이면 0으로 되는건가요?) 회귀 트리 질문페이지 336에서 결정나무처럼 균일도를 가장 잘 나누는 것을 시작으로 0~3까지 나누는 것은 이해를 했는데여기서 구한 4개의 평균값이 2.5이면 레이블 2 or 3으로 간주하게 되는건가요? 감사합니다
-
미해결파이썬 무료 강의 (활용편7) - 머신러닝
선형 회귀
안녕하세요?선형회귀 부분에서 예측 값을 출력할 때 X 값이 아닌, y값을 출력하려면 어떻게 해야하나요?ex) : 시험 100점을 받으려면 공부해야하는 예측시간감사합니다 :)(가능한건가요? 아니면 불가능한가요?;;)
-
미해결비전공자를 위한 진짜 입문 올인원 개발 부트캠프
메인페이지 출력 오류
안녕하세요 메인 페이지 출력이 안되어서 질문 남깁니다해당 코드와 실행결과 사진으로 첨부했습니다
-
미해결처음하는 딥러닝과 파이토치(Pytorch) 부트캠프 (쉽게! 기본부터 챗GPT 핵심 트랜스포머까지) [데이터분석/과학 Part3]
optimizer.zero_grad()에 관한 질문입니다
"파이토치로 딥러닝 구현 패턴 이해하기" 강의 7:56 부분에서,optimizer.zero_grad()는 기존의 연산을 끊어주는 역할을 하고, 이는 강의에서 전에 작성했던 W.detach_().requires_grad_(True) b.detach_().requires_grad_(True)이 코드와 같은 역할을 한다고 설명해 주셨습니다. 설명을 듣고, pytorch 공식 문서 등에서 관련된 내용들을 찾아보니"detach는 계산된 값과 동일한 저장 공간을 사용하지만, 계산 기록은 없는 tensor를 반환하여 tensor를 과거 계산 기록으로부터 떼어내는 역할을 한다"라는 설명을 찾을 수 있었습니다. 그렇다면, 모델 파라미터의 미분값을 0으로 초기화하는 optimizer.zero_grad()는 W.detach_().requires_grad_(True)이 코드와 엄밀히 따지자면 조금 다른 동작을 하는 것으로 이해하였는데요,'기존의 연산을 끊어준다' 라는 측면에서 조금 동작에 차이가 있다고 보는 것이 맞는지 설명 듣고 싶습니다!감사합니다
-
미해결[개정판] 파이썬 머신러닝 완벽 가이드
성능 평가에 대한 질문
안녕하세요 권철민 선생님.분류까지 강의를 정말 재밌게 잘 들었습니다. 다만 질문이 하나 있는데요,정확도, 정밀도, 재현율, F1 스코어, AUC 등의 결과가 나왔을 때 이 모델이 우수한지 아닌지를 어떻게 평가하는지가 제 머릿속에서 조금 모호합니다.AUC가 어떻게 보면 정확도, 정밀도, 재현율의 단점을 보완한 끝판왕인줄 알았는데 강의를 듣다 보니 정밀도, 재현율이 낮아도 정확도, AUC만 높은 경우가 있더라고요..만약 제가 회사 실무에서 분석을 수행한 뒤 평가 지표를 설명할 때 어떤 지표를 중심으로 강조해야 좋을지 조언 부탁드립니다.그리고 예를 들어 90%라는 평가가 나왔을 떄 이게 진짜 좋음을 의미하는 것인지? 60%라는 평가가 나왔을 떄 이게 나쁜 모델을 사용했기 때문인지 아니면 주어진 데이터 대비 최선의 결과를 낸 것인지.. 등도 알고 싶네요
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
mm_mask_rcnn_train_balloon에서 좌표에 0.5를 더하는 이유?
mm_mask_rcnn_train_balloon.ipynb 실습 convert_balloon_to_coco() 함수 구현에서 poly = [(x + 0.5, y + 0.5) for x, y in zip(px, py)]위와 같이 원래 좌표에 0.5를 더하는 이유를 알고 싶습니다.
-
미해결비전공자를 위한 진짜 입문 올인원 개발 부트캠프
setProducts 질문
위 사진처럼 setProducts 밑에 console.log를 해봤는데한번 출력될 줄 알았는데 왜 두 번 출력되는 건가요?
-
미해결[개정판] 파이썬 머신러닝 완벽 가이드
GridSearchCV
GridSearchCV 에 y_test 값을 주지 않아도 알아서 정확도를 추론해 내는 걸 보니,굳이 GridSearchCV 의 인자로 X_train 과 y_train 을 줘야할 이유가 있을까요?그냥 titanic_df의 피처값과 타겟값을 GridSearchCV 의 인자로 던져주는 것이 우리의 목표인 accuracy를 향상시키는 방법 아닌가요?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Soft max Class score 질문입니다!
오른쪽 처럼 car: 0.8 이라고 되어있는데 이는 vgg/resnet 학습시에 label 데이터와의 대조를 통하여 산출한 값인가요?현업에서쓰는 label 데이터는 주로 어떤걸 쓰는지 궁금합니다!
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
Cofidence threshhold 질문입니다!.
오른쪽 0.9 흰색 박스 안에 차의 Confidence threshold를 0.9라는 값이 나오는 것은 "유사도 90%미만의 이미지는 적용 하지 않는다."의 의미로 해석을 했는데, 이 때도 Object Localization을 통해 바운더리 박스를 찾고 난 뒤 그 이미지와의 유사도가 90%이하면 버린다. 라고 해석했는데 맞나요?
-
미해결유니티 머신러닝 에이전트 완전정복 (기초편)
학습 관련
안녕하세요, 수업 따라가면서 코드 오류는 없었지만 내용에 질문이 생겨 글 남기게 되었습니다. 드론 agent 스크립트 중 Heuristic()에서 키보드 입력을 주었을 때 OnActionReceived()로 전달되어 드론을 움직이는 것으로 이해했는데, 학습 과정에서는 키보드 입력 없이 드론이 어떤 방법으로 스스로 움직이며 학습을 하는 것인지 궁금합니다. 감사합니다!
-
미해결[개정판] 파이썬 머신러닝 완벽 가이드
스태킹 알고리즘 관련 질문
교재 279기준으로 해서 질문이 있습니다각 모델 1-3부터 예측을 해서 예측에 나온 결과값으로 스태킹을 하는 부분은 이해를 했습니다하지만 여기 predict를 해서 나온 결과값들이 (암 환자이면 암1 암이 아니면 0) 0,1로 구성된 레이블이 나오는데 이 데이터로 어떻게 학습을 하나요..?정리하면 기존에 암 데이터 피처는 종양크기, 위치, 색 등으로 피처데이터로 구성되어서 학습하고 예측 했는데스태킹에서 predict로 나온 결과값들(0,1,1,0 예로 들어) 어떻게 학습을 하게 되는 건가요…? 추가적으로 메타모델이 로지스틱이면 앞선 데이터들로 어떻게 로지스틱 알고리즘을 활용하여 결과를 도축하나요…? 학습과 레이블은 0,1식으로 되어있는데.. 감사합니다
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
회귀 문제 해결 시 딥러닝 vs 머신러닝 질문드립니다.
안녕하세요. 권철민 선생님.저는 회사에서 업무 적용을 위해 머신러닝과 딥러닝을 공부하고 있습니다.그동안 딥러닝은 매우 방대한 데이터와 복잡한 차원 연산이 필요한 이미지 처리 등에 활용되고 머신러닝은 비교적 정형화된 데이터의 회귀, 분류 등에 활용되는 것으로 알고 있었습니다.근데 최근 상사로부터 딥러닝을 이용해 데이터를 회귀 분석하라고 요구 받았습니다. 머신러닝과 딥러닝을 혼동하셔서 그렇게 말씀하신 건지는 모르겠습니다만..이에 어떤 경우에는 딥러닝으로, 또는 머신러닝으로 회귀 문제를 푸는 것이 유리한지 두 방법의 장단점을 알고 싶습니다.그리고 만약 딥러닝으로 회귀 문제를 푸는 것이 유리한 경우가 있다면.. 본 강좌에는 CNN 중심으로 설명하고 있는데 타 강의를 참고해야 할까요? ㅠㅠ
-
미해결[개정판] 파이썬 머신러닝 완벽 가이드
LinearRegression 객체의 회귀계수와 피처 변수명 맵핑
p.327쪽에서위와 같이 lr.coef_ 의 회귀계수 값과 X_data.columns 의 피처 변수명을 맵핑시키는 데.. 이게 제대로 맵핑되는 원리가 무엇인가요? lr에 이미 X_data도 학습을 시켜 놓았으니 각 회귀계수별 피처명 정보가 어딘가에 들어가 있는 것이고, 이를 X_data.columns로 뽑아온다...? 맞나요..?