묻고 답해요
158만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
데이터 생성코드 실제 시험환경 문의
# 데이터 생성(먼저 실행해 주세요) import pandas as pd import random random.seed(2022) df = pd.DataFrame() for i in range(0, 5): list_box = [] for k in range(0, 200): ran_num = random.randint(1,200) list_box.append(ran_num) df[i+2000] = list_box df = df.T df.to_csv("data.csv", index=True)이렇게 가장먼저 데이터생성하는 코드가 디폴트값으로 적혀있는데, 실제 빅분기시험에서도 이렇게 첫 스타트를 끊는 부분은 저희가 처음부터 별도로 코딩을 하지않아도되는건가요? 실제 시험에서는 어떻게 진행되는지 궁금하네요... 처음부터 문제 읽자마자 데이터 생성을 하고 시작해야하는건지 아니면 데이터 생성코드가 입력되어있으면 그냥 코드실행바로 누르고 시작하는건지 알려주세요
-
미해결유니티 머신러닝 에이전트 완전정복 (기초편)
2025년 pip ml agents 설치 에러
이 부분에서 설치시에 계속 에러가 나네요 ㅠㅠERROR: Could not find a version that satisfies the requirement mlagents==0.30.0 (from versions: 0.4.0, 0.10.0.dev1, 0.10.0, 0.10.1, 0.11.0.dev0, 0.11.0, 0.12.0, 0.12.1, 0.13.0, 0.13.1, 0.14.0, 0.14.1, 0.15.0, 0.15.1, 0.16.0, 0.16.1, 0.17.0, 0.18.0, 0.18.1, 0.19.0, 0.20.0, 0.21.0, 0.21.1, 0.22.0, 0.23.0, 0.24.0, 0.24.1, 0.25.0, 0.25.1, 0.26.0, 0.27.0, 0.28.0)ERROR: No matching distribution found for mlagents==0.30.0.
-
미해결모두의 한국어 텍스트 분석과 자연어처리 with 파이썬
감성 분석을 하려면 어떤 부분을 공부해야 하나요?
프로젝트에서 감성 분석과 주제 찾는 작업이 필요합니다.주제 찾기는 강의를 통해 배울수 있을거 같은데요 감성 분석은 어떤것을 공부하면 좋을까요?
-
미해결처음하는 딥러닝과 파이토치(Pytorch) 부트캠프 (쉽게! 기본부터 챗GPT 핵심 트랜스포머까지) [데이터분석/과학 Part3]
MSE LOSS 관련
안녕하세요. 강의 듣다가 의문사항이 있어 질문드립니다.공유해주신 pdf 파일에서 07.multilabel_classification.pdf 에서BCELOSS 함수와 Binary classification(이진분류)에 적힌 내용입니다. Regression 문제에서 mse loss 함수를 사용하면 , 함수가 non-convex 한 이슈가 있다고 적혀있는데Regression 이 아니라 classification 문제에서 발생하는 이슈가 아닌가싶어 질문드립니다. mse loss 함수가 non-convex한 이슈가 발생한다는 점이 왜 언급된건지 궁금합니다.
-
미해결처음하는 딥러닝과 파이토치(Pytorch) 부트캠프 (쉽게! 기본부터 챗GPT 핵심 트랜스포머까지) [데이터분석/과학 Part3]
test시 minibatch 사용?
안녕하세요. 강의 잘 보고 있습니다.학습시 minibatch를 사용했다면, test시에서 minibatch 수만큼 사용하여 prediction한다고 하셨는데,제가 알고 있던 것과 좀 달라 문의드립니다.학습할때는 minibatch gradient descent를 사용해 학습하더라도, 테스트할때는 minibatch 만큼 인풋을 사용할 필요가 없을것 같은데요.예를들어 한개의 데이터(여러 feature를가진)만을 인풋으로 넣어도 당연히, output인 집값을 잘 예측해야하고,minibatch 이상의 데이터 수를 넣어도 역시 잘 예측해야 맞는게 아닌가 싶습니다.미니배치를 쓰더라도 데이터셋전체를 한번의 epoch안에 다 사용해서모델을 튜닝하고 epoch을 반복하니까,평가할때는 미니배치랑은 전혀 상관없는것으로 알고있었는데, 아닌가요? 감사합니다.
-
해결됨실리콘밸리 엔지니어와 함께하는 MLflow
MLFlow model versioning 방법 문의
언제든지 질문이 있으시면 물어보세요! 질문을 하시면서 배우는 겁니다mlflow에서 experiment에 기록된 모델을 register model 버튼을 눌러서 models로 옮겼는데요혹시 버튼을 누르지 않고도 experiment에 등록된 model을 옮기는 방법이 있을까요?
-
미해결수학 없이 시작하는 인공지능 첫걸음: 기초부터 최신 트렌드까지
강화학습에 보상과 처벌이라고 한다면...
안녕하세요 재미있는 강의 잘보고있습니다. 강화학습에 보상과 처벌에 대해 질문이있습니다. 정의를 보상과 처벌이라고했지만 잘한 행동이면 예를들어 데이터를 1을주고 못하면 데이터를 0을주면서 컴퓨터가 잘한 행동인지 아닌지를 구별하게하는 용도일뿐인걸로 이해가되는데 맞는지 궁금합니다. 감사합니다.
-
미해결[개정판] 파이썬 머신러닝 완벽 가이드
문자열 포맷팅
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 강의 내용을 질문할 경우 몇분 몇초의 내용에 대한 것인지 반드시 기재 부탁드립니다. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.세번째 cell에서 print('array1: {:0}차원, array2: {:1}차원, array3: {:2}차원'.format(array1.ndim,array2.ndim,array3.ndim)){:0} {:1} {:2} 이것들이 의미하는게 궁금합니다
-
해결됨[개정판] 파이썬 머신러닝 완벽 가이드
자문자답) 수강 시작 전에 아나콘다 버전을 강의와 맞추면 즐강
안녕하세요 선생님.선생님의 강의 덕분에 많은 것들을 배웁니다. 감사합니다. 많은 사람들이 강의 수강에 앞서 프로그램 환경설정에서 공통된 질문이 많은데, 선생님께서 계속 같은 질문에 답변을 반복하시는 모습에.. 다음 분들을 위해 가이드로 공유하고자 합니다. 참고로 버전이 업그레이드되면 API는 수시로 바뀝니다. 사용 방식이 조금씩 바뀌거나, 아예 달라지기도 합니다. 부디 해당 강의와 같은 버전으로 진행하시길 강력히 권장합니다. 현시점 아나콘다 공식 홈페이지의 다운로드 링크는 최신 버전만 다운로드할 수 있게 웹 브라우저를 보여줍니다. 따라서 아나콘다 공식 아카이브로 접근하여 원하는 버전을 다운로드합니다.아나콘다 아카이브 저장소 접근(link)아나콘다 아카이브에 접근하면 원하는 버전의 아나콘다를 다운로드 받을 수 있습니다. 여기서 주의해야 할 사항은 Python 3.9 기반의 아나콘다를 다운로드 받으셔야 합니다. 2022년도 아나콘다 쓰세요. 2023년도 아나콘다부터는 Python 3.10이더군요. Python 3.9을 기반으로 하는 2022년 아나콘다 다운로드2022년도 5월과 10월 버전이 있는데, 이 둘의 차이는 아나콘다 release 노트에서 확인할 수 있습니다. 참고로 많은 분들이 남기신 scikit-learn 버전도 2022.05 아나콘다부터 1.0.2가 기본 버전입니다. 2022년도 아나콘다로 진행하시면 lightgbm이고 뭐고 다 강의와 동일하게 진행하실 수 있습니다.아나콘다 버전만 잘 설치하시면, 나머지는 강의 따라가면 됩니다. 즐강하십쇼.p.s. 이미 아나콘다 최신 버전을 설치해 버리셨다면.. 다시 설치하시길 바랍니다. 윈도우 기준, C:\Users\{user}\anaconda3 경로에 Uninstall-Anaconda3.exe라는 파일을 실행시켜 지울 수 있습니다....
-
미해결[파이토치] 실전 인공지능으로 이어지는 딥러닝 - 기초부터 논문 구현까지
논문 구현
강의 제목이 논문 구현인데 논문에 대해서는 너무 짧은거같습니다 ㅠ 혹시 연구원(강사) 님 다른 강의추천 해주실수있나요..
-
해결됨실리콘밸리 엔지니어에게 배우는 파이썬 아파치 스파크
BroadCast 지원 가능 메모리 문의
안녕하세요.최근부터 Spark 강의를 듣고있는데 이해하기 쉽게 설명 해주셔서 감사합니다. Broadcast에 대해서 설명을 해주셨는데 Join 대상이 큰 빅데이터 이거나, meta에 큰 데이터를 담을 경우에는 Broadcast를 사용 하지 못한다고 설명해주셨는데요, 혹시 Broadcast에서 지원할 수 있는 최대 메모리가 있을까요? 그리고 Join대상 데이터가 A, B, C, D ID로 이뤄진 TB 사이즈의 테이블이라고 했을 경우 meta에 A, B, C, D ID에 대한 Name을 Brodcast할 경우 위 테이블과 맵핑하여 사용이 가능할까요?
-
미해결딥러닝 CNN 완벽 가이드 - TFKeras 버전
Boston 코랩 실습
안녕하세요. 코랩에서 해당 실습을 진행하고자 합니다. 현재 코랩 내의 사이킷런 버전이 1.6.1이며, 안내해주신 방법으로 버전 재설치가 되지 않아서 문의를 남깁니다. 버전 설치 코드에 대한 오류는 다음과 같습니다. 확인해주시면 감사하겠습니다!
-
미해결비전공자를 위한 진짜 입문 올인원 개발 부트캠프
Windows에서의 업로드 후 홈화면 상품이미지 오류 해결방법
공익을 위해 첨부합니다... Windows의 경우 Mac과 다른 방식으로 경로가 설정되는 탓인지 상품 업로드 후 홈화면에서 상품이미지가 엑박으로 보이는 오류가 발생합니다. 그동안 질문&답변 게시판에 올라온 모든 질문 및 답변을 참고해 해결을 해보고자 하였는데요, 그 어느 답변을 참고해도 해결이 되지 않아 눈물을 머금고 10분짜리 강의에 몇시간동안 매달려있었습니다. 그렇게 알게된 방법은... 저의 경우(1) 상품 업로드 화면에서 사진을 첨부한 후 개발자 도구의 Network에서 첨부한 사진의 링크를 보면 http://localhost:8080/upload/(상품이름).jpg이런 식으로 뜹니다.(2) 업로드 버튼을 누른 후 홈 화면으로 이동(3) 개발자 도구의 Network에서 새롭게 업로드된 사진의 링크를 보면 http://localhost:3000/upload/(상품이름).jpg 이런 식으로 뜹니다. 이를 해결하기 위해, grab-market-web 폴더 (사용자에 따라 폴더 이름은 다를 수 있음) → src → main → index.js에서 product-card 의 product-img 부분을 확인합니다.<div> <img className="product-img" src={`${API_URL}/${product.imageUrl}`} ></img> </div>src 링크를 다음과 같이 변경합니다. 그럼 상품 업로드 화면에서의 이미지와 홈화면에서의 이미지가 localhost:8080로 동일해지기 때문에 상품 사진이 정상적으로 보입니다. 물론 이렇게 코드를 수정하고 나면 기존에 저장해놨던 상품들의 이미지에 엑박이 뜹니다. (images/products/__ 이런 식으로 폴더 내 이미지와 연결해둔 링크들이 http://localhost:8080/images/products/__ 처럼 변경되니 엑박이 뜨는 것으로 추정됩니다.)어차피 이제 사진을 서버에 직접 업로드하는 방법으로 진행될 예정이니 그냥 기존의 상품들은 삭제하시면 될 것 같습니다. (DB Browser → 데이터 탐색 → 기존 상품 레코드 선택 → 현재 레코드 삭제하기 → 변경사항 저장하기 이용하면 삭제 가능합니다.) 저와 동일한 이유로 엑박 뜨는게 아니라면... 저도 모르겠습니다. 방법을 찾으시면 공유해주세요. 파이팅! +)상품 상세페이지를 들어가면 다시 엑박이 뜹니다.<div id="image-box"> <img src={`${API_URL}/${product.imageUrl}`} /> {console.log(product.imageUrl)} </div>이때는 product 폴더의 index.js에 들어가여 image-box 부분을 다음과 같이 변경해주세요. 원리는 위와 동일합니다. 그러면 상세페이지에서도 정상적으로 작동합니다.
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
종자와 비료의 p밸류값
8:42에서 종자의 p밸류값은 7.254117e-10비료의 p밸류값은 1.835039e-03으로 나오는데요.둘다 귀무가설을 기각하여 '토마토수'에 영향을 준다는 사실은 이해를 했습니다. 궁금한 점은 p밸류값이 종자가 비료보다 훨씬 수치가 작은데 그렇다면 '종자'가 '비료'보다 토마토수에 더 영향을 끼친다고 해석해도 괜찮은가요?
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
모델링및평가(분류) 17:30초 지점 질문드립니다.
학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요!질문과 관련된 영상 위치를 알려주면 더 빠르게 답변할 수 있어요먼저 유사한 질문이 있었는지 검색해보세요모델링및평가(분류) 17:30초 지점에서검증용 데이터 분리를 설명하기에 앞서그 위에 문제2가 있는데문제2가 검증용 데이터분리와 연관되나요.즉, 검증용 데이터분리는 문제1에 연장인지 문제2에 해당하는지를 묻습니다.
-
미해결머신러닝 엔지니어 실무
kubeflow 관련 질문 드립니다
kubeflow 를 구축하면mlops 를 다 할수 있나요? 아니면 추가적으로 다른 플랫폼을 설치해야 하나요? kubeflow 에 이미학습, 파라미터 셋팅 , 서빙등의 기능이 있는데W&B 나 mlflow , bentoml 을 사용하시는 이유가 알고 싶습니다.
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
CV error
CV를 사용하였는데 하기와 같은 오류가 등장했습니다 : --> 98 raise InvalidParameterError( 99 f"The {param_name!r} parameter of {caller_name} must be" 100 f" {constraints_str}. Got {param_val!r} instead." InvalidParameterError: The 'scoring' parameter of cross_val_score must be a str among {'f1', 'jaccard_micro', 'positive_likelihood_ratio', 'adjusted_rand_score', 'jaccard_weighted', 'homogeneity_score', 'average_precision', 'precision_weighted', 'rand_score', 'roc_auc_ovr', 'roc_auc_ovr_weighted', 'precision', 'explained_variance', 'jaccard_macro', 'recall_macro', 'f1_macro', 'normalized_mutual_info_score', 'precision_samples', 'neg_root_mean_squared_log_error', 'r2', 'neg_negative_likelihood_ratio', 'precision_micro', 'neg_max_error', 'mutual_info_score', 'precision_macro', 'f1_micro', 'v_measure_score', 'completeness_score', 'neg_mean_squared_error', 'accuracy', 'neg_brier_score', 'recall_samples', 'jaccard_samples', 'neg_root_mean_squared_error', 'neg_mean_absolute_percentage_error', 'jaccard', 'f1_samples', 'matthews_corrcoef', 'neg_median_absolute_error', 'neg_mean_gamma_deviance', 'recall_micro', 'neg_mean_absolute_error', 'neg_log_loss', 'roc_auc_ovo_weighted', 'd2_absolute_error_score', 'roc_auc', 'adjusted_mutual_info_score', 'recall', 'recall_weighted', 'balanced_accuracy', 'f1_weighted', 'top_k_accuracy', 'roc_auc_ovo', 'neg_mean_squared_log_error', 'fowlkes_mallows_score', 'neg_mean_poisson_deviance'}, a callable or None. Got 'f1-macro' instead.제가 작성한 코드도 함께 공유 드립니다 : import pandas as pd train=pd.read_csv('train.csv') test=pd.read_csv('test.csv') train=train.drop('ID', axis=1) test_id=test.pop('ID') print(train.shape, test.shape) print(train.head()) print(test.head()) print(train.info()) print(test.info()) print(train.isnull().sum()) print(test.isnull().sum()) y=train.pop('Segmentation') print(y.info(), y.shape) y=y-1 int_cols=train.select_dtypes(exclude='object').columns train[int_cols].corr() cat_cols=train.select_dtypes(include='object').columns print(train[cat_cols].describe(include='object')) print(test[cat_cols].describe(include='object')) for i in cat_cols: train[i]=train[i].astype('object') test[i]=test[i].astype('object') for i in cat_cols: print(train[i].value_counts()) print(test[i].value_counts()) from sklearn.preprocessing import RobustScaler scaler=RobustScaler() for i in int_cols : train[i]=scaler.fit_transform(train[[i]]) test[i]=scaler.transform(test[[i]]) from sklearn.preprocessing import LabelEncoder le=LabelEncoder() for i in cat_cols: train[i]=le.fit_transform(train[i]) test[i]=le.transform(test[i]) print(train.head()) print(test.head()) from sklearn.model_selection import train_test_split X_tr, X_val, y_tr, y_val=train_test_split(train, y, test_size=0.2, random_state=2025) print(X_tr.shape, X_val.shape, y_tr.shape, y_val.shape) from sklearn.ensemble import RandomForestClassifier rf=RandomForestClassifier(n_estimators=50, max_depth=7, random_state=2025) rf.fit(X_tr, y_tr) y_pred_rf=rf.predict(X_val) from lightgbm import LGBMClassifier lgbm=LGBMClassifier(random_state=2025) lgbm.fit(X_tr, y_tr) y_pred_lgbm=lgbm.predict(X_val) from xgboost import XGBClassifier xgb=XGBClassifier(random_state=2025) xgb.fit(X_tr, y_tr) y_pred_xgb=xgb.predict(X_val) y_pred_xgb=y_pred_xgb+1 from sklearn.metrics import f1_score print(f1_score(y_val, y_pred_rf, average='macro')) print(f1_score(y_val, y_pred_lgbm, average='macro')) print(f1_score(y_val, y_pred_xgb, average='macro')) from sklearn.model_selection import cross_val_score scores=cross_val_score(rf, train, target, scoring='f1-macro', cv=5) print(scores) print(scores.mean())
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
XGBClassifier 사용 에러
XGBClassifier 를 사용해서 target을 분류하려고 하는데, 아래와 같은 에러가 나타납니다 : ValueError: Invalid classes inferred from unique values of y. Expected: [0 1 2 3], got [1 2 3 4]LabelEncoder를 사용해서 processing 도 다 했고, LGBMClassifier랑 RandomForestClassifier는 다 잘 돌아가는데 XGBClassifier만 저런 오류가 나타나네요;;; 참고를 위해 지금까지 작성한 코드 하기로 공유 드립니다 : import pandas as pd train=pd.read_csv('train.csv') test=pd.read_csv('test.csv') train=train.drop('ID', axis=1) test_id=test.pop('ID') print(train.shape, test.shape) print(train.head()) print(test.head()) print(train.info()) print(test.info()) print(train.isnull().sum()) print(test.isnull().sum()) y=train.pop('Segmentation') y=y.astype('object') y=y.astype('category') print(y.info(), y.shape) int_cols=train.select_dtypes(exclude='object').columns train[int_cols].corr() cat_cols=train.select_dtypes(include='object').columns print(train[cat_cols].describe(include='object')) print(test[cat_cols].describe(include='object')) for i in cat_cols: train[i]=train[i].astype('object') test[i]=test[i].astype('object') for i in cat_cols: print(train[i].value_counts()) print(test[i].value_counts()) from sklearn.preprocessing import RobustScaler scaler=RobustScaler() for i in int_cols : train[i]=scaler.fit_transform(train[[i]]) test[i]=scaler.transform(test[[i]]) from sklearn.preprocessing import LabelEncoder le=LabelEncoder() for i in cat_cols: train[i]=le.fit_transform(train[i]) test[i]=le.transform(test[i]) print(train.head()) print(test.head()) from sklearn.model_selection import train_test_split X_tr, X_val, y_tr, y_val=train_test_split(train, y, test_size=0.2, random_state=2025) print(X_tr.shape, X_val.shape, y_tr.shape, y_val.shape) y_val=y_val.astype('category') y_tr=y_tr.astype('category') from sklearn.ensemble import RandomForestClassifier rf=RandomForestClassifier(n_estimators=100, max_depth=5, random_state=2025) rf.fit(X_tr, y_tr) y_pred_rf=rf.predict(X_val) from lightgbm import LGBMClassifier lgbm=LGBMClassifier() lgbm.fit(X_tr, y_tr) y_pred_lgbm=lgbm.predict(X_val) from sklearn.metrics import f1_score print(f1_score(y_val, y_pred_rf, average='weighted')) print(f1_score(y_val, y_pred_lgbm, average='weighted')) from xgboost import XGBClassifier xgb=XGBClassifier() xgb.fit(X_tr, y_tr) y_pred_xgb=xgb.predict(X_val)
-
미해결처음하는 딥러닝과 파이토치(Pytorch) 부트캠프 (쉽게! 기본부터 챗GPT 핵심 트랜스포머까지) [데이터분석/과학 Part3]
Average Test loss 계산식 문의
11_MILTI-LABEL-CLASSIFICATION-DROPOUT-BATCHNORMALIZATION.ipynb 파일의 테스트 셋 기반 Evaluation 코드 질문이 있어서 문의 드립니다. test_loss /= len(test_batches.dataset)평균 Test loss를 보기 위해서는 뒤에 .dataset이 빠져야 되는 것이 아닌가 싶어서 문의 드립니다.loss를 구하는 과정은 minibatch 단위로 구했기 때문에 minibatch로 나누어야 평균 Test loss가 아닌가 싶습니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
yolo 학습 관련
안녕하세요 강사님! 강사님의 강의를 듣고 현재 yolo를 이용해 간단한 프로젝트를 하나 진행해보려고 하는데 몇가지 질문 사항이 생겨 글을 적습니다.전체적인 프로젝트 개요는 식물앞에 카메라를 두고 식물에 해충 및 질병 발생을 detect하는 모델을 만드려고 합니다.이때 카메라에 라즈베리파이 같은 소형 컴퓨터를 달아 모델을 운용하려는 계획이라 yolo의 높은 버전보다 yolo v5 간소화 버전들을 사용해야 겠다고 결정했는데 괜찮은 선택인지 궁금합니다.해충과 식물의 질병 부위 이미지 데이터셋으로 모델을 학습 시키려고 하는데 이때 coco dataset으로 pretrained된 모델을 사용해야 하는지 아니면 모델 구성부터 새로 한 후 원하는 해충/질병 이미지만 학습 시켜야 하는건지 궁금합니다.감사합니다!!