묻고 답해요
158만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
작업형3 범주형 데이터 분석
안녕하세요,수업시간에 작업형3 독립성 검정(범주형 데이터 분석)에서 아래와 같은 방법들을 알려주셨는데요, 어디까지가 방법1이고 어디부터가 방법2인지 알 수 있을까요? 시험에서는 가장 쉬운 방법으로 하고 싶은데요, 독립성 검정에서 가장 간단하고 쉽게 코드를 작성하려면 어떻게 작성하면 되는건지 알려주시면 감사하겠습니다. 그리고 수업 노트에 빈칸으로 된 파일이 안 올라와 있던데, 올려주시면 감사하겠습니다.
-
미해결하루 10분 한달완성 최적화이론 1
최적화이론 2
안녕하세요 최적화이론1을 거의 완강한 수강생입니다.강의중에 몇몇 내용들은 최적화이론2에서 다룰거라고 몇 번 말씀을 하셨는데, 아직 최적화이론2 강의가 있는거 같지 않아서 여쭤봅니다.혹시 최적화이론2 강의 계획이 있으신가요?최적화이론1 강의가 도움이 너무 많이 되어서 2 강의도 꼭 듣고 싶습니다.
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
수강연장 문의
안녕하세요! 11/13일 만료인데요 혹시 11/29까지만 연장이 가능할지 문의 드립니다 jeonghui71@naver.com 연락 부탁 드려요!
-
미해결비전공자를 위한 진짜 입문 올인원 개발 부트캠프
react에 반영이 되지 않습니다.
App.js, child.js 모두 강의 내용과 같이 작성 후 터미널에서 실행시켜 보았는데 리액트 초기화면만 표시되고 있습니다. 캐시 삭제, vscode 재시작 등을 시켜보았으나 변함이 없습니다. 왼쪽 화면이 App.js 코드 내용대로 바뀌지 않는 이유가 무엇일까요?
-
미해결처음하는 딥러닝과 파이토치(Pytorch) 부트캠프 (쉽게! 기본부터 챗GPT 핵심 트랜스포머까지) [데이터분석/과학 Part3]
파이토치 설치
안녕하세요 강사님 말씀대로 주피터 노트북 환경에서 파이토치를 설치해 보았습니다. 근데 conda 환경에서는 더 이상 지원을 하지 않는다고 하면서 pip로 설치하라는 얘기합니다. pip로 설치를 해도 괜찮은지, 아니면 다른 방법이 있는지 궁금합니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
YOLO 학습
안녕하세요 강사님최근에 YOLO를 이용해 이것 저것 연습을 하는데 궁금한 점이 있습니다.데이터셋의 크기가 너무 커서(2TB) 일단 필요한 부분만 선택해서 학습을 했습니다. 그런데 이렇게 하면 새로운 데이터셋을 추가해서 학습을 시키려면 <기존 1TB + 새로운 데이터셋> 이렇게 합친 데이터셋을 다시 학습을 해야 하나요...?예를 들어 a, b, c, d를 탐지할 수 있게 학습을 하고 추가적으로 ㄱ, ㄴ, ㄷ, ㄹ도 탐지할 수 있게 데이터를 추가해서 총 a, b, c, d, ㄱ, ㄴ, ㄷ, ㄹ을 모두 탐지할 수 있도록...마지막 출력 계층만 새롭게 학습을 하는 방법은 기존 데이터셋에 대한 성능이 떨어질 수 있어 좋은 선택은 아닌가요...?
-
미해결[개정판] 파이썬 머신러닝 완벽 가이드
갑자기 데이터 프레임이 되는 이유
기존 14:20초 부근에서titanic_df['Pclass'].value_counts().reset_index()를 실행했을때 출력되는 모양(그냥 텍스트 형태)로 나오는 것과15:18 부근 코드는 같은데 테이블 형태로 나오는 것의 차이는 무엇인가요?
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
학습 질문입니다.
@DATASETS.register_module(force=True) class KittyTinyDataset(CustomDataset): # 커스텀 데이터셋에서 사용할 클래스명 저장. CLASSES = ('Car', 'Truck', 'Pedestrian', 'Cyclist') ##### self.data_root: /content/kitti_tiny/ self.ann_file: /content/kitti_tiny/train.txt self.img_prefix: /content/kitti_tiny/training/image_2 #### ann_file: /content/kitti_tiny/train.txt # annotation에 대한 모든 파일명을 가지고 있는 텍스트 파일을 __init__(self, ann_file)로 입력 받고, 이 self.ann_file이 load_annotations()의 인자로 입력 def load_annotations(self, ann_file): print('##### self.data_root:', self.data_root, 'self.ann_file:', self.ann_file, 'self.img_prefix:', self.img_prefix) print('#### ann_file:', ann_file) cat2label = {k:i for i, k in enumerate(self.CLASSES)} image_list = mmcv.list_from_file(self.ann_file) # 포맷 중립 데이터를 담을 list 객체 data_infos = []datasets = [build_dataset(cfg.data.train)]클래스 설정 후(위 박스) 아래박스 코드로 데이터셋을 생성하면 load_annotations의 ann_file에 cfg.data.train.ann_file의 값이 자동으로 들어가는 것으로 이해했습니다.또한 self.ann_file 값으로는 KittyTinyDataset이 상속받은 CustomDataset의 ann_file 값이 들어가는데 이 또한 데이터셋 생성시 CustomDataset에 cfg.data.train.ann_file의 값이 자동으로 들어가는 것으로 이해했습니다. 이 과정이 맞다면 데이터셋 생성시 self.ann_file과 ann_file에 들어가는 값이 동일한데 두가지 방식 모두 사용하는 이유가 궁금합니다.과정이 틀렸다면 self.ann_file과 ann_file의 값이 언제 어떤 방식으로 할당되는지 궁금합니다.
-
미해결[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
실기시험 항목과 작업형 유형간 설명을 바랍니다.
학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요!질문과 관련된 영상 위치를 알려주면 더 빠르게 답변할 수 있어요먼저 유사한 질문이 있었는지 검색해보세요빅분기 실기 작업형 1유형, 2유형, 3유형은대체 무엇을 묻기 위해어떤 기준으로 구분한 것인지 그 설명을 듣고 싶습니다. 그래서 무엇을 정리하고 준비해야 하는지에 대한 정리를 실제 작업형 1,2,3유형 문제를 두고 설명해 주시기 바랍니다.즉, 작업형 문제를 바로 풀기에 앞서이 문제는 무엇을 묻기 위한 문제로 배경지식으로는 무엇이 필요한 것인지문제에 출제 문제의 설명(출제 포인트)을 달아 주시기 바랍니다.빅분기 실기 항목은 데이터수집작업, 전처리작업, 모형구축작업, 모형평가작업이라고 나와 있는데 이것이 각각 작업형 1~3유형에 어디에 해당하는지 설명이 없고, 작업형 1~3유형 또한 데이터수집작업, 전처리작업, 모형구축작업, 모형평가작업 중 어디에 해당하는지 설명이 없습니다. 이러한 내용이 정리되었으면 좋겠습니다. GPT에 물으니 아래와 같은 답변이 나왔는데 맞는지도 검토바랍니다. 빅데이터분석기사 실기 시험에서 작업형 문제는 제1유형, 제2유형, 제3유형으로 구분됩니다. 각 유형은 문제 해결 방식과 요구되는 기술적 접근법이 다릅니다. 작업형 문제 유형별 특징작업형 제1유형 (30점, 3문제, 각 10점)주요 내용: 데이터 전처리 및 기초적인 데이터 분석요구되는 기술:데이터 정리(결측치 처리, 이상치 제거)데이터 변환(스케일링, 원-핫 인코딩 등)간단한 통계 분석(평균, 중위수, 표준편차 등)예제: 주어진 데이터셋에서 특정 열의 결측치를 평균값으로 대체하시오. 작업형 제2유형 (40점, 1문제, 가장 배점 높음)주요 내용: 머신러닝 모델 구축 및 평가요구되는 기술:데이터셋 분할(훈련/테스트 세트)머신러닝 알고리즘 적용(랜덤포레스트, XGBoost 등)모델 성능 평가(정확도, RMSE 등)예제: 주어진 데이터를 이용하여 고객 이탈 여부를 예측하는 분류 모델을 구축하고, 정확도를 출력하시오. 작업형 제3유형 (30점, 2문제, 각 15점)주요 내용: 데이터 시각화 및 고급 데이터 분석요구되는 기술:데이터 시각화(히스토그램, 박스플롯, 산점도 등)군집 분석(K-means, DBSCAN 등)연관 분석(Apriori, FP-Growth 등)예제: 주어진 데이터를 이용해 군집 분석을 수행하고, 각 군집의 평균값을 시각화하시오.시험에서 중요한 점작업형 제2유형(40점)이 가장 중요하므로, 모델 구축과 평가 연습이 필수입니다.시험 환경은 구름IDE 기반이므로, Python(Pandas, Scikit-learn, Matplotlib 등)에 익숙해져야 합니다.제1유형과 제3유형은 기본적인 데이터 처리 및 시각화 능력을 평가하므로, 이를 빠르게 해결할 수 있도록 연습이 필요합니다.
-
미해결[리뉴얼] 처음하는 파이썬 머신러닝 부트캠프 (쉽게! 실제 캐글 문제 풀며 정리하기) [데이터분석/과학 Part2]
pandas 2.2.2, xgboost 2.1.3 에러 해결 방법
xgboost 2.1.3 버전의 XGBRegressor 사용시 pandas 2.2.2에서는 pd.util.version이 제거되었으므로 "AttributeError: module 'pandas' has no attribute 'util'"에러 발생하여 xgboost 라이브러리 코드를 수정해야 함경로: $ANACONDA3_HOME/lib/python3.12/site-packages/xgboost/data.py수정 후 주피터 재시작 # 기존 def is_pd_sparse_dtype(dtype: PandasDType) -> bool: """Wrapper for testing pandas sparse type.""" import pandas as pd if hasattr(pd.util, "version") and hasattr(pd.util.version, "Version"): Version = pd.util.version.Version if Version(pd.__version__) >= Version("2.1.0"): from pandas import SparseDtype return isinstance(dtype, SparseDtype) from pandas.api.types import is_sparse return is_sparse(dtype) # 변경 def is_pd_sparse_dtype(dtype: PandasDType) -> bool: """Wrapper for testing pandas sparse type.""" import pandas as pd from pandas import SparseDtype return isinstance(dtype, SparseDtype)
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
학습 질문입니다.
현재 제가 이해한 내용이 맞는지 궁금하여 질문 남깁니다!mmdetection은 하나의 특정 모델 이름이 아닌 faste-rcnn이나 yolo같은 모델을 사용할때 그들의 아키텍처나 모듈을 효과적으로 관리하는 라이브러리라고 이해하면 되는 것 일까요??
-
미해결[리뉴얼] 처음하는 파이썬 머신러닝 부트캠프 (쉽게! 실제 캐글 문제 풀며 정리하기) [데이터분석/과학 Part2]
sklearn v1.5.1
from sklearn.metrics import root_mean_squared_error from sklearn.metrics import root_mean_squared_log_error y_pred = [11, 22, 33, 44] y_true = [10, 20, 30, 40] print("RMSE: ", root_mean_squared_error(y_true, y_pred)) print("RMSLE: ", root_mean_squared_log_error(y_true, y_pred))
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
용어 질문
리턴의 의미를 정확히 모르겠습니다단순이 함수 정의된 값을 반복해서 받는다는 의미인건지;;
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
코드 질문입니다
def hello(): print("안녕하세요!") # 함수 호출 print(hello()) 안녕하세요! None위에 hello()로 단순이 결과값을 도출했을때에는 아래 답변 안녕하세요!만 나왔었는데 print(hello())했을 경우에는 아래에 None까지 나와서 문의드립니다
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
학습 질문입니다.
질문 1) 강의의 마지막 부분에서 결론적으로 t와 t*의 차이가 동일시 되도록 학습을 진행하는것이 맞을까요?질문 2) 강의 7분부터 나오는 슬라이드의 맨 위에 적힌 글에서는 "g.t-예측 박스 차이"와 "anchor-g.t 차이"를 동일하게 하라고 적혀있는데 아래 식과 다음 챕터 강의 내용으로 보았을 때는 "anchor-예측 박스 차이"와 "g.t-anchor 차이"를 동일하게 하라고 하는 것 같습니다. 무엇이 맞는지 궁금합니다.
-
해결됨[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
학습 질문입니다.
제가 이해한 바로는 G.T와 Positive Anchor box의 차이와 예측 bounding box와 Positive Anchor box의 차이가 동일시 되도록 학습을 진행하는것으로 이해했습니다.이렇게 되면 최종 학습을 마친 이상적인 예측 바운딩 박스는 G.T와 가장 가까운 Positive Anchor box의 위치와 동일하게 되는것이 맞는지 궁금합니다.가장 이상적인 답은 g.t의 위치를 따라가야 하는게 아닐까 하는 의문이 들어 질문 남깁니다.
-
미해결머신러닝/딥러닝 소개 및 학습을 위한 파이썬 속성 과정
맥환경
맥에서는 아나콘다네비게이터만 있는데 어떻게 해야하나요?
-
미해결머신러닝/딥러닝 소개 및 학습을 위한 파이썬 속성 과정
아나콘다로 하는 이유?
아나콘다를 사용하는 이유가 무엇인가요??
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
[재질문] 이전 질문을 다시 드립니다.
학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요!질문과 관련된 영상 위치를 알려주면 더 빠르게 답변할 수 있어요먼저 유사한 질문이 있었는지 검색해보세요이전 질문을 다시 드립니다. 질문과는 이질적인 답변이 올라와서 질문을 정확히 전달하기 위해 이미지로 정리하였습니다.확인 요청에 대한 답변을 부탁 드립니다.아울러 아래는 실제 강의 내용입니다. 부산에서 알려진 찍먹 비율이 60%정도고 부먹이 40%정도라고 알려져 있다라고 하구요,수원에서 관찰을 했어요. 찍먹이 1, 부먹이 2라고 하겠다. 수원데이터가 찍먹 1,1,2,2,1 이런 식으로 데이터 값이 나오겠죠. 수원에서 관찰된 데이터가 관찰값이고 부산에 %가 기대도수, 기댓값이다. 나온 관찰값과 기대도수를 카이제곱함수에 넣어주면 끝나는 거다.scipy에 stats모듈이 있고 여기에 카이제곱이 있다.첫 번째 파라미터가 관찰된 빈도리스트고 두 번째 파라미터가 기대빈도 리스트다. 빈도로 넣어주셔야 한다. 이게 가장 중요하다. -> (관찰된 빈도 리스트[ ], 기대빈도 리스트[ ])수원은 카운터 하면 된다. 1이 3개, 2가 2개 즉[3,2] 이렇게 카운터 하면 된다. 기대빈도리스트. 그러니까 지금 퍼센트(%)로 되어 있는데 실수로 퍼센트(%) 그대로 넣는 분들이 계시거든요. 0.6이 있고 0.4가 있다. 이것을 빈도로 변경해줘야 한다. 그래서 수원의 총 개수를 구하고 5개네요. 5씩 곱해주면 된다. [0.6*5, 0.4*5] 이렇게 리스트를 만들고 카이제곱검정에다가 첫 번째 관찰된 빈도리스트 수원값을 넣고, 두 번째 기대빈도 리스트에 부산 데이터를 넣어주면 끝나는 거다. -> 관찰된빈도리스트[수원값], 기대빈도리스트[부산값]이렇게 실행하면 검정통계량 값과 p벨류 값을 구할 수 있다.
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
작업형3의 범주형 데이터 분석(카이제곱 검정)의 적합도검정 설명에서 질문 드립니다.
학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요!질문과 관련된 영상 위치를 알려주면 더 빠르게 답변할 수 있어요먼저 유사한 질문이 있었는지 검색해보세요 작업형3의 범주형 데이터 분석(카이제곱 검정)의 적합도검정 설명에서 질문 드립니다.(2분 38초) 문제풀이에 대해 질문드립니다.문제를 풀기 위해서는 부산의 기대도수가 제시되어야 하지 않나요? 찍먹과 부먹의 비율로부산 0.6, 0.4이고 수원의 기대도수는 1,1,2,2,1 이라고 했을 때[3, 2] 부산의 기대도수가 제시되지 않은 상태에서수원의 기대도수 5를 부산에 그대로 대입하였는데이는 기대도수는 관찰하려는 도시(부산,수원)을 동일하게 맞췄기 때문인건가요. 왜냐하면 문제에서는 공교롭게도 부산의 60%, 40% -> 3:2비율과 수원의 60%, 40%->3:2비율이 동일하기 때문입니다. 즉, 수원이 5면 부산도 동일한 조건으로 해야 한다는 가정을 두는 것인가요? 부산에 경우 기대도수가 일반적으로 타 지역인 수원과 동일하지는 않습니다. 부산은 1,1,1,1,2처럼 수원과 다르게 나올 수 있습니다. 그럼 4, 1이 되니 총개수 5로 곱하면[0.8*5=4, 0.2*5=1]이 되어 부산[3,2]과 수원[4,1]의 빈도는 차이가 납니다. 하지만, 문제에서는 결과가 동일하게 나왔던데요 이처럼 뒷 부분을 이해하지 못했습니다.