묻고 답해요
161만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
단일표본검정(wilcoxon검정)
stats.wilcoxon(df['무게']-120, alternative = 'less')에서 alternative = 'less'가 이해가 안됩니다.관측값(실제값)이 왜 더 작아야 하나요?
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
작업형2 연습문제 섹션 3 질문
섹션3. 항공권 가격 예측 시, 탐색적 데이터 분석과정에서 describe로 unique 카테고리가 동일하지 않다면 이 강의에서는 데이터를 삭제시켰는데, 삭제시키지 않고, df = pd.concat([train, test])df = pd.get_dummies(df)train = df.iloc[:len(train)]test = df.iloc[len(train):] 이 과정을 사용해도 괜찮나요?
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
84강 csv파일 링크
시험환경의 문제가 변경되었는지 파일을 찾을수없습니다. 어떻게 하면 될까요?
-
미해결[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
연습문제 3형도 ~~
바쁘시겠지만 올려주시면 감사하겠습니다 ㅠㅠ
-
미해결[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
f1_score
안녕하세요 항상 강의 잘 보고있습니다 몇가지 궁금한게 생겨서 질문하고싶은데 전에 강의 들을때 f1스코어 에서 pos_label을 붙이셨던걸 봤는데 이걸 붙이고 안붙이고는 어떻게 판별해야 할까요?from sklearn.metrics import f1_scoref1= f1_score(y_val, pred[:,1], pos_label='>50K') average=macro는 왜 붙이는건지 알수 있을까요? 혹시 macro나 pos_label처럼 뒤에 따로 붙여야 하는 평가지표가 있다면 또 알려주실수 있을까요?감사합니다
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
하이퍼파라미터 튜닝 default값 문의
안녕하세요.하이퍼파라미터 튜닝 관련 질문있습니다. 강의에서는 XGBClassifier 하이퍼파라미터 튜닝값 의 기본값이 max_depth=3, learning_rate=0.1 이라고 말씀해주셨어요. 제 학습환경도 동일하게 코랩인데, 기본값이 다른 것 같아요. 결과를 비교해보니, 저는 max_depth=6, learning_rate=0.3이 기본값인 것 같고, gpt에 물어봐도 동일한 답변이 나옵니다. (아래 gpt답변 참고) 강의 촬영시점과 달라서 그런걸까요?시험환경에서는 기본값이 또 다를까요? 그러면 시험환경에서는 기본값 의존하지말고 그냥 하나하나 값을 직접 찍어보는게 좋을까요?
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
소괄호, 중괄호, 대괄호 사용법
(), {},[] 사용법 알려주세요. 너무 헷갈려요.
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
''와 "" 차이
df['메뉴'].isin(["녹차"])'메뉴', "녹차" 작은따옴표와 큰따옴표 차이가 어떻게 다른건가요??
-
해결됨[2025년 최신 기출 반영] 빅데이터 분석 기사 실기 시험 100% 합격 ! 기출 문제의 패턴이 보인다 !
원핫인코딩 이후 칼럼 불일치 문제
체험환경 2유형을 푸는데 원핫인코딩이후에 칼럼수가 달라져서 from sklearn.preprocessing import MinMaxScalerscaler = MinMaxScaler()x_tr_scaled = scaler.fit_transform(x_tr)x_val_scaled = scaler.transform(x_val)#test2_scaled = scaler.transform(test2) >>>> 여기서 칼럼불일치로 에러가 납니다어떻게 해결해야하나요? 추가로, 원핫인코딩이후에 정규화를 꼭 해줘야하는지도 궁금합니다.원핫인코딩하면 0,1뿐이라 이미 정규화가 된게 아닌가해서요~
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
함수 오류 모르겠어요
listbox = [15, 46, 78, 24, 56] def min_max(data): mi = min(data) ma = max(data) return mi, ma a, b = min_max(listbox) print(a,b)--------------------------------------------------------------------------- TypeError Traceback (most recent call last) /tmp/ipython-input-3854204748.py in <cell line: 0>() 5 return mi, ma 6 ----> 7 a, b = min_max(listbox) 8 print(a,b) /tmp/ipython-input-3854204748.py in min_max(data) 2 def min_max(data): 3 mi = min(data) ----> 4 ma = max(data) 5 return mi, ma 6 TypeError: max() takes 0 positional arguments but 1 was given학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요!최대값, 최소값 구하는데 쌤하고 똑같이 했는데 왜 오류가 나지요?
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
melt 대괄호
학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요!질문과 관련된 영상 위치를 알려주면 더 빠르게 답변할 수 있어요먼저 유사한 질문이 있었는지 검색해보세요melt함수에서 [ ] 대괄호를 붙인것도 안붙인 것도 있는데, id_vars는 꼭 붙인다 처럼 정해진 것이 있나요? var_namevalue_varsvalue_name
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
f1 score
학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요!질문과 관련된 영상 위치를 알려주면 더 빠르게 답변할 수 있어요먼저 유사한 질문이 있었는지 검색해보세요target 값이 문자형일 경우 양성 레이블을 설정해줘야 하는 평가지표는 f1 score 밖에 없는 건가요?
-
미해결[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
라벨인코딩을 했더니 F1 Score가 1.0이 나옵니다..
실제 시험에서 너무 정확한 점수(높은)가 나오면 과적합을 의심해야 할까요?import pandas as pd # 다중분류 문제 train = pd.read_csv("https://raw.githubusercontent.com/lovedlim/inf/refs/heads/main/p2/drug_train.csv") test = pd.read_csv("https://raw.githubusercontent.com/lovedlim/inf/refs/heads/main/p2/drug_test.csv") target = train.pop('Drug') # train, test 둘다 결측치 없고, 종류수 같음 cols = train.select_dtypes(include='object').columns # baseline # train = train.drop(cols, axis=1) # test = test.drop(cols, axis=1) # one-hot # train = pd.get_dummies(train, columns = cols) # test = pd.get_dummies(test, columns = cols) # Label from sklearn.preprocessing import LabelEncoder for col in cols: le = LabelEncoder() train[col] = le.fit_transform(train[col]) test[col] = le.transform(test[col]) # 학습 데이터 분리 from sklearn.model_selection import train_test_split X_tr, X_val, y_tr, y_val = train_test_split( train, target, test_size=0.2, random_state=0 ) # 모델 학습 from sklearn.ensemble import RandomForestClassifier model = RandomForestClassifier(random_state=0) model.fit(X_tr, y_tr) pred = model.predict(X_val) # 모델 성능평가 from sklearn.metrics import f1_score score = f1_score(y_val, pred, average='macro') print("F1 Score: ", score) # baseline F1 Score: 0.5535714285714286 # one-hot F1 Score: 0.8809523809523809 # Label F1 Score: 1.0 # 모델 예측 pred = model.predict(test) pd.DataFrame({ 'pred': pred }).to_csv('result.csv', index=False) pd.read_csv('result.csv')
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
실기 체험환경에서 결과값 관련 질문입니다.
필기 합격하고 실기 준비에 답답했었는데 강사님 덕분에 빅분기 실기 재밌게 잘 준비하고 있습니다. 실기 체험환경에서 유형3을 하고 있는데요.회귀분석에서 새로운 값을 가정했을 때,신뢰구간과 예측구간을 묻는 문제에서print(pred.summary_frame())이것의 결과값이 길어서 중간에 '...' 으로 나오는데 전부 다 보려면 어떻게 해야 되나요강의 어느 부분에서 방법을 말씀해 주셨었는데강의 어느부분인지 기억이 안나요..
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
스케일링
혹시 스케일링에서는 인코딩과 다르게 for col in cols:를 따로 하지않아도 되는 이유가 있나요?
-
해결됨[2025년 최신 기출 반영] 빅데이터 분석 기사 실기 시험 100% 합격 ! 기출 문제의 패턴이 보인다 !
6회 1유형 3번 문제
아직 method 속 수많은 attribute들에 익숙해지지 않아서 쓰는 것만 쓸려다 보니문제가 복잡해질수록 코드를 복잡하게 작성하게 되네요.6회 1유형 3번 문제로 예를 들자면,같은 경우도 lambda가 먼저 떠오르지 않고 str.split로 어떻게든 해보려하고..axis 쓰신 부분이 이해가 가지않아 transform 쓰려다 포기하고..결국 이렇게 풀었습니다.df['yr']=df['날짜'].apply(lambda x : x[0:4]) df['mth']=df['날짜'].apply(lambda x : x[6:8]) df['sum']=df['전자제품']+df['가전제품']+df['의류']+df['잡화'] c2018 = (df['yr']== '2018') d2018 = df[c2018] g2018 = d2018['sum'].sum() d2018['gsum'] = g2018 c2019 = (df['yr']== '2019') d2019 = df[c2019] g2019 = d2019['sum'].sum() d2019['gsum'] = g2019 c2020 = (df['yr']== '2020') d2020 = df[c2020] g2020 = d2020['sum'].sum() d2020['gsum'] = g2020 c2021 = (df['yr']== '2021') d2021 = df[c2021] g2021 = d2021['sum'].sum() d2021['gsum'] = g2021 c2022 = (df['yr']== '2022') d2022 = df[c2022] g2022 = d2022['sum'].sum() d2022['gsum'] = g2022 df = pd.concat([d2018, d2019, d2020, d2021, d2022]).reset_index() df = df.sort_values('gsum', ascending=False).reset_index() t2021= df.loc[0, 'gsum'] a2021= t2021/12 print(int(round(a2021,0)))분명 더 쉽게 풀 수 있을 거 같은데머리 속에는 테이블을 하나하나 분리해서 다시 조각조각 붙일 생각만 드네요. 혹시 이 문제 str.split 혹은 transform 써서 풀어주실 수 있으신가요?강의 영상에는 대부분 가장 명료한 가지 방법으로만 풀어주시는데몇몇 방법들은 교재와 chatgpt를 사용해도 이해가 어렵습니다.
-
미해결[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
섹션4. 이직 여부 예측 질문
코딩이 실행이 안되는 이유가 궁금합니다.import pandas as pd train = pd.read_csv("https://raw.githubusercontent.com/lovedlim/inf/refs/heads/main/p2/hr_train.csv") test = pd.read_csv("https://raw.githubusercontent.com/lovedlim/inf/refs/heads/main/p2/hr_test.csv") target=train.pop('target') train=train.fillna('X') test=test.fillna('X') df=pd.concat([train,test],axis=0) df=pd.get_dummies(df) train=train.iloc[:len(train)].copy() test=test.iloc[len(train):].copy() from sklearn.model_selection import train_test_split X_tr,X_val,y_tr,y_val=train_test_split(train,target,test_size=0.2,random_state=0) from sklearn.ensemble import RandomForestClassifier rf = RandomForestClassifier(random_state=0) rf.fit(X_tr, y_tr) pred = rf.predict_proba(X_val) pred = rf.predict_proba(test)
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
문제 4-3 8번
해당 문제를 아래와 같이 풀었습니다. # your code import pandas as pd df = pd.read_csv("https://raw.githubusercontent.com/lovedlim/inf/main/p1/members.csv") df=df.fillna(method='bfill') df=df.groupby(['city','f2']).sum().reset_index() df=df[['city','views']].sort_values(by='views',ascending=False) df= df.reset_index(drop=True) df=df.loc[2:2] df print("대구")해당 마지막 코드인 df=df.loc[2:2]를 통해서 정답이 '대구'인걸 눈으로 확인했는데 해당 값만 추출하는 것을 몰라 마지막에 print를 활용해서 정답을 '대구'로 출력했는데 이와 같은 경우 괜찮은지 질문드립니다.
-
미해결[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
bfill
학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요!질문과 관련된 영상 위치를 알려주면 더 빠르게 답변할 수 있어요먼저 유사한 질문이 있었는지 검색해보세요df = df.fillna(method='bfill') df = df.bfill() ffill도 마찬가지로선생님, 왕초보의 질문인데요..! bfill과 fillna(method='bfill')이 완전히 똑같은 기능을 하나요?그렇다면, fillna(method='bfill') 가 조금 더 코드가 긴데, fillna 를 까먹지 않도록 이걸로 알려주시는 걸까요?
-
미해결[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
작업형 1_문제3
안녕하세요, 저는 알려주신 코드와 동일하게 작성한 것 같은데, 결과 값이 'id'로 나오는데 뭐가 문제일까요 import pandas as pd df = pd.read_csv("https://raw.githubusercontent.com/lovedlim/inf/refs/heads/main/p1/members.csv") df = df.isnull().sum() print(df.sort_values(ascending=False)) print(df.index[0]) 11:06초먼저 유사한 질문이 있었는지 검색해보세요