묻고 답해요
161만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨<머신러닝, 핵심만 빠르게!> 완독 챌린지
챌린지 강의 영상 업로드
안녕하세요. 해당 챌린지 자체에는 따로 강의 영상이 없는지 혹은 아직 업로드 전인지가 궁금합니다. 온라인 강의 7개는 다 수강한 상태입니다.
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
[작업형1] 연습문제 섹션21 ~ 30중 no.27
[문제]Section 27. 시간 범위, 속도(km/h)점심시간(10시부터 13시 전까지)에 주문된 배달 데이터를 찾으시오.점심시간 주문 건 중 과속(평균 속도가 50km/h 이상)하는 주문 수를 정수로 구하시오.배달시간 = 실제도착시간 - 주문시간속도(km/h) = 거리(km) / 시간(h)[질문] 정답이 '1'이 아닌 21이 계속 출력되는데, 문제점을 못찾겠어요. import pandas as pd df = pd.read_csv("https://raw.githubusercontent.com/lovedlim/inf/refs/heads/main/p1/delivery_time.csv") df['주문시간']= pd.to_datetime(df['예상도착시간']) df['실제도착시간']= pd.to_datetime(df['실제도착시간']) df['예상도착시간'] = pd.to_datetime(df['예상도착시간']) # 점심시간(10시부터 13시 전까지)에 주문된 배달 데이터를 찾으시오. df['시간']=df['주문시간'].dt.hour con1= df['시간'] >= 10 con2= df['시간'] < 13 df= df[con1&con2] # 점심시간 주문 건 중 과속(평균 속도가 50km/h 이상)하는 주문 수를 정수로 구하시오. df['배달시간'] = df['실제도착시간']- df['주문시간'] # 배달시간 = 실제도착시간 - 주문시간 # 속도(km/h) = 거리(km) / 시간(h) ## dt.total_seconds()/60 :분단위 ## dt.total_seconds()/60/60 : 시간단위 df['배달시간']= df['배달시간'].dt.total_seconds()/60/60 df['속도'] = df['거리']/ df['배달시간'] sum(df['속도']>= 50)
-
해결됨AI 시대 대체되지 않는 실리콘밸리 인턴십 및 미국 빅테크 시스템 디자인 & 오픈소스 실무 기여 완성 코스
14강. 영화 DVD 대여 시스템 데이터베이스 스키마 설계에서 Inventory 테이블 질문있습니다.
현재 강의에서는 Inventory table을 따로 분리해두었습니다.그런데 Inventory Table을 분리한 이유에 대해 말씀해 주실 때, 분리하는 게 좋다고만 말씀해주신 것 같아서 설명이 부족하다는 생각이 들었습니다. Inventory가 재고라는 의미를 가지는 것으로 알고 있어서 items table에 있는 수량을 Inventory로 옮기는 것이 더 옳은 설계가 아닌가라는 생각이 들었습니다.물론 지금 강사님께서 설명해주신 구조도 맞다고 보지만, 그 구조를 유지한다면 현재 Inventory table에 유의미한 칼럼이 없기 때문에 Inventory table이 없어야 하지 않나라는 생각을 했습니다. 그리고 재고가 자주 바뀌는 상황이 발생한다고 한다면 오히려 Inventory table에 재고를 넘겨줘야한다고 생각을 하는데요. 왜냐하면 Items table에 재고 칼럼이 있다면 재고가 바뀌는 순간에는 Items table의 데이터를 수정할 수 없게 됩니다. 그러면 관리자가 Item을 수정하려고 할 때, 재고가 많이 바뀌는 상황에는 그만큼 수정 쿼리가 대기를 하게 될 것이라고 생각하는데요. (물론 이 정도까지의 문제는 생기지 않을 것이라고 생각합니다.) 또한 이 글에서 강사님께서 말씀해주신 유형별 재고 관리 정책 부분은 Inventory가 재고라는 성격을 나타낸다는 점에서 Inventory table에서 관리할 것 같고, 트래픽 증가 시 성능 문제가 생긴다면 여기서 또 테이블 분리를 시도하거나 레디스 같은 memory DB를 생각해볼 수 있을 것 같습니다. 그래서 질문은현재 재고 칼럼의 위치를 어디에 두는 게 맞는지, 트래픽 증가의 성능 문제가 있다면 오히려 Inventory 테이블로 넘겨주는 게 맞는게 아닌지유형별 재고 관리 정책이 필요한 경우에 강사님께서 생각하시는 확장성 있는 구조는 무엇인지가 궁금합니다. 혹시 제가 잘못 알고 있거나 잘못 이해한 부분이 있다면 같이 짚어주시면 감사하겠습니다!
-
미해결빅데이터분석기사 실기 R 올인원: 3주에 끝내는 완벽 대비
시험때 질문
1유형때는 꼭 print로 결과가 나와야하나요? 3유형에서는 그냥 summary 보고 쓸 수 있으면 쓰라고 하시는데 1유형에는 그런 말씀이 없으셔서요!그리고 2유형에서는 파라미터를 변경을 꼭 해야 할지... 와 XGBoost와 LightGBM 모델을 꼭 해야 할지 그냥 틀 하나 외우고 하는게 나을지 싶어서요 채점 기준이 어떻게 되는것일까요? 안 해도 원하는 방향대로 파일 저장만 된다면 합격이 되는 것일까요?
-
해결됨AI로 만드는 패션 브랜드 올인원 - GPT, 미드저니
학습자료실
프롬프트 복사해서 해보려는데 학습자료실이 어디에 있는건가요??
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
데이터 전처리 질문
학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요!질문과 관련된 영상 위치를 알려주면 더 빠르게 답변할 수 있어요먼저 유사한 질문이 있었는지 검색해보세요안녕하세요 실제시험에서 제가 선생님처럼 데이터전처리하면서 커스터머아이디를 드랍할 여유가 없을것같은데 그냥 타겟에다가 팝만 하면 안될까요? 그러면 아예 오답이 돼버릴까요?
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
코드 제출 질문
1.코드를 이렇게 작성했는데 시험환경에서 이 상태로 바꿀것 없이 그냥 제출 버튼 누르면 되는건가요?2.원핫인코딩 진행시 데이터가 10,000개가 넘어가서 45초정도 걸리는데 레이블인코딩을 진행할시 코드는 df로 concat하고 그대로 레이블인코딩 진행 후 다시 나누어 주면 되나요?import pandas as pd train = pd.read_csv("https://raw.githubusercontent.com/lovedlim/inf/refs/heads/main/p2/flight_train.csv") test = pd.read_csv("https://raw.githubusercontent.com/lovedlim/inf/refs/heads/main/p2/flight_test.csv") # print(train.info()) target = train.pop('price') # print(train.shape, test.shape) df = pd.concat([train,test]) df = pd.get_dummies(df) train = df.iloc[:10505,:] test = df.iloc[10505:,:] # print(train.shape, test.shape) # 라벨인코더 # from sklearn.preprocessing import LabelEncoder # cols = train.select_dtypes(include = 'object') # for col in cols: # le = LabelEncoder() # train[col] = le.fit_transform(train[col]) # test[col] = le.transform(test[col]) # 데이터 분리 from sklearn.model_selection import train_test_split X_tr, X_val, y_tr, y_val = train_test_split(train,target,test_size=0.2,random_state=0) # 랜덤포레스트 from sklearn.ensemble import RandomForestRegressor rf = RandomForestRegressor(random_state = 0) rf.fit(X_tr, y_tr) pred = rf.predict(X_val) # # LightGBM # import lightgbm as lgb # lg = lgb.LGBMRegressor(random_state = 0, verbose=-1) # lg.fit(X_tr,y_tr) # pred = lg.predict(X_val) #평가지표 RMSE from sklearn.metrics import root_mean_squared_error rmse = root_mean_squared_error(y_val, pred) # print(rmse) # 원핫 + 랜포 = 3779.676969452687 선택 # 원핫 + LGB = 4216.406340322749 pred_final = rf.predict(test) # 제출 submit = pd.DataFrame({'pred':pred_final}) submit.to_csv('result.csv',index=False) pd.read_csv('result.csv')
-
미해결모두를 위한 대규모 언어 모델 LLM(Large Language Model) Part 1 - Llama 2 Fine-Tuning 해보기
LLM 기반 문서 유사도 산출 가능성 관련 문의드립니다
안녕하세요.LLM 관련 강의 잘 듣고 있습니다. 실무 적용에 많은 도움이 되고 있어 감사드립니다.강의 내용과 직접적인 연계는 아니지만, 강의를 듣는 중 궁금한 점이 생겨 문의드립니다.현재 문서 분류 강의를 들으며 생각해본 부분인데, LLM을 이용해 문서 분류가 가능한 것처럼, 퍼지 해시(Fuzzy Hashing)처럼 문서 간 유사도를 하나의 점수 형태(예: 0~100, 혹은 정규화된 점수 등)로 산출하는 것이 가능한지 궁금합니다.점수가 의미론적 유사도이든, 어떤 방식이든 상관없이, LLM이 두 문서를 입력받아 정량적 점수(Scoring Output)를 생성할 수 있는지 알고 싶습니다.만약 가능하다면, 어떤 방식으로 접근하는 것이 적절한지(예: 모델 형태, 프롬프트 전략, 파인튜닝 여부, 평가 기준 등), 방향성을 조언해주시면 도움이 될 것 같습니다.참고로 제가 언급한 퍼지 해시(Fuzzy Hashing)는 다음 개념을 의미합니다.퍼지 해시는 일반적인 해시 함수와 달리, 입력 데이터가 일부 변형되더라도 서로 유사한 해시 값을 생성하여 문서 또는 파일 유사도를 비교하기 위한 기술입니다.조언 주시면 감사하겠습니다.좋은 강의 계속 기대하겠습니다.감사합니다.
-
미해결[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
데이터 전처리(인코딩)
강의에서 '데이터 전처리2(인코딩, 스케일링)' 부분 중 인코딩 부분에 대해 질문드립니다. 영상 중 7분 50초 쯤에 심화 내용으로 train, test 데이터를 concat으로 합쳐서 원핫 인코딩을 하는 방법이 있다고 하셨습니다. 그런데 학습 과정에 이 합쳐진 데이터를 넣어서 해도 되는건가요? test 데이터를 모델에 넣어서 학습시키는게 맞는건지 헷갈려서 질문드립니다.
-
해결됨수익형 AI Agent n8n 전문가 강의, 블로그·쇼츠 자동화
모바엑스텀 비밀번호 잃어버리면 못찾나요?
모바엑스텀 비밀번호 잃어버리면 못찾나요?
-
해결됨수익형 AI Agent n8n 전문가 강의, 블로그·쇼츠 자동화
파이썬 오류시
파이썬 및 vs코드가 안되면 그냥 이부분만 자료를 다운받아서 사용해도 무방한가요?
-
해결됨수익형 AI Agent n8n 전문가 강의, 블로그·쇼츠 자동화
블로그 글쓰기에서 관련url넣는방법은없나요?
블로그 글쓰기에서 관련url넣는방법은없나요?파이썬 다운로드라는 키워드로 글을 작성시 중간중간에 파이썬 공식홈페이지 바로가기등 url을 만들수는 없는지, 아니면 이건 수동으로해야하는지 궁금합니다
-
해결됨수익형 AI Agent n8n 전문가 강의, 블로그·쇼츠 자동화
블로그 자동화
질문드릴꼐 있는데, 다만든것을 에어테이블에 원하는 키워드를 넣어서 셋팅하고, 몇시간마다 자동으로 글쓰게 설정할수있나요?
-
해결됨수익형 AI Agent n8n 전문가 강의, 블로그·쇼츠 자동화
n8n docker-compose.yml 관련 질문
안녕하세요강의 내용에는 제공해 주신 파일 중 아래 부분이 없는데 이부분을 넣는 것이 맞나요 빼는 것이 맞나요?확인부탁드립니다 - N8N_CORS_ORIGIN=https://n8n.도메인주소 - WEBHOOK_URL=https://n8n.도메인주소 - N8N_EDITOR_BASE_URL=https://n8n.도메인주소 - N8N_HOST=n8n.도메인주소이
-
미해결
챌린지 강의 영상 업로드
안녕하세요. 해당 챌린지 자체에는 따로 강의 영상이 없는지 혹은 아직 업로드 전인지가 궁금합니다. 온라인 강의 7개는 다 수강한 상태입니다.
-
미해결회사에서 바로 쓰는 업무자동화 AI 에이전트 (w. n8n, LangGraph)
source 실행 부분에서 저는 bin 폴더가 없어요..
streamlit run email_agent.py는 실행되는데 타이틀이 안 나오드라고요. source 부분 실행할 때 bin이 없어서 Scripts로 했어요. source 부분 실행하면 붉은 글씨로 실행이 안되네요.
-
미해결실리콘밸리 데이터 리더가 알려주는 Airflow 기초
forloop으로 task 정의시 task_id 정해지는 로직
안녕하세요. 49강 수강 중 질문이 있습니다. for table_name in TABLES.keys(): extract_from_postgres(postgres_schema, table_name) >> load_to_snowflake(snowflake_schema, table_name)현재 강사님이 주신 이 코드 기준 테이블 2개 tasks 2개 해서 총 4개의 tasks가 airflow tasks list의 결과로 반환되었는데요, 이때의 결과물인 tasks_id가 어떻게 만들어지는지 궁금합니다.조금 더 정확히는 forloop으로 task를 정의할 때 어떤 식으로 DAG가 이 task의 개수를 세고 네이밍을 하는지 궁금합니다.혼자 테스트를 해보고 싶어서 임의의 테이블 하나를 postgres:production에 추가하고 코드내부의 TABLES 딕셔너리에 제가 추가한 테이블의 스키마를 추가하였습니다. 이때 테이블이 총 3개가 되었으므로 airflow tasks list의 결과가 총 6개가 될 것으로 예상하였는데 여전히 4개로 나옵니다. 제가 놓친 부분이 있을까요?현재 production schema아래 3개의 테이블이 있는 상태입니다.airflow=# SELECT table_name FROM information_schema.tables WHERE table_schema = 'production' AND table_type = 'BASE TABLE' ORDER BY table_name; table_name ------------------------ session_timestamp user_session_channel user_session_channel_2 (3 rows)감사합니다. 학습 관련 질문을 상세하게 남겨주시면 더 좋습니다. 예를 들어 이해가 안 가는 부분이 있다고 하면 강의에서 어느 부분인지 어떤 부분이 이해가 안되는지 등등 추가 정보가 큰 도움이 됩니다. 그리고 에러가 난다면 어떤 에러 메시지가 나오는지 같이 공유해주세요. 혹시라도 유사한 질문이 있었는지 먼저 확인 부탁 드리겠습니다. 서로 예의를 지키며 존중하는 문화를 만들어갔으면 하고 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요.
-
미해결디버깅으로 배우는 RISC-V 아키텍처 -2부
Exception 과 trap 계념 설명이 이상하네요
10. Exception: RISC-V 레퍼런스 문서 분석 에 6분 40 초에서 나와 있는 excetpion 은 trap 을 포괄하는 계념이라고 하셨는데 , 그 근거를 알려주세요... arm spec 도 아니고 risc-v spec 을 에도 분명이 다르게 설명되어 있는데... "트랩(trap)이라는 용어를, 예외나 인터럽트로 인해 트랩 핸들러로 제어가 전환되는 상황을 나타내는 데 사용합니다."
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
10f질문
안녕하세요시간이 별로 남지 않아 일단 강의만 후루루룩 본 상태라 이제 중요사항만 다시 반복하려고 합니다ㅠ pd.set_option('display.float_format, '{:.10f}.format()제 기억엔..이거랑 하나 더 있었던 것 같은데 외우라고 하셨는데ㅠ 강의를 일단 후루룩 본 상태라서ㅠ어디 강의에서 말씀하셨는지 기억이 잘 안나네요ㅠ (혹시 알 수 있을까요..) 그리고 저 코드랑 비슷한거 하나 더 해서 외우라고 하셨는데.. 그 나머지 하나랑.... 저게 어떤 상황에서 쓰는 코드인지 다시 질문드립니다데이터가 저런 식으로도 자주 나오는지도 궁금합니다! 좋은 강의 항상 감사드립니다!
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
test.pop
학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요!질문과 관련된 영상 위치를 알려주면 더 빠르게 답변할 수 있어요먼저 유사한 질문이 있었는지 검색해보세요기출7회 작업형 3 강의 때는 accuracy_score 구할 때, target = test.pop('gender')을 하는 단계가 있었는데요, (아래코드)from sklearn.metrics import accuracy_scorefrom statsmodels.formula.api import logit# 데이터셋 분할train = df.iloc[:210]test = df.iloc[210:]# 1) 학습, test데이터를 사용해 예측 (0.5 미만: 0, 0.5 이상 1)model = logit("gender ~ weight", data=train).fit()target = test.pop("gender")pred = model.predict(test) > 0.5# 2) 실제 값과 예측 값을 사용하여 정확도 계산acc = accuracy_score(target, pred)# 3) 오류율 계산print(round(1-acc,3)) 지금 예시문제에서는 따로 없어서 작업형 3에서는 어떨 때 target = test.pop('gender') 를 해야하는지 궁금해요.