묻고 답해요
160만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결[신규 개정판] 이것이 진짜 크롤링이다 - 실전편 (인공지능 수익화)
44강 제목, 링크
안녀하세요.홈페이지가 구조가 바뀌어서 강의랑 화면구조가 일치하지 않는데 어떻게 코드를 작성해야 제목과 링크가 나올까요? 어떻게 수정해야 될지 문의드립니다.
-
해결됨(2025) 일주일만에 합격하는 정보처리기사 실기
줄바꿈
14:21 줄바꿈 표시가 없는데 줄바꾸는 이유는 뭘까요?!
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
파일합치기 관련하여 문의드립니다.
안녕하세요.2회기출문제의 경우 특이하게 train데이터가 2개로 나뉘어 제공되었는데 concat 함수로 작업을 하셨는데 id가 공통적으로 있긴 하지만, 동일한 순서로 되어있는지 알수 없어서 merge 함수를 사용하여 on = "id" 옵션을 추가하여 train데이터를 하나로 만들었는데concat, merge, join 어떤 걸 사용해도 괜찮을까요 ? 언제나 답변해주셔서 감사합니다 :)
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
강의 연장 관련하여 문의드립니다.
안녕하세요. 퇴근후딴짓 빅데이터 분석기사 실기를 수강중인 학생입니다. 다름이 아니라 빅데이터 분석기사 실기 시험이 11월29일인데 강의 만료일이 11월13일이라 실기 시험 전 16일동안 강의를 듣지 못하네요. ㅠㅠ 시험전까지 동영상을 복습하면서 시험을 준비했으면 하는데요. 시험일까지 수강 기간을 연장할 수 있는지 문의드립니다.감사합니다.
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
범주형 변수의 회귀계수
학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요!질문과 관련된 영상 위치를 알려주면 더 빠르게 답변할 수 있어요먼저 유사한 질문이 있었는지 검색해보세요안녕하십니까? 해당 강의 내용 중 회귀계수가 아래처럼 나오게 되는데 그럼 여기서 유형 A에 대한 회귀계수를 알고 싶으면 어떻게 해야하나요?summary로는 유형A의 회귀계수는 보는방법은 없을까요?
-
미해결Airflow 마스터 클래스
3.0에서도 수업노트가 성립하는지 확인 부탁드립니다!
뒷 강의(Bash Operator에서 Jinja template 사용하기)의 수업 노트에 다음의 내용이 나오는데요.이 강의의 수업노트가 잘 이해되지 않았었는데 관련이 있을까요?data_interval_start 값과 data_interval_end 값이 동일하게 나오도록 변경되었습니다.
-
해결됨(2025) 일주일만에 합격하는 정보처리기사 실기
23년 2회 C언어 29분 질문입니다
정렬 구현에 관한 문제 이다 라는데 이건 무조건 오름차순 인가요? 정답이 < 면 내림차순도 가능한데 오름차순이라고 봐야 할까요?
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
작업형2 연습문제 질문사항
작업형2 연습문제 "노트북 가격 예측"에서결측치 처리를 위해 범주형 컬럼에서는 "X"값으로 대체, 수치형 컬럼에서는 -1 값으로 대체하였는데 결측치 처리시 어떤 기준으로 해야하는 지표가 있을까요? 통일성있게 적용하고 싶습니다.
-
해결됨(2025) 일주일만에 합격하는 정보처리기사 실기
12. switch-case문 강의에서 4:30 질문입니다.
에서 for(int i =0 ; i < 3; i++) 여기 질문인데요i가 3 미만인데 73, 95, 82 를 더하나요?3이 안되기 때문에 3개를 못더하는 거 아닌가요?
-
미해결Airflow 마스터 클래스
task_id 사용법이 뭔가 바뀐 것 같습니다.
@task만 쓰거나inner 함수에 return을 하거나multiple_outputs=True 옵션(이건 안해봄)으로 해결되는 것 같습니다. 로그는 다음과 같습니다.Timestamp: 2025-11-01 19:54:50 Traceback (most recent call last): File "<attrs generated methods airflow.sdk.bases.decorator._TaskDecorator>", line 37, in init _setattr('multiple_outputs', __attr_factory_multiple_outputs(self)) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "/home/airflow/.local/lib/python3.12/site-packages/airflow/sdk/bases/decorator.py", line 328, in _infer_multiple_outputs if "return" not in self.function.annotations: ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ AttributeError: 'str' object has no attribute 'annotations'. Did you mean: 'contains'?
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
예시문제 작업형2
예시문제 작업형2에서 레이블 인코딩을 하려고 합니다.이전 수업에서 했던 방식대로# 인코딩(레이블)cols = test.select_dtypes(include='object').columnsprint(cols)# from sklearn.preprocessing import LabelEncoder# le = LabelEncoder()# for col in cols:# train[col] = le.fit_transform(train[col])# test[col] = le.transform(test[col])# print(train.info())# print(test.info()) 이렇게 진행했는데 왜 오류가 뜰까요? 강의랑 다르게 cols에 주구매상품, 주구매지점, 환불금액까지 나오긴 했습니다. 혹시 결측치를 mode로 채워서 그런걸까요 ..?
-
미해결FastAPI 완벽 가이드
비동기처리와 멀티스레드
안녕하십니까 강사님! 오늘도 감사히 강의를 듣고 있습니다.fastapi는 비동기처리로 효율적으로 처리한다해서 자바쪽은 어떻게 할까 궁금해서 조사만 해봤는데 멀티스레드로 병렬처리로써 효율적으로 처리한다고 알게되었습니다.그러나 궁금한 점이 생겼습니다. fastapi에서 io작업같이 오래 걸리는 부분에 비동기 처리를 하는건 이해했는데 왜 단순 서비스로직 같은 경우에서는 비동기처리를 사용안하는지 궁금합니다.제 생각에는 단순히 생각해서 모든 처리를 비동기처리 해도 될 거 같은데 왜 그렇게 안하는지 어떠한 부분에서 문제가 발생할 수 있는지 궁금합니다.또한 만약에 비동기처리를 안하고 동기처리로 할때 멀티스레드로 하는지도 궁금합니다.아니면 혹시 서비스 로직같은 단순 cpu연산을 사용할때는 워낙 연산 속도가 빠르니 비동기처리와 동기처리가 속도차이가 없어서 그러한 부분들을 고려하지 않아도 되는지 이런 차이들이 궁금합니다! 항상 좋은 강의 감사드리며 정말 저에겐 소중한 강의입니다!
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
실기 체험환경에서 신뢰구간 구할때
학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요!질문과 관련된 영상 위치를 알려주면 더 빠르게 답변할 수 있어요먼저 유사한 질문이 있었는지 검색해보세요안녕하세요? 실기 체험환경에서 신뢰구간 구할때 결과가 이렇게 나오면 신뢰구간을 보려면 어떻게 하나요?3,4번째 컬럼을 따로 지정해서 봐야하나요??
-
미해결프로그래밍 시작하기 : 도전! 45가지 파이썬 기초 문법 실습 (Inflearn Original)
질문입니다.
연습 삼아 이것 저것 해보다 궁금한 점이 있어 질문 드립니다. 위 와 같이 코딩을 했을 때,다음과 같이 출력이 됩니다.print(ex1)으로 했을 경우에는 리스트 형태로 출력이 되는데 반해, print(ex1.append(i * 10) 형태일 때는 None으로 출력이 되는걸까요?
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
수강기간 멈춤 가능한가요?
학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요!질문과 관련된 영상 위치를 알려주면 더 빠르게 답변할 수 있어요먼저 유사한 질문이 있었는지 검색해보세요 안녕하세요, 이번 11/29 빅분기 시험을 사정상 보기 어려워져서학습기간 멈춤를 신청하고 싶은데 최대 몇개월 학습 중단이 가능할까요?내년 3월이후 다시 준비해서 시험을 치뤄야 될 것 같습니다.
-
미해결[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
시험장 환경
시험장에서 자동완성은 어디까지 가능한가요? 미리정의한 변수명은 tab으로 자동완성이 되나요?함수들도 궁금합니다. 감사합니다!
-
해결됨(2025) 일주일만에 합격하는 정보처리기사 실기
continue와 pass 차이점
예시만 봤을 때는 continue와 pass의 차이점이 명확히 구분되지 않는 것 같아 질문드립니다. 1.continue: if문에 해당하여 continue를 만나면 (print가 있다는 가정하에) 출력하지 않고 다음 반복으로 넘어감 pass: if문에 해당하여 pass를 만나면 그 부분만 지나가고 (print가 있다는 가정하에) 밑에 출력은 실행함 저는 이렇게 이해하고 있는데 오류가 있을까요? 2.pass 예제2번에 else 없이 print(i)만 있었더라면 3도 출력이 되는건가요?
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
여러 줄 한꺼번에 주석처리
하는 방법이 있을까요?? 강의에서는 슉슉 빠르게 되는 것이 신기해서 여쭤봅니다!
-
미해결프로그래밍 시작하기 : 파이썬 입문 (Inflearn Original)
print(id(m) == id(n)) --> False
저는 False 가 나옵니다.찾아보니 False가 정상이고 True는 캐싱으로 설명이 나옵니다. (256보다 큰 숫자이므로 작은 정수 캐싱 범위에 해당하지 않음)강사님 설명 부탁합니다. m = 800 n = 800 print(id(m)) print(id(n)) print(id(m) == id(n))
-
미해결[신규 개정판] 이것이 진짜 크롤링이다 - 실전편 (인공지능 수익화)
원하는 값이 없을 때
안녕하세요 강의 잘 수강하고 있습니다.현재 subject, link, content, press, date를 추출하는데 만약 해당 값들 중 하나가 없다면 검증은 어떤 식으로 하시나요??제가 생각한 방법은 pydantic으로 검증하여 해결할 수 있지 않을까 생각하는데 너무 오버엔지니어링인지 강사님은 어떻게 유연하게 처리하는지 궁금합니다. 예시를 들기 위해 pydantic으로 한 코드 첨부합니다. from typing import Annotated import requests from bs4 import BeautifulSoup from urllib.parse import urljoin, urlencode from datetime import datetime from pydantic import AfterValidator, BaseModel, HttpUrl, field_validator def non_empty_str(v: str) -> str: s = (v or "").strip() if not s: raise ValueError("빈 문자열입니다.") return s def valid_url(url: str) -> str: try: response = requests.get(url) # throw error if status 4xx, 5xx response.raise_for_status() return url except Exception as _: raise ValueError("유효하지 않은 URL입니다.") def valid_date(date: str) -> str: v = (date or "").strip() if not v: raise ValueError("빈 문자열입니다.") try: datetime.strptime(v, "%Y-%m-%d %H:%M:%S") return date except ValueError: raise ValueError("유효하지 않은 날짜 형식입니다.") class NewsItem(BaseModel): subject: Annotated[str, AfterValidator(non_empty_str)] detail_article_url: Annotated[str, AfterValidator(valid_url)] content: Annotated[str, AfterValidator(non_empty_str)] press: Annotated[str, AfterValidator(non_empty_str)] article_date: Annotated[str, AfterValidator(valid_date)] ROOT = "https://finance.naver.com/" PATH = "news/mainnews.naver" def get_news_page_url(page: int, date: str): base_url = urljoin(ROOT, PATH) query_string = urlencode({"date": date, "page": page}) return f"{base_url}?{query_string}" def get_detail_news_url(path): return urljoin(ROOT, path) def get_current_date(format: str ="%Y-%m-%d") -> str: now = datetime.now() return now.strftime(format) def crawl_news_per_page(soup: BeautifulSoup): result = [] news_per_page = soup.select(".block1") for article_card in news_per_page: # subject subject = article_card.select_one(".articleSubject > a").text # detail article link detail_article_url = get_detail_news_url(article_card.select_one(".articleSubject > a").get("href")) # content content_tag = article_card.select_one(".articleSummary") content = content_tag.contents[0].strip() press = content_tag.select_one(".press").text.strip() article_date = content_tag.select_one(".wdate").text.strip() new_item = NewsItem(subject=subject, detail_article_url=detail_article_url, content=content, press=press, article_date=article_date) result.append( new_item.model_dump() ) return result def crawl_all_news(page_total_count: int, date: str): result = [] for page in range(1, page_total_count + 1): request_url = get_news_page_url(page, date) response = requests.get(request_url) soup = BeautifulSoup(response.text, "html.parser") result.extend(crawl_news_per_page(soup)) # 마지막 페이지 검증 if (not soup.select_one(".pgRR")): break return result all_news = crawl_all_news(20, get_current_date()) print(all_news)