파이썬입문과 크롤링기초 부트캠프 [쉽게! 하지만, 견고한 자료로!]

파이썬입문과 크롤링기초 부트캠프 [쉽게! 하지만, 견고한 자료로!]

(14개의 수강평)

298명의 수강생

44,000원

24 개월
입문, 초급
수료증
75개 수업, 총 16시간 34분
위시리스트 추가
빨간색코끼리 프로필

반복문 질문입니다. 빨간색코끼리 2일 전

data = list()
for index in range(7,10):
    data.append("string")
print(data)

이 코드를 출력하면 ['string', 'string', 'string'] 이렇게 나오는데요. range(7,10)이면 index에 7,8,9가 들어가잖아요. 그럼 data라는 리스트에 append를 하면 리스트의 6,7,8번째에 값이 들어가야하는거 아닌가요? 앞에 0~5 번째 리스트의 값은 공백으로 들어가야하는거 아닌가요??

data = ["","","","","",'string','string','string'] 이런식으로요.

근데 data[0], data[1], data[2] 를 출력해보면 모두 string으로 나오거든요. 6,7,8번째 값이 들어가는게 아니라 0,1,2번째에 값이 들어가요. 왜그런건가요??

0
yhj3754 프로필

PIP 실행 불가 관련 질문드립니다. yhj3754 4일 전

안녕하세요, 강사님 추석 잘보내시고 계신가요. 풍성한 한가위 되시길 바랍니다.CMD에서 'pip'은 내부 또는 외부 명형, 실행할수 있는 프로그램 , 또는 배치 파일이 아닙니다 라는 문구가 뜨면서 진행이 안되는데 혹시 어떤 이유로 그런건지 알수 있을까요?

1
심수정 프로필

강의자료 심수정 14일 전

강의자료를 다운로드 받을수 있나요 ?

 

1
winter-breaker 프로필

urllib 에러가 발생합니다 winter-breaker 22일 전

from urllib.request import urlopen

from bs4 import BeautifulSoup

 

res = urlopen("https://seeko.kr/zboard4/zboard.php?id=mainnews")

soup = BeautifulSoup(res, "html.parser")

 

data = soup.find_all("td", "article_subject")

for item in data:

    print(item.get_text())이 에러가 발생하는데 jupyter에서 해결하는 방법이 무엇이 있을까요? 

 

stackofflow에서는 터미널에서 해결 방법을 제시하는데...

1
김명수 프로필

쥬피터 노트북 런칭이 안됩니다. 김명수 23일 전

수업 이외에도 파이썬을 혼자 학습하면서 안되는 부분을 여쭤봐도 될까요?

이 부분에 대해서는 추가비용을 드려야 할까요? 

항상 감사합니다:) 

 

1
오리그냥그냥 프로필

복합크롤링 실전예제에서 질문있습니다!! 오리그냥그냥 27일 전

먼저 강의를 잘 해주셔서 많은 도움 받고 있습니다 감사드립니다.

제가 질문드리고 싶은 것은  강의 내용에서는 잘 실행이 되는데 제가 직접해보니 get_text() 오류가 뜹니다.

제가 확인해보니 G마켓 연락처를 출력하는 부분에서

#vip-tab_detail > div.vip-detailarea_productinfo > table:nth-child(3) > tbody > tr:nth-child(9) > td

이 부분이 몇개의 상품에서는 

#vip-tab_detail > div.vip-detailarea_productinfo > table:nth-child(3) > tbody > tr:nth-child(5) > td

이렇게 되어있어서 이 부분을 해결하기 위해서는 어떻게하면 될까요??

 

혹시 이런 문제를 해결하는 방법이 여러가지라면 자세히 설명 부탁드리겠습니다!!

 

1
허지원 프로필

exercise 48. 이중반복문에서..요..! 허지원 1달 전

혹시 이렇게 삼중 반복문은 실행이 안되는건지
궁금해서 여쭤봅니다..

직접 주피터에 적어보니..

에러가 뜨더라구요 ㅎㅎ..

 

dongs = ["6209동", "6208동", "6207동"]

hos = ["101호", "102호", "103호", "104호"]

whos = ["지원이집", "민주네집", "슬기네집", "보영이네집"]

<code>

for index in dongs:

    for index_2 in hos:

        for index_3 in whos:

            print(index, index_2, index_3):

1
이세준 프로필

주피터 노트북 사용 관련하여 질문드립니다. 이세준 1달 전

강의 잘 듣고 있습니다. 

그런데 제가 주피터 노트북을 사용해서 연습문제를 푸는 와중에 shift+Enter를 통해서 코드가 실행이 되질 않습니다.

새로운 문서를 다시 작성하는 경우에는 또 얼마간 되다가 또 유사한 애러가 발생하더라고요 ;;;

구글링을 해봐도 명확한 해결 방안이 없어서 이렇게 질문을 드리는 건데

좋은 해결책이 있을까요?

 

감사합니다. 

1
Wonda Jeong 프로필

크롤링 관련 저작권 문제 Wonda Jeong 1달 전

크롤링 관련 다른 영상을 보다가 크롤링한 정보를 타사이트에 게재하면 

저작권으로 신고가 될 수 있다는 말을 들었습니다. 

좀 더 알아본 결과 상업적인 목적으로 이용하는 게 아니라면 굳이 신고까지 하지 않는 것 같기는 한데

강사님께서는 오랜기간 크롤링을 하신거 같아 저보다는 더 실무적으로 잘 아실 거 같은데 

크롤링을 한 정보를 제 사이트에 가공해서 올려 놓는 게 문제가 될 수 있는건가요? 

혹시 문제가 된다면 추가 강의나 공지글을 통해서 이러한 사항에 대해 언급해주시면 좋을것 같습니다. 

강의 잘 듣고 있습니다. 어제부터 시작해서 8강 남겨 놓고 있네요. 귀에 쏙쏙 박히는 설명 감사합니다^^

 

1
마광운 프로필

reverse함수 사용 시.. 마광운 1달 전

아래와 같이 reverse함수를 사용해서 내림차순 정렬을 시키면, 결과값이 이상하게 출력됩니다.

-----------------------------------------

numbers2 = [2,8,5,4]

print(numbers2)

numbers2.reverse()

print(numbers2)

 

결과값 : [4, 5, 8, 2]

-----------------------------------------

str1 = ['abc','ghi','def']

print(str1)

str1.reverse()

print(str1)

 

결과값 : ['def', 'ghi', 'abc']

--------------------------------------------

대체 이유가 뭘까요..?

1
HAENARA SHIN 프로필

Gmartket 크롤링 하기 get_text() 에러 질문 드립니다. HAENARA SHIN 1달 전

# 저는 다음과 같이 구문을 작성했습니다. 상품의 각 그룹이 아니라, 쥐마켓의 베스트 상품 코너를 클릭하면 나오는 첫 페이지(ALL 항목)의 상품들을 크롤링 하려고 했습니다. 해당 페이지의 주소는 'http://corners.gmarket.co.kr/Bestsellers' 였고, 그래서 해당 주소를 입력했습니다. 가격도 받아보고 싶어서 해당 구문을 삽입했고요.

하지만 get_text()에러가 다시 발생했고, 강의 처럼 쥐마켓의 베스트 상품 코너 중 아무 상품 그룹을 클릭해서 크롤링하면 정상적으로 출력이 됨을 확인했습니다. 아래 코드 처럼 작성하면 왜 get_text()에러가 발생하는지(첫 번째 상품은 출력이 되지만 두 번째 상품부터 에러가 발생합니다.), 그리고 어떻게 해결해야 하는지 궁금합니다.

감사합니다!

import requests
from bs4 import BeautifulSoup

res = requests.get('http://corners.gmarket.co.kr/Bestsellers')
soup = BeautifulSoup(res.content, 'html.parser')
titles = soup.select('div.best-list li a.itemname')
for title in titles:
    if len(title.get_text()) > 0:
        # print(title.get_text(), title['href'])
        res_sub = requests.get(title['href'])
        soup_sub = BeautifulSoup(res_sub.content, 'html.parser')
        price_real = soup_sub.select_one('#itemcase_basic > p > span > strong')
        contact_name = soup_sub.select_one('#vip-tab_detail > div.vip-detailarea_productinfo > table:nth-child(3) > tbody > tr:nth-child(4) > td')
        contact_num = soup_sub.select_one('#vip-tab_detail > div.vip-detailarea_productinfo > table:nth-child(3) > tbody > tr:nth-child(9) > td')
        print(title.get_text(), title['href'], price_real.get_text(), contact_name.get_text(), contact_num.get_text())

2
ASMR둑비 프로필

파일 다운로드 ASMR둑비 1달 전

6분57초에 해당 파일은 어떻게 다운받는건가요??

1
HAENARA SHIN 프로필

AttributeError: 'NoneType' object has no attribute 'get_text' (공공 데이터 - 미세먼지 - 크롤링) 에러 질문 드립니다. HAENARA SHIN 1달 전

# 선생님 코드와 'stationname' -> 'cityName', 'pm10grade' -> 'pm10Value' 만 다를 뿐 (인증키 등 기본 정보도 다릅니다만) 유사한 코드를 작성했지만 get_text 에러가 발생했습니다. 처음에 print(res.text)를 해보니 해당 항목의 이름이 바뀌어서 저도 바꿨습니다. 
발생한 에러에 대한 구글 검색을 해보니 BeautifulSoup 에러 라는 말들이 보이긴 하는데, 왜 발생했고 어떻게 해결해야 할지 잘 모르겠습니다.

아래는 제가 작성한 코드 입니다.

import requests
from bs4 import BeautifulSoup

service_key = '발행한 인증키 값을 넣었습니다'
params = '&numOfRows=10&pageNo=1&sidoName=서울&searchCondition=DAILY'
open_api = 'http://openapi.airkorea.or.kr/openapi/services/rest/ArpltnInforInqireSvc/getCtprvnMesureSidoLIst?ServiceKey=' + service_key + params

res = requests.get(open_api)
soup = BeautifulSoup(res.content, 'html.parser')

data = soup.find_all('item')
for item in data:
    cityname = item.find('cityName')
    pm10grade = item.find('pm10Value')
    print(cityname.get_text(), pm10grade.get_text())

3
kwonokun 프로필

크롤링 초보 kwonokun 1달 전

안녕 하세요. 파이썬 크롤링 베이직 강의를 듣고 있는 사람입니다.

아래와 같은 에러를 해결 하려면 어떻게 해야 하나요??

패턴으로 실습하며 익히기: CSS selector 사용해서 크롤링하기1

https://www.inflearn.com/course/Python-crawling-basic/lecture/21277

 

아래와 같이 파일 공유 드립니다.

 

import requests

from bs4 import BeautifulSoup

 

res = requests.get('https://news.naver.com/main/read.nhn?mode=LSD&mid=shm&sid1=101&oid=011&aid=0003599217')

soup = BeautifulSoup(res.content, 'html.parser')

 

data= soup.select("#articleBodyContents > strong.media_end_summary")

 

print (data)

""" 

print (data) 했을 경우

 --> 결과 [<strong class="media_end_summary">국토부, 다음주 초 세부안 발표</strong>]

 "국토부, 다음주 초 세부안 발표" 이렇게 나오게 하려면 어떻게 해야 하나요??

 

 

print (data.strip()) , print (data.get_text())  을 사용 했을 경우 아래와 같이 에러 발생

 

AttributeError                            Traceback (most recent call last)

<ipython-input-44-87a19c7b0277> in <module>

      8 

      9 print (data)

---> 10 print (data.strip())

     11 

     12 data1= soup.find_all("#articleBodyContents > strong.media_end_summary")

 

AttributeError: 'list' object has no attribute 'strip'

 

""" 

 

data1= soup.find_all("#articleBodyContents > strong.media_end_summary")

for a in data1:

    print(a)

        

data2= soup.find("#articleBodyContents > strong.media_end_summary")

print(data2) 

 

"""

find, find_all을 사용 하였으나 아래와 같이 None 이라고 됩니다

이유가 궁금합니다

None

 

"""

2
이종원 프로필

아나콘다 네비게이터에 주피터가 없음. 이종원 1달 전

아나콘다 네비게이터를 실행했을 때 바로 보이는 툴이...VS Code 뿐입니다.

강좌에서는 여기에서 jupyter를 실행하고 진행하던데요.

윈도우 비트수 확인해서 정확히 설치했고, 4번 정도 삭제 후 재설치 해봤는데 VS Code만 보이는데요.

 

혹시 이런 케이스 또 없었는지 질문드립니다.

2