66,000원
다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
Question 4 중 58번 오류 문의
안녕하세요, 제공해주시는 여러가지 좋은 문제들을 열심히 풀어보며 프로그래밍 초초급에서 벗어나고자 노력중인 수강생입니다 ㅎㅎ 항상 좋은 강의 감사드립니다. 다름이 아니오라, question 4의 58번 문제를 풀의 전 혼자 풀어볼 때도 계속해서 'str' object is not callable이라는 오류가 계속 뜨더러라구요, 구글링을 해보니 str을 변수명을 지정한 경우 이런 오류가 뜬다던데, 저는 str을 변수명을 칭하지 않았기 때문에 어리둥절 했습니다. 여러 고민을 하다, 결국 풀이를 보게 되었는데, 제공해주시는 풀이법(첨부파일)도 시행을 하니 같은 오류가 떠서 질문 해봐야겠다 생각했습니다! 이와 관련된 질문이 이미 있을 줄 알았는데 없더라구요ㅠ 제 파일만 이상한건지ㅠㅠ 오류 해결에 도움주시면 정말 감사하겠습니다!
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
지마켓 크롤링 마지막 강의 코드 중에서 질문
수업의 마지막에 설명하시고 제공해 주신 코드 아래 중에서 ------------------------------------------------------- import requests, openpyxl from bs4 import BeautifulSoup excel_file = openpyxl.Workbook() excel_sheet = excel_file.active excel_sheet.append(['랭킹', '상품명', '판매가격', '상품상세링크', '판매업체']) excel_sheet.column_dimensions['B'].width = 80 excel_sheet.column_dimensions['C'].width = 20 excel_sheet.column_dimensions['D'].width = 80 excel_sheet.column_dimensions['E'].width = 20 res = requests.get('http://corners.gmarket.co.kr/Bestsellers?viewType=G&groupCode=G06') soup = BeautifulSoup(res.content, 'html.parser') bestlists = soup.select('div.best-list') bestitems = bestlists[1] products = bestitems.select('ul > li') for index, product in enumerate(products): title = product.select_one('a.itemname') price = product.select_one('div.s-price > strong') <== 여기 코드에서 가격을 추출한 문자열 중에서 숫자만 추출하고싶은데 어떻게 하는지요? .... --------------------------------------------------------
- 해결됨파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
쉽게 복사 붙여넣기 하는 커맨드?
문제 풀이 하실때 사용한 키보드 키가 어떻게 되나요? :)? 복사 붙여넣기를 너무나도 쉽게 하시는데 컨트롤 + A는 아닌것같아서요..!! ㅜㅜ!!
- 해결됨파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
regularexpression 주피터 노트북 자료 오류
강의 잘 듣고 있습니다. 거의 다 듣고 마지막쪽에 나오는 정규표현식의 코딩 자료중에서 ''' from urllib.request import urlopen from bs4 import BeautifulSoup import re for index in range(1, 2): res = urlopen('https://www.seeko.kr/zboard4/zboard.php?id=mainnews&page=' + str(index) + '&select_arrange=headnum&desc=asc&category=&sn=off&ss=on&sc=off&keyword=&sn1=&divpage=10') soup = BeautifulSoup(res, "html.parser") data = soup.find_all('td', 'article_subject') for item in data: print (item.get_text()) ''' 위의 코드가 실행시 크롤링 오류가 납니다. 웹사이트 접근이 안된다고 하는데, 확인 바랍니다. 강의따라서 코딩하면서 학습하는데 오류가 나오니 진도가 잘 안나가네요..
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
코드 해석 부탁드립니다 ㅎㅎ :)
안녕하세요, 강사님 올려주신 파일에서 가장 아래부분에 도전과제를 하는 중인데요 아래 코드의 정확한 해석을 듣고 싶어서 질문 드립니다. if each_row[0].row == 1: 제가 해석한 바로는 each_row[0].row 라는 코드가 데이터가 채워진 가장 왼쪽열의 마지막 행 번호를 출력하는것 같던데 이렇게 해석해도 될까요? 강의 항상 잘 보고 있습니다!
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
python-question4-web 의 57번 질문입니다.
안녕하세요. 차근차근 설명 잘 해주셔서 강의 잘 듣고있습니다^^ 질문드립니다. 문제를 풀며 가장 자연스럽게 익숙해지는 파이썬 기본: 반복문과 다양한 데이터구조 활용2 의 16:00정도의 내용입니다. 아래 data.keys()에서 keys()를 제외한 'for item in data'로 코드를 돌려도 같은 결과가 나오는데 keys()를 꼭 쓰는 이유가 무엇인지 궁금합니다. for item in data.keys() data 블라블라.... 감사합니다. 즐거운 하루 되세요!
- 해결됨파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
print 와 return 기능의 차이
안녕하세요. 본 강의 (7:08) 부분에서 질문드립니다. 함수를 생성하고자 할때, 실행문에서 print와 return 기능의 정확한 차이가 뭔지 궁금합니다. 예를면 본 예제에서, return 대신 print로 작성하여도, print_hello() 를 실행하면 똑같이 hello가 출력되는데, 굳이 return 을 사용해야하는 이유가 있나요..? 또한 return 사용후 함수 print_hello()를 다시 변수 result_hello로 받지 않아도, 되지 않나요..? return을 쓰고 함수를 다시 새로운 변수를 받는 코드가 더 복잡해 보이기도 해서요..! - 더불어, 강의 잘 듣고 있습니다 ^^ 좋은 강의 정말 감사드립니다!
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
strip관련 질문입니다.
안녕하세요 강사님 6분 18초 관련 질문입니다. strip을 이용해서 문자열을 삭제하고 싶은데 앞,뒤 뿐만 아니라 "중간"에 위치한 문자열도 삭제하고 싶으면 split으로 분리한 후 삭제해야하나요? ex) a='99Dave99Dave99' a.strip('99') 'Dave99Dave' 이런 경우에서요!
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
int 형 변수선언이 안되는데 왜일까요??
data1 = int(input()) --------------------------------------------------------------------------- TypeError Traceback (most recent call last) <ipython-input-26-85989b5eb5b1> in <module> ----> 1 data1 = int(input()) TypeError: 'str' object is not callable
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
find와 select 호환 사용에 대하여.
안녕하세요^^ 먼저 좋은 강의 해주셔서 큰 도움 받고 있는 수강생입니다. 쉽게 설명해주셔서 순식간에 강의를 들으며 여기까지 왔습니다. 강의 내용을 따라해보던 중, 아래와 같은 코드로 설명해주신 부분을 따라하고 있었는데요. import requests from bs4 import BeautifulSoup res=requests.get('https://finance.naver.com/sise/') soup=BeautifulSoup(res.content, 'html.parser') data=soup.select('div.rgt > ul.lst_major > li') for item in data: print(item.find('a').get_text(),item.find('span').get_text(),item.find('em').get_text()) 맨 아랫줄에서 find 대신 select도 되는지 넣어보았는데, find를 모두 select로 바꿔 넣으면 아래와 같은 에러가 뜹니다. AttributeError: ResultSet object has no attribute 'get_text'. You're probably treating a list of elements like a single element. Did you call find_all() when you meant to call find()?그래서 select를 사용하면 get_text()를 사용할 수 없다는 의미 같아서요. 아래와 같이 다시 작성해보았는데요. import requests from bs4 import BeautifulSoup res=requests.get('https://finance.naver.com/sise/') soup=BeautifulSoup(res.content, 'html.parser') data=soup.select('div.rgt > ul.lst_major > li') for item in data: data1=item.select('a') print(data1.get_text()) 이렇게 해도 같은 에러메세지가 떠서요. 혹시 select 하에 select를 또 사용하는게 잘못된건가요? 또는 제가 select를 잘못 활용하고 있는것인가요? 해당 부분을 강의 다시 들었는데도 잘 모르겠어서 질문 드립니다. 따라하며 배우니 재미있게 잘 왔지만, 응용하려면 아무래도 더 많은 시간 고민하고 공부해야겠다는 생각이 드네요. ^^;
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
페이지 주소가 바뀌지 않는 경우
안녕하세요 강사님 4분 2초 와 관련한 질문입니다. 1페이지부터 10페이지까지의 상품 목록을 크롤링할때 페이지 주소가 변경되는 것을 이용해서 for문을 작성해서 추출하셨는데, 어떤 사이트는 1페이지에서 2페이지로 목록을 넘기더라도 주소창이 동일하더라구요 이런 경우에는 여러개의 페이지에 있는 목록을 크롤링 하고 싶으면 어떻게 하나요? 아래 주소가 첫번째 페이지 주소이고, http://www.saramin.co.kr/zf_user/search?search_area=main&search_done=y&search_optional_item=n&searchType=default_mysearch&cat_cd=309 아래가 두번째 페이지 주소입니다. http://www.saramin.co.kr/zf_user/search?search_area=main&search_done=y&search_optional_item=n&searchType=default_mysearch&cat_cd=309 "강의와 관련되지 않는다고 생각하시면 답변 남겨주시지 않아도 괜찮습니다!"
- 해결됨파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
개발자모드 질문
안녕하세요. 강사님 사진 중 왼쪽 창(검은색)이 제가 직접 들어간 강사님 사이트의 개발자 모드이고 오른쪽이 강의화면인데, 왼쪽 창에서는 class 는 보이는데 id는 보이지 않습니다. jupyter에서는 예제대로 실행해도 무리없이 잘 작동되지만 id="start"나 id="begin" 같은 것들이 보이게끔 하는 방법이있는지 궁금합니다.
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
In[15]셀에 표시된 1 의미가 궁금합니다
In[15]셀에 표시된 1 의미가 궁금합니다
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
input에러에 대해 질문입니다
강의를 보면 input안에 입력칸이 떠야 합니다. 그런데 실제로 해보니 계속 실행을 하고 있다는 *표시는 뜨는데 input입력칸이 안뜨고 다음 셀로 넘어 갑니다. 어떻게 해결해야 하는건지 궁금합니다
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
감사 * 질문
너무 재밌게 잘보았습니다. 배운 내용 써보는게 너무 재밌어서 1주일간 잠을 제대로 못잤습니다. 헌데, 궁금한점이 하나 있습니다.클래스101의 데이터 강좌와 인프런 강좌중 어떤 것을 들어야할지 고민이네요. 시간이 많다면야 인프런의 데이터 강좌를 단계별로 천천히 듣고싶은데, 현실이 그렇지가 못해서 말입니다. 클래스 101 강좌를 우선 듣고 실무에 써야할 것은 일단 쓰고, 인프런 강좌는 천천히 보고싶은데 제가 잘못생각하는 부분이 있다면 알려주세요.
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
라이브러리 실행 오류 문제입니다ㅠㅠ
라이브러리 실습 중에서 'googletrans' 이용해서 하는 부분에서 오류가 납니다. 터미널에서 pip install googletrans 하고 설치 확인 후 import 했는데 모듈이 없다는 오류가 떠서 주피터셀에서 ! pip install googletrans 실행 후 오류없이 돌아가는걸 확인했는데 갑자기 다시 해보려니까 --------------------------------------------------------------------------- AttributeError Traceback (most recent call last) <ipython-input-49-936b1565202d> in <module> 1 from googletrans import Translator 2 a = Translator() ----> 3 word=a.translate('안녕.', dest='en') 4 word.text C:\ProgramData\Anaconda3\lib\site-packages\googletrans\client.py in translate(self, text, dest, src, **kwargs) 180 181 origin = text --> 182 data = self._translate(text, dest, src, kwargs) 183 184 # this code will be updated when the format is changed. C:\ProgramData\Anaconda3\lib\site-packages\googletrans\client.py in _translate(self, text, dest, src, override) 76 77 def _translate(self, text, dest, src, override): ---> 78 token = self.token_acquirer.do(text) 79 params = utils.build_params(query=text, src=src, dest=dest, 80 token=token, override=override) C:\ProgramData\Anaconda3\lib\site-packages\googletrans\gtoken.py in do(self, text) 192 193 def do(self, text): --> 194 self._update() 195 tk = self.acquire(text) 196 return tk C:\ProgramData\Anaconda3\lib\site-packages\googletrans\gtoken.py in _update(self) 60 61 # this will be the same as python code after stripping out a reserved word 'var' ---> 62 code = self.RE_TKK.search(r.text).group(1).replace('var ', '') 63 # unescape special ascii characters such like a \x3d(=) 64 code = code.encode().decode('unicode-escape') AttributeError: 'NoneType' object has no attribute 'group' 이런 알수도없는 오류창이 떠서ㅠㅠ 도저히 어떻게 해아할지 감이 안잡히네요 도와주세요ㅠㅠㅠ
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
strip()에서 공백을 포함할 때와 포함하지 않을 때 차이
(1) ' 000550\n# '.strip('\n#') : 이렇게('\n#') 코드를 실행하면 원래 문자열 그대로 출력되는 데요, (2) ' 000550\n# '.strip(' \n#') : 공백을 포함하면(' \n#') 의도한 데로 '000550' 이 출력됩니다. 왜 공백을 포함해야 특정 문자가 삭제되나요? 공백의 유무에 의해
- 해결됨파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
웹 크롤링
여기까지 매우 재밌게 보았습니다. 실습중에 궁금한건, bs4로는 '더보기'가 있는 웹페이지는 크롤링이 불가능한지요? 구글링해보니 selenium 이라는 라이브러리가 있던데, 이 다음단계 강의에서 이 부분도 추가로 다루는지 궁금합니다
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
nonetype object
안녕하세요 ! 패턴으로 실습하며 익히기 : HTML 이해를 바탕으로 크롤링하기 강좌 12:11 을 주피터 노트북에서 실행하던 중에 class_ 를 이용해서 데이터의 문자열만 추출하려고 string함수를 적용시켰더니 'NoneType' object has no attribute 'string' 이라는 오류가 떠서요. 혹시 이런 경우는 왜 발생하는걸까요..?
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
강좌 코드가 실행이 안됩니다.
파이썬버전 3.8.3이고요 import requests from bs4 import BeautifulSoup res = requests.get("https://davelee-fun.github.io/blog/crawl_test") soup = BeautifulSoup(res.content, "html.parser") section = soup.find("ul", id = "dev_cource_list") 여기까지는 실행됩니다. 그 후로 안됩니다. 버전문제일까요? titles = section.find_all("li","course") AttributeError Traceback (most recent call last) <ipython-input-46-b1221549ad55> in <module> ----> 1 titles = section.find_all("li","course") AttributeError: 'NoneType' object has no attribute 'find_all'