66,000원
다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
강의 잘듣고 있습니다 질문있습니다 ~!!
가장오른쪽이 강의 그리고 2번째에 제가 고대로쓴건데 똑같이 써도 오류가 나옵니다 그래서3번째 이름을 다시만들로 다시했는데 또 그곳에선 됩니다 왜 어떤파일에선되고 어떤파일에선 안되는 건가요?? 사진이 안보이는것같네요 강사님께서 쓰신게 입력했는데 실행하는 파일에 따라서 어떤파일은 되고 또 어떤파일에서는 안됩니다 digit=3.1415 print( format(digit,".1f")) 복붙했습니다 다른 강의 때도 비슷한경우게 많아서 너무 화나서 ㅜ,ㅜ 질문을보내드립니다
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
네이버 주식 사이트 크롤링 관련 문의드립니다
바로 실전 크롤링해보기 :네이버 주식 사이트 크롤링하기 강의에서 인기검색종목을 크롤링하는 예제를 실습해보고 적용하기 위해 더보기를 들어가 인기검색어가 30개까지 나와 있는 페이지에서 각 항목들을 크롤링 하려했으나 실행이 되지 않았습니다. 작성한 코드는 이것이었습니다. import requests from bs4 import BeautifulSoup res=requests.get('https://finance.naver.com/sise/lastsearch2.nhn') soup=BeautifulSoup(res.content, 'html.parser') data=soup.select('#contentarea > div.box_type_l > table > tbody > tr:nth-child(3) > td:nth-child(2) > a') data 그러나 data를 출력했을 땐 [ ] 이런 식으로 빈 리스트만 나왔습니다. 구글링해본결과 페이지를 켰을 때 자바스크립트에 의해 동적으로 변동되는 페이지는 값을 불러올 수 없어 그런다는데 이 사례도 동일한 경우인지 궁금해서 문의를 남깁니다.
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
soup.find()에 대해서 질문드립니다...
강의 영상 11분경에 soup.find("h3")로 제목을 뽑아오셨는데 그 뉴스 사이트에서 소스창을 보면 h3를 검색했을 때 h3태그가 저 제목을 포함한 태그말고 다른 태그들도 있는데 왜 저 제목 태금만 가져온건가요?
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
38번 문제 질문드립니다 ㅜ
다음 리스트 변수에서 음수 데이터를 삭제하고, 양수만 가진 리스트 변수로 만들고, 해당 변수를 출력하세요. a = [0, -11, 31, 22, -11, 33, -44, -55] 이러한 문제입니다. 제가 낸 해답.a = [0, -11, 31, 22, -11, 33, -44, -55] for i in a: if i<=0: a.remove(i) print(i)답이 [0,31,22,-44,-55]가 나옵니다...개념이 안잡혀있는건지.... 왜 이렇게나오는지 도저히 모르겠네요 ㅠㅠ
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
IDE, 에디터 차이가 어떻게 되나요?
IDE로는 visual studio, Android Studio, Pycharm, Eclipse 등이 있고 에디터에는 VScode, webstorm, Atom, Editplus 등이 있잖아요 둘다 코딩하고 나서 컴파일을 할 수 있고 다양한 모듈을 설치해서 쓰는 것 같은데 둘의 차이점이 무엇인가요... 개념이 헷갈려서요... 그리고 anaconda는 에디터인지 IDE인지 궁금합니다. 아니면 단순히 라이브러리를 모아놓은 패키지일 뿐인건지도요
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
pip install 설치 원리가 어떻게 되나요...?
안녕하세요 강사님. 라이브러리 설치에 관해서 궁금한 것이 있습니다. 라이브러리를 쓰기 위해서는 미리 설치가 되어 있어야 한다고 하셨고 그래서 미리 설치를 하기 위해서 pip install 라이브러리명 으로 터미널에서 위 명령어를 실행시키잖아요 근데 라이브러리 설치는 어떻게 진행되는 것인지 궁금합니다. 1. 인터넷이 연결이 안되어 있으면 설치가 안되는 것인가요? 2. 인터넷이 연결이 되어 있어야 설치가 되는 것이면 어떻게 해당 명령어만으로 인터넷에서 끌어와서 설치가 되는 것인지 궁금합니다. 3. 인터넷이 연결이 안되어 있어도 설치가 된다면 컴퓨터에 애초에 파이썬이 설치 되어있을 때 같이 설치가 되었다는 뜻이지 않나요? 궁금합니다!!
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
import json 관련해서 문의드립니다
안녕하세요 선생님 지난번 강의에서는 import json을 넣은 후 코드를 돌렸었는데 이번 강의에서는 import json 없이도 코드가 돌아가는 부분이 궁금합니다 혹시 위쪽 cell 에서 돌린 이력이 있어서 그런가 했는데 노트를 아예 새로 만들어서 이번 강의(import json이 없는.. )코드를 돌려도 동일하게 잘 작동을 하더라구요. 어떤 경우에 import json을 해야하나요?? 좋은 강의 감사합니다.
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
strip함수 관련 질문 드립니다.
string1 = '.........computer' string2 = ' ..........computer' print(string1.strip('.')) print(string2.strip('.')) 에서 마지막 줄은 앞에 공백이 있어서 '.'이 삭제가 안되는 것 같은데, '.'를 삭제하는 건 같을텐데 왜 삭제가 안되는지 궁금합니다.
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
[참고] 크롤링 프로그램 완성: 크롤링한 데이터에서 다시 크롤링하기2
강의제목 - 크롤링 프로그램 완성: 크롤링한 데이터에서 다시 크롤링하기2 강의시간 4분 40초 부분에 나오는 지마켓 베스트 100의 판매업체 선택자 부분이 조금 바뀌어서 강의에 나온 코드대로 하면 크롤링이 안되요. 아래처럼 바꾸니 제대로 되요. 기존 판매업체 선택자 코드 provider_info = soup_info.select_one("div.item-topinfo > div.item-topinfo_headline > p > a > strong") 새로 바뀐 판매업체 선택자 코드 provider_info = soup_info.select_one("div.item-topinfo_headline span.text__seller > a")
- 파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
[참고]지마켓 베스트 100 크롤링, 판매업체 선택자 부분이 바뀌었어요
삭제된 글입니다
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
올려주셨다는 자료를 못 찾겠어요
안녕하세요. 생짜 초보, 문과 수강생입니다. 7강 6분28초 경에 수업자료를 다운받아서 쥬피터 노트북 파일로 옮기라고 하셨는데... 다운받은 파일이 맞는지 모르겠어요. 쥬피터 노트북으로 이동이 잘 안 되고, 이동을 했는데 강의에서 보이는 화면이 아닌 엉뚱한 화면이 나옵니다. 관련 화면 첨부합니다. 겨우 여기까지 왔는데... 더 못 가고 있습니다. ㅠㅠ
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
지마켓 크롤링
안녕하세요. 크롤링한 데이터에서 다시 크롤링하기 예제 중에 안되는 부분이 있는데 어떤 부분이 문제인지 모르겠습니다. 이전에 질문하기를 봤는데도 어떻게 해결하는지를 몰라서 질문합니다
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
개발가이드 > 샘플코드
안녕하세요 선생님 ! 지금 2021년 2월 16일에 강의를 수강하고 있는데요 ! 지금 정부 공공데이터 포털에서는 개발가이드 버튼탭이 없어서 요청주소와 python 샘플코드를 어디서 찾을 수 있을지 잘 모르겠습니다. 참고문서에 있는 docx에서 찾고자 하엿으나, 어디서 찾을 수 있는지 잘 모르겠어 이렇게 질문남깁니다 !
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
안녕하세요 선생님 !
항상 좋은 강의 감사합니다 ! 다른 것은 아니고, 크롤링을 위한 지식 : 정부 공공 데이터 오픈 API 활용법 강의에서, 개발가이드라는 탭을 눌러 Python 코드를 받을 수 있어야하는데, 개발가이드라는 탭을 찾을 수가 없어 어디서 찾으면되는 것인지 여쭙고자 질문합니다 !
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
TypeError: 'int' object is not callable 코드 에러 관련 질문
안녕하세요 선생님, 좋은 강의 항상 감사합니다. 위와 같은 문제가 있어 해결 방법을 구글에도 찾아보고 했으나 찾을 수가 없어 이렇게 질문 드립니다. 강의시간 3분39초 중 문제 풀이를 하던 와중 선생님과 같은 방법으로 하였음에도 불구하고 TypeError: 'int' object is not callable 문구와 함께 계속 되지 않아 이렇게 글 남깁니다. 시간되실때 답변 부탁드립니다 선생님, 감사합니다.
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
딕셔너리 키값과 밸류값이 이해가 잘 안갑니다 강사님!!
강사님, 안녕하세요 . 다름이 아니라 딕셔너리 강의 후 문제 풀이 과정에서 이해가 안되는 부분이 있어서 질문 드립니다. 키값을 i에 넣었다는 말은 딕셔너리의 키값(달러.위안,엔)이 들어있는 것이지요 ? 이것과 인풋으로 받아온 뒤의 스트링을 비교해서 값이 같을 경우 저는 딕셔너리 키 값 안의 밸류값과 곱해야 된다고 생각했는데.... 이렇게 안되더라구요 마지막 프린트에서 exexchange.values가 아니라 exchange[i]가 들어 가는 부분이 헷갈립니다. 도와주세요!
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
pip install json 이 터미널에서 설치가 안되면 아나콘다 재설치해야하는지?
주피터 터미널에서도 아나콘다 프롬프터에서도 pip install json을 하면 python -m install --upgrade pip 라고 떠서 저렇게 쓰면 그래도 계속 오류가 납니다.. 그래서 강사님의 코드를 그대로 쳐도 계속 에러메세지가 나와서 진도를 따라갈수가 없는 상태인데 이럴 경우 아나콘다를 다 지우고 다시 설치를 해야 하는것인지 어떤 문제인지 문의드립니다.. 인터넷으로 엄청 찾아보고 했는데 아무리 찾아도 pip install 여러번 해보고 conda update -n base conda conda update --all python -m pip install --upgrade pip conda --version 이거도 해봤는데 계속 안됩니다... ㅜㅜ 만일에 아나콘다 지우고 재설치하면 지금까지 있었던 c드라이브에 저장한 수업자료도 다 날라가는건지요? 만일 그러면 수업했던 코딩 자료는 백업해두고 아나콘다 지우고 재설치해야 하는걸까요?
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
강의 46강 8:09 지점 따라하기 시 결과가 나오지 않아 질문 드려요
안녕하세요 강사님, 교육 잘 듣고 있습니다 강의 자료 46강 과 같이 따라해보기를 하고 있는데 하기 처럼 하면 강사님 결과와 다른 결과가 나와 아래와 같이 하여 보니 "mydata"에 아무것도 들어와 있지 않은데 어떻게 하면 될까요? 참고로 저는 iOS환경에서 아나콘다에서 JupyterNotebook을 띠워 따라하기를 하고 있습니다 import requests from bs4 import BeautifulSoup res = requests.get('http://v.media.daum.net/v/20170615203441266') soup = BeautifulSoup(res.content,'html.parser') mydata = soup.find_all('span', 'text_info') mydata
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
인기검색종목 상승-하락 데이터 값이 안나옵니다.
안녕하세요 선생님, 대학에서 자바 수업만 듣다가, 파이썬에 관심이 생겨서 넘어온 학생입니다. 파이썬을 너무 알기 쉽게 설명해주셔서 덕분에 초반부터 여기까지 빠르게 달려올 수 있었습니다. 현재 오류는 인기검색종목 상승-하락이 나오지 않는 것인데요. 다른 분께서 같은 질문을 올려주셨고, 똑같이 실행해봤지만, 오류가 나왔습니다. <네이버 개발자 모드 - 인기검색종목의 1등 종목의 코드입니다.> <제 코드입니다. 아래 네가지 전부 다 오류나왔습니다.> 오류를 살펴보니, getText()가 실행이 되지않는다는 이유였는데요. 제가 시도해본 아래의 네 코드 전부 값을 포함하지 않고 있었습니다. (당연히 한 줄 씩 테스트 해보았고, 한 눈에 볼 수있게 하려고 네 줄을 한번에 캡쳐하였습니다.) getText() 함수를 제외하고 실행하였을 때, 'none' 값만 나옵니다. 해외 증시 부분을 크롤링 할 때는 '상승' '하락'이 잘 나오던데, 왜 인기 검색 종목은 안나올까요? 로드맵에 있는 선생님 후속 강의를 전부 결제해둔 상태인데, 혹시 이후에 제가 강의를 더 듣다보면 알 수 있는 방법이 나올까요? 혹은, 제 코드에 오류가 있는 것일까요? 아니면 사이트가 개편되면서, 뭔가 안되는 것일까요? 😞 감사합니다.
- 미해결파이썬입문과 크롤링기초 부트캠프 [파이썬, 웹, 데이터 이해 기본까지] (업데이트)
텍스트만 추출하기
드디어 막바지가 보이네요! 명강의 감사드립니다 ㅎㅎ 다른분들이 질문하신 것처럼, 크롤링했을 때 함께 추출되는 태그를 없애고 싶었습니다. '<b>갤럭시S21</b> 가격 19만원대 판매, S20 및 노트20 울트라 특가 프로모션' 원초적인 방법으로 해결하려고 우선 replace를 사용해서 해결은 했는데요, 만약 <b>태그 뿐만 아니라 더 복잡하게 많은 태그들이 있다면, 그걸 일일이 replace로 해결을 해야하나요? ㅠㅠ get_text()와 string이 안되는 원인을 찾다가, 이 메서드들은 BeautifulSoup의 메서드인 사실을 발견하고 import했지만, AttributeError: 'str' object has no attribute 'get_text' 이러한 에러가 여전히 발생했습니다. 새로운 기능이 추가되기 전까지 replace로 해결을 해야하는지 아니면 다른 방법이 있는지 궁금합니다 ! 구글링을 더이상 해봐도 진전이 없어서 질문드립니다 ㅠㅠ 아래는 제 코드입니다. import requests from bs4 import BeautifulSoup import openpyxl client_id = '비공개' clinent_secret = '비공개' start, num = 1, 0 excel_file = openpyxl.Workbook() excel_sheet = excel_file.active excel_sheet.column_dimensions['B'].width = 100 excel_sheet.column_dimensions['C'].width = 100 excel_sheet.append(['랭킹', '제목', '링크']) for index in range(10): start_number = start + (index * 100) naver_open_api = 'https://openapi.naver.com/v1/search/news.json?query=갤럭시 S21&display=100&start=' + str(start_number) header_params = {"X-Naver-Client-id": client_id, "X-Naver-Client-Secret": clinent_secret} res = requests.get(naver_open_api, headers=header_params) if res.status_code == 200: data = res.json() for item in data['items']: num += 1 title = item['title'].replace('<b>', '').replace('</b>', '') excel_sheet.append([num, title, item['link']]) else: print("Error Code", res.status_code) excel_file.save('Crawling.xlsx') excel_file.close() print('엑셀처리 완료')