무료
다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결이것이 진짜 크롤링이다 - 기본편
csv 파일로 저장까지 되는데 한칸에 한글자씩 나옵니다
현재 m1맥북 사용중인데 csv 파일로 저장할경우 셀 한칸에 한글자씩 입력이되고 데이터가 neme, price, link 가 아닌 name price link name price link 이렇게 아래로 데이터가 저장됩니다. 어떻게 해야할까요?
- 미해결이것이 진짜 크롤링이다 - 기본편
추가 질문드립니다.
import requests from bs4 import BeautifulSoup import openpyxl fpath = r"C:\Users\OWNER\Desktop\python\주식.xlsx" wb = openpyxl.load_workbook(fpath) ws = wb.active codes = [ '005930', '000660', '035720' ] row = 2 for code in codes : url = f"https://finance.naver.com/item/sise.naver?code={codes}" response = requests.get(url) html = response.text soup = BeautifulSoup(html,'html.parser') price = soup.select_one('#_nowVal').text price = price.replace(',', '') print(price) wb.save(fpath) 값이 빈어서 출력이 됩니다...
- 미해결이것이 진짜 크롤링이다 - 기본편
질문 드립니다..
import requests from bs4 import BeautifulSoup import openpyxl fpath = r"C:\Users\OWNER\Desktop\python\주식.xlsx" wb = openpyxl.load_workbook(fpath) ws = wb.active codes = [ '005930', '000660', '035720' ] row = 2 for code in codes : url = f"https://finance.naver.com/item/sise.naver?code={codes}" response = requests.get(url) html = response.text soup = BeautifulSoup(html,'html.parser') price = soup.select_one('#_nowVal').text price = price.replace(',','') print(price) ws[f'B{row}'] = int(price) row = row + 1 wb.save(fpath) 어떤오류인지 알 수가 없어서요..
- 미해결이것이 진짜 크롤링이다 - 기본편
네이버 로그인시 id 칸에 아이디 패스워드 이런식으로 나옵니다 패스워드
아래와 같이 코딩을 했는데요 ㅜㅜ 왜 결과물이 ㅠㅜㅠ 뭐가 잘못되었을까요? 결과물 이미지 입니다. 코드 입니당. from selenium import webdriver from selenium.webdriver.chrome.service import Service from selenium.webdriver.chrome.options import Options from selenium.webdriver.common.by import By #크롬 드라이버 자동 업데이트 from webdriver_manager.chrome import ChromeDriverManager import time import pyautogui import pyperclip #브라우저 꺼짐 방지 cheome_options = Options() cheome_options.add_experimental_option("detach",True) service = Service(executable_path=ChromeDriverManager().install()) driver = webdriver.Chrome(service=service, options=cheome_options) #웹페이지 이동 driver.implicitly_wait(5) driver.maximize_window() driver.get("https://nid.naver.com/nidlogin.login?mode=form&url=https%3A%2F%2Fwww.naver.com") #아이디 id = driver.find_element(By.CSS_SELECTOR,"#id") id.click pyperclip.copy("abcdefg") pyautogui.hotkey("ctrl", "v") time.sleep(5) #비밀번호 입력 pw = driver.find_element(By.CSS_SELECTOR,"#pw") pw.click pyperclip.copy("1234567") pyautogui.hotkey("ctrl", "v") time.sleep(2) #fhrmdls qjxms login_btn = driver.find_element(By.CSS_SELECTOR,"#log\.login") login_btn.click
- 미해결이것이 진짜 크롤링이다 - 기본편
인코딩?문제인거같습니다.
아래와 같이 에러가 나오는데 어떻게 해야될까요? [Running] python -u "c:\startcoding\chapter03\reqeuset.py" Traceback (most recent call last): File "c:\startcoding\chapter03\reqeuset.py", line 6, in <module> print(html) UnicodeEncodeError: 'cp949' codec can't encode character '\u2728' in position 71731: illegal multibyte sequence
- 미해결이것이 진짜 크롤링이다 - 기본편
html.paser 오류...ㅡㅜ
bs4.FeatureNotFound: Couldn't find a tree builder with the features you requested: html.paser. Do you need to install a parser library? 오류가 떠서 html.paser 를 안쓰고 lxml 라이브러리 설치하고 soup = BeautifulSoup(html, 'lxml') 요렇게 바꿔줬더니 잘됩니당. 근데 왜 html.paser 가 안되는지는 궁금하네욤 ㅠㅠ
- 미해결이것이 진짜 크롤링이다 - 기본편
선생님, 스크롤이 안됩니다. 도와주세요.
안녕하세요. 아래와 같이 코드를 짰는데 스크롤 하는 부분에서 더이상 진행이 안되는거 같습니다. 스크롤 하는 부분 소스를 봤는데 특이점은 못찾겠습니다. 선생님, 아래 소스 확인 요청 드립니다. 참고로 제 환경은 macOS 환경이고, Chrome 버전 100.0.4896.60 입니다. 물론 webdriver 도 동일 버전으로 맞춰서 하고 있습니다. 아래 소스 올려드립니다. from selenium import webdriver from selenium.webdriver.common.keys import Keys import time # 웹브라우저 생성 browser = webdriver.Chrome('/Users/yuheewon/Downloads/chromedriver') # 웹사이트 열기 browser.get('https://www.naver.com') browser.implicitly_wait(3) # 로딩이 끝날 때까지 3초까지는 기다려줌 # 쇼핑 메뉴 클릭 browser.find_element_by_css_selector('a.nav.shop').click() time.sleep(3) # 검색창 클릭 search = browser.find_element_by_css_selector('input.co_srh_input._input') search.click() # 검색어 입력 search.send_keys('아이폰 13') search.send_keys(Keys.ENTER) time.sleep(3) # 스크롤 전 높이 before_h = browser.execute_script("return windows.scrollY") # 무한스크롤 기본 로직 while True : time.sleep(2) # 맨 아래로 스크롤을 내린다. browser.find_element_by_css_selector("body").send_keys(Keys.END) # 스크롤 사이 페이지 로딩 시간 time.sleep(1) # 스크롤 후 높이 after_h = browser.execute_script("return windows.scrollY") if after_h == before_h : break before_h = after_h # 상품 정보 리스트 # items = browser.find_elements_by_css_selector(".basicList_info_area__17Xyo") # for item in items : # name = item.find_element_by_css_selector(".basicList_title__3P9Q7").text # price = item.find_element_by_css_selector(".price_num__2WUXn").text # link = item.find_element_by_css_selector(".basicList_title__3P9Q7 > a").get_attribute("href") # print(name, price, link) 이렇게 했을때 오류메세지는 아래와 같습니다. /Users/yuheewon/Documents/PythonWorkspace/999_두번째_스터디_자료/03_네이버_쇼핑_크롤링/01_셀레니움_무한스크롤.py:8: DeprecationWarning: executable_path has been deprecated, please pass in a Service object browser = webdriver.Chrome('/Users/yuheewon/Downloads/chromedriver') /Users/yuheewon/Documents/PythonWorkspace/999_두번째_스터디_자료/03_네이버_쇼핑_크롤링/01_셀레니움_무한스크롤.py:15: DeprecationWarning: find_element_by_css_selector is deprecated. Please use find_element(by=By.CSS_SELECTOR, value=css_selector) instead browser.find_element_by_css_selector('a.nav.shop').click() /Users/yuheewon/Documents/PythonWorkspace/999_두번째_스터디_자료/03_네이버_쇼핑_크롤링/01_셀레니움_무한스크롤.py:19: DeprecationWarning: find_element_by_css_selector is deprecated. Please use find_element(by=By.CSS_SELECTOR, value=css_selector) instead search = browser.find_element_by_css_selector('input.co_srh_input._input') Traceback (most recent call last): File "/Users/yuheewon/Documents/PythonWorkspace/999_두번째_스터디_자료/03_네이버_쇼핑_크롤링/01_셀레니움_무한스크롤.py", line 28, in <module> before_h = browser.execute_script("return windows.scrollY") File "/Library/Frameworks/Python.framework/Versions/3.9/lib/python3.9/site-packages/selenium/webdriver/remote/webdriver.py", line 879, in execute_script return self.execute(command, { File "/Library/Frameworks/Python.framework/Versions/3.9/lib/python3.9/site-packages/selenium/webdriver/remote/webdriver.py", line 425, in execute self.error_handler.check_response(response) File "/Library/Frameworks/Python.framework/Versions/3.9/lib/python3.9/site-packages/selenium/webdriver/remote/errorhandler.py", line 247, in check_response raise exception_class(message, screen, stacktrace) selenium.common.exceptions.JavascriptException: Message: javascript error: windows is not defined (Session info: chrome=100.0.4896.60) Stacktrace: 0 chromedriver 0x000000010464a3d9 chromedriver + 5104601 1 chromedriver 0x00000001045dabf3 chromedriver + 4647923 2 chromedriver 0x00000001041cbb48 chromedriver + 392008 3 chromedriver 0x00000001041cea87 chromedriver + 404103 4 chromedriver 0x00000001041ce926 chromedriver + 403750 5 chromedriver 0x00000001041cf4ed chromedriver + 406765 6 chromedriver 0x0000000104231cb3 chromedriver + 810163 7 chromedriver 0x000000010421e6c2 chromedriver + 730818 8 chromedriver 0x0000000104231091 chromedriver + 807057 9 chromedriver 0x000000010421e5b3 chromedriver + 730547 10 chromedriver 0x00000001041f4139 chromedriver + 557369 11 chromedriver 0x00000001041f5165 chromedriver + 561509 12 chromedriver 0x000000010460939d chromedriver + 4838301 13 chromedriver 0x0000000104621cde chromedriver + 4938974 14 chromedriver 0x0000000104626b5e chromedriver + 4959070 15 chromedriver 0x000000010462294a chromedriver + 4942154 16 chromedriver 0x00000001045fe33c chromedriver + 4793148 17 chromedriver 0x000000010463c3b8 chromedriver + 5047224 18 chromedriver 0x000000010463c53f chromedriver + 5047615 19 chromedriver 0x0000000104651705 chromedriver + 5134085 20 libsystem_pthread.dylib 0x00007ff8017644e1 _pthread_start + 125 21 libsystem_pthread.dylib 0x00007ff80175ff6b thread_start + 15
- 미해결이것이 진짜 크롤링이다 - 기본편
보기와 같이 진행했는데 오류가 발생합니다.
import requests from bs4 import BeautifulSoup import openpyxl fpath = '/Users/dohoon/Desktop/DH/python/crawling/네이버 주식 크롤링/data.xlsx' wb = openpyxl.load_workbook(fpath) ws = wb.active # 기본 시트를 선택한 것 (현재 활성화된 시트 선택) # 종목 코드 리스트 codes = [ '005930', '000660', '035720' ] row = 2 for code in codes: url = f'https://finance.naver.com/item/sise.naver?code={code}' response = requests.get(url) html = response.text soup = BeautifulSoup(html, 'html.parser') # 파싱하기 어려운 html을 파싱해줌. price = soup.select_one('#_nowVal').text price = price.replace(',','') # 116,500이라고 콤마 나오던걸 없앨 수 있음. print(price) ws[f'B{row}'] = int(price) row += 1 wb.save(fpath) 위와 같이 진행했는데 zipfile.BadZipFile: File is not a zip file 오류가 발생합니다 어떻게 해야할까요? 들여쓰기는 다 맞게 진행했습니다.
- 미해결이것이 진짜 크롤링이다 - 기본편
질문이욤
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. import requests from bs4 import BeautifulSoup import openpyxl fpath = r'C:\Users\Lenovo\Desktop\content\참가자_data.xlsx' wb = openpyxl.load_workbook(fpath) ws=wb.active #현재 활성화된 시트 선택 codes = ["000660","035720","005930"] row=2 for code in codes: url=f"https://finance.naver.com/item/sise.naver?code={code}" response = requests.get(url) html=response.text soup=BeautifulSoup(html,'html.parser') price=soup.select_one("#_nowVal").text price=price.replace(',','') print(price) ws=[f'B{row}']=int(price) row=row+1 wb.save(fpath) cannot assign to f-string expression이런 에러가 뜨면서 작동이 안됩니다 ㅜㅜ
- 미해결이것이 진짜 크롤링이다 - 기본편
질문이요 ㅠㅠ
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 안녕하세요 강의 잘 듣고있습니다 다름이 아니라 엑셀부분을 코드 짜고 실행하면 엑셀 파일은 만들어지는데 안에 데이터셀이 텅 비어있습니다...ㅠㅠ
- 미해결이것이 진짜 크롤링이다 - 기본편
macOS 에서 pyautogui.hotkey("command", "v") 로 하는거 맞는지요?
안녕하세요. 좋은 강의 잘 보고 있습니다. 다름이 아니라 강의 내용중 자동입력방지 차단을 우회 하고자 pyautogui.hotkey("ctrl", "v") 코드로 입력한다고 하셔서 저는 macOS 사용자라 pyautogui.hotkey("command", "v") 로 해서 만들었습니다. 그런데 코드를 실행시 크롬브라우저가 실행되고 ID/Password 입력하는게 진행이 안됩니다. 제 생각으로 command 가 아니고 다른게 들어가야 하는거 아닐지 문의 드립니다.
- 미해결이것이 진짜 크롤링이다 - 기본편
선생님 기초 마지막강의질문입니다 ㅠㅠ
스크롤까지 잘 내려갔는데, 각각 아이폰 제목 가격 url등등이 출력이 안됩니다 선생님 ㅠㅠ find_element_by_* commands are deprecated. Please use find_element() instead browser.find_element_by_css_selector('body').send_keys(Keys.END) 이런 오류도 뜨구요 ㅠㅠ 전 어떻게 해야 할까요 from pkgutil import iter_modules from selenium import webdriver from selenium.webdriver.common.keys import Keys import time #브라우저 생성 browser=webdriver.Chrome('c:/chromedriver.exe') #웹사이트 열기 browser.get('https://www.naver.com') #쇼핑메뉴 클릭하기 browser.implicitly_wait(10) browser.find_element_by_css_selector('a.nav.shop').click() #검색창 클릭 time.sleep(2) search=browser.find_element_by_css_selector('input.co_srh_input') search.click() #검새ㄱ어 입력 search.send_keys('아이폰13') search.send_keys(Keys.ENTER) #스크롤 전 높이 before_h=browser.execute_script("return window.scrollY")#Java스크립트 명령어 사용 가능 #무한 스크롤 while True: #맨 아래로 스크롤 내린다. browser.find_element_by_css_selector('body').send_keys(Keys.END) #스크롤 사이 페이지 로딩 시간 time.sleep(1) #스크롤 후 높이 after_h=browser.execute_script("return window.scrollY") if after_h==before_h: break before_h=after_h #상품정보 items=browser.find_elements_by_css_selector('.basicList_inner__eY_mq') for item in items: name=item.find_element_by_css_selector('.basicList_title__3P9Q7').text price=item.find_element_by_css_selector('.price_num__2WUXn').text link=item.find_element_by_css_selector('.thumbnail_thumb__3Agq6').get_attribute(href) print(name,price,link)
- 미해결이것이 진짜 크롤링이다 - 기본편
셀레니움 csv 오류
안녕하세요. 강의 잘 듣고 있습니다. 기본편 셀레니움 빨리 마치고 실전편으로 넘어가고 싶은데 오류로 넘어가질 못하고 있어요. 제 오류는 csv 를 막상 열어보면 한 줄 밖에 못 가지고 온다는 겁니다. 끝까지 스크롤 된게 보이는데 저장파일을 열면 한 줄 밖에 추출을 못했네요. 에러 문구는 아래와 같습니다. C:\startcoding_crawling>[2548:20056:0320/181443.565:ERROR:gpu_init.cc(440)] Passthrough is not supported, GL is disabled, ANGLE is 정말 재미있게 배우고 있어요. 실전편 강의도 기대하고 있습니다. 감사합니다.
- 미해결이것이 진짜 크롤링이다 - 기본편
for item in items: 에러
[9372:2508:0320/003306.931:ERROR:device_event_log_impl.cc(214)] [00:33:06.932] USB: usb_device_handle_win.cc:1049 Failed to read descriptor from node connection: 시스템에 부착된 장치가 작동하지 않습니다. (0x1F) [9372:2508:0320/003306.932:ERROR:device_event_log_impl.cc(214)] [00:33:06.933] USB: usb_device_handle_win.cc:1049 Failed to read descriptor from node connection: 시스템에 부착된 장치가 작동하지 않습니다. (0x1F) c:\startcording\03_네어버쇼핑크롤링\02_셀레니움_무한스크롤.py:32: DeprecationWarning: find_element_by_css_selector is deprecated. Please use find_element(by=By.CSS_SELECTOR, value=css_selector) instead items = browser.find_element_by_css_selector(".basicList_info_area__17Xyo") Traceback (most recent call last): File "c:\startcording\03_네어버쇼핑크롤링\02_셀레니움_무한스크롤.py", line 34, in <module> for item in items: TypeError: 'WebElement' object is not iterable 다른 부분까지는 잘 따라 왔는데, 데이터를 가져오는 부분에서 에러가 납니다. 표시되는 글은 상기와 같구요. 작성된 문서에서 차이는 못 찾겠는데, 에러가 나서 다음강의로 못 넘어가고 있습니다.
- 미해결이것이 진짜 크롤링이다 - 기본편
run 실행시 터미널 표기
터미널에 표기 될때 붉은색 부분이 표기 될때도 있고, 아닐때도 있는데, 없애는 방법이 궁금합니다
- 미해결이것이 진짜 크롤링이다 - 기본편
셀레니움 클릭시 오류
안녕하세요 강의를 듣던중 웹페이지 까지는 잘 열리는데 쇼핑버튼을 클릭하는 과정에서 자꾸 시스템에 부착된 장치가 작동을 하지 않는다고하여서 구글링도 해보고 주피터로도 실행해보고 다 해봤는데 오류가 해결되지않아서 이렇게 질문을 남겼습니다. ㅜㅠ
- 미해결이것이 진짜 크롤링이다 - 기본편
네이버에서 크롤링 하는데 자꾸 에러가 뜹니다.
py 파일에서 실행하면 계속 아래와 같이 에러가 뜨네요. import requests response = requests.get("https://www.naver.com") html = response.text print(html) Traceback (most recent call last): File "d:\000. ����\000. �� ����\���α���\��ũ�Ѹ�_�⺻\Chap.3\req1.py", line 5, in <module> print(html) UnicodeEncodeError: 'cp949' codec can't encode character '\u22ef' in position 10244: illegal multibyte sequence 그리고 어떨 때는 아래와 같이 에러가 뜹니다. Traceback (most recent call last): File "C:\Users\HEC\AppData\Local\Programs\Python\Python310\lib\site-packages\urllib3\connectionpool.py", line 703, in urlopen httplib_response = self._make_request( File "C:\Users\HEC\AppData\Local\Programs\Python\Python310\lib\site-packages\urllib3\connectionpool.py", line 386, in _make_request self._validate_conn(conn) File "C:\Users\HEC\AppData\Local\Programs\Python\Python310\lib\site-packages\urllib3\connectionpool.py", line 1040, in _validate_conn conn.connect() File "C:\Users\HEC\AppData\Local\Programs\Python\Python310\lib\site-packages\urllib3\connection.py", line 416, in connect self.sock = ssl_wrap_socket( File "C:\Users\HEC\AppData\Local\Programs\Python\Python310\lib\site-packages\urllib3\util\ssl_.py", line 449, in ssl_wrap_socket ssl_sock = _ssl_wrap_socket_impl( File "C:\Users\HEC\AppData\Local\Programs\Python\Python310\lib\site-packages\urllib3\util\ssl_.py", line 493, in _ssl_wrap_socket_impl return ssl_context.wrap_socket(sock, server_hostname=server_hostname) File "C:\Users\HEC\AppData\Local\Programs\Python\Python310\lib\ssl.py", line 512, in wrap_socket return self.sslsocket_class._create( File "C:\Users\HEC\AppData\Local\Programs\Python\Python310\lib\ssl.py", line 1070, in _create self.do_handshake() File "C:\Users\HEC\AppData\Local\Programs\Python\Python310\lib\ssl.py", line 1341, in do_handshake self._sslobj.do_handshake() ssl.SSLCertVerificationError: [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: self signed certificate in certificate chain (_ssl.c:997) During handling of the above exception, another exception occurred: Traceback (most recent call last): File "C:\Users\HEC\AppData\Local\Programs\Python\Python310\lib\site-packages\requests\adapters.py", line 440, in send resp = conn.urlopen( File "C:\Users\HEC\AppData\Local\Programs\Python\Python310\lib\site-packages\urllib3\connectionpool.py", line 785, in urlopen retries = retries.increment( File "C:\Users\HEC\AppData\Local\Programs\Python\Python310\lib\site-packages\urllib3\util\retry.py", line 592, in increment raise MaxRetryError(_pool, url, error or ResponseError(cause)) urllib3.exceptions.MaxRetryError: HTTPSConnectionPool(host='www.naver.com', port=443): Max retries exceeded with url: / (Caused by SSLError(SSLCertVerificationError(1, '[SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: self signed certificate in certificate chain (_ssl.c:997)'))) During handling of the above exception, another exception occurred: Traceback (most recent call last): File "d:\000. ����\000. �� ����\���α���\��ũ�Ѹ�_�⺻\Chap.3\req1.py", line 3, in <module> response = requests.get("https://www.naver.com") File "C:\Users\HEC\AppData\Local\Programs\Python\Python310\lib\site-packages\requests\api.py", line 75, in get return request('get', url, params=params, **kwargs) File "C:\Users\HEC\AppData\Local\Programs\Python\Python310\lib\site-packages\requests\api.py", line 61, in request return session.request(method=method, url=url, **kwargs) File "C:\Users\HEC\AppData\Local\Programs\Python\Python310\lib\site-packages\requests\sessions.py", line 529, in request resp = self.send(prep, **send_kwargs) File "C:\Users\HEC\AppData\Local\Programs\Python\Python310\lib\site-packages\requests\sessions.py", line 645, in send r = adapter.send(request, **kwargs) File "C:\Users\HEC\AppData\Local\Programs\Python\Python310\lib\site-packages\requests\adapters.py", line 517, in send raise SSLError(e, request=request) requests.exceptions.SSLError: HTTPSConnectionPool(host='www.naver.com', port=443): Max retries exceeded with url: / (Caused by SSLError(SSLCertVerificationError(1, '[SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: self signed certificate in certificate chain (_ssl.c:997)'))) 그런데 신기한 점은 ipynb 파일에선 문제없이 실행됩니다. 대체 어떻게 해야하죠? 몇시간동안 해매고있습니다.
- 미해결이것이 진짜 크롤링이다 - 기본편
스크롤링이 안됩니다 ㅠㅠ
안녕하세요! 양질의 강의 정말 감사합니다. 완강을 앞두고 빨리 실전반 강의를 듣고 싶은데 스크롤링이 안되어 진행이 안되고 있어요. 쇼핑 - 아이폰 13까진 검색 하는데 그 다음부턴 멈춰있습니다ㅠ 코드도 똑같이 작성했는데, 뭐가 문제인지 답변 주시면 감사하겠습니다 :))) from selenium import webdriver from selenium.webdriver.common.keys import Keys import time # 브라우저 생성 browser = webdriver.Chrome('C:/chromedriver.exe') # 웹사이트 열기 browser.get('https://www.naver.com') browser.implicitly_wait(10) # 로딩이 끝날 때까지 10초까지는 기다려라 # 쇼핑 메뉴 클릭 browser.find_element_by_css_selector('a.nav.shop').click() time.sleep(2) # 검색창 클릭 search = browser.find_element_by_css_selector('input.co_srh_input._input') search.click() # 검색어 입력 search.send_keys('아이폰 13') search.send_keys(Keys.ENTER) # 스크롤 전 높이 before_h = browser.execute_script("reuturn window.scrollY") # 무한 스크롤 while True: # 맨 아래로 스크롤을 내린다. browser.find_element_by_css_selector("body").send_keys(Keys.END) # 스크롤 사이 페이지 로딩시간 time.sleep(1) # 스크롤 후 높이 after_h = browser.execute_script("reuturn window.scrollY") if after_h == before_h: break before_h = after_h # 상품 정보 div items = browser.find_element_by_css_selector(".basicList_info_area__17Xyo") for item in items: name = item.find_element_by_css_selector(".basicList_title__3P9Q7").text price = item.find_element_by_css_selector(".price_num__2WUXn").text link = item.find_element_by_css_selector(".basicList_title__3P9Q7 > a").get_attribute('href') print(name, price, link)
- 미해결이것이 진짜 크롤링이다 - 기본편
글자가 깨집니다
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. encoding error인지 CP949, EUC-KR, Utf-8 다 해봐도 글자가 계속 깨져서 나옵니다, 맥 vs code 쓰고 있습니다.
- 미해결이것이 진짜 크롤링이다 - 기본편
시스템에 부착된 장치가 작동하지 않습니다 오류(?)
웹사이트 열기까지는 실행이 잘 되는데, 그 다음 명령어 browser.find_elements_by_css_selector('a.nav.shop').click() 작동하지 않습니다... ㅠㅠ 터미널을 보면 사진과 같이 시스템에 부착된 장치가 작동하지 않습니다 라는데, 어떻게 해야하나요 ? 유료강의 수강직전 복습중인데 여기서 막혀서 진도가 안나갑니다. 도와주세요!