11,000원
다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결초간단 초스피드 데이터 수집 (파이썬 크롤링)
안녕하세요 파이썬 관련 문의드립니다
안녕하세요 파이썬 공부하다가 도저히 모르겠어서 문의 드립니다.다름이 아니라 api 쪽은 공부해본적이 없어서 기본적인 걸 모르는것같은데http://ipss1.interpark.com/openapi/product/ProductAPIService.do?_method=UpdateProductAPIStatTpQty&citeKey={citeKey}&secretKey={secretKey}&dataUrl=https://shop.interpark.com/api/new.ver2/sample/sample9.xml사이트에서는 이방식으로 api 요청하라고 하는데코드는 챗gpt랑 하면서 짜봤는데import requests# API 엔드포인트 및 인증 정보 설정citeKey = "citeKey"secretKey = "secretKey"url = f"http://ipss1.interpark.com/openapi/product/ProductAPIService.do?_method=UpdateProductAPIStatTpQty&citeKey={citeKey}&secretKey={secretKey}"# 요청 데이터 설정 (상품 정보 업데이트)payload = { "prdNo": "12344452", # 인터파크 상품번호 (as a string) "saleStatTp": "03", # 판매중:01, 품절:02, 판매중지:03, 일시품절:05, 상품삭제:98}# API 요청 보내기response = requests.post(url, data=payload)# 응답 확인if response.status_code == 200: print(response.text)else: print("상품 정보 업데이트에 실패했습니다.") print("응답 코드:", response.status_code) print("응답 내용:", response.text)제가 짠 코드에선 url 맨뒤에 예시처럼&dataUrl=https://shop.interpark.com/api/new.ver2/sample/sample9.xml이부분이 빠진것같은데patload 부분을 예시처럼 url을 만들어서 저렇게 하는방식이 가능한가요?
- 해결됨초간단 초스피드 데이터 수집 (파이썬 크롤링)
개발자님 도와주세요
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 import requests from bs4 import BeautifulSoup req = requests.get('https://www.cheonyu.com/product/view.html?qIDX=42562') soup = BeautifulSoup(req.text, 'html.parser') print(soup.select("#tab_01 > div.pic")) 여기서 상세페이지 이미지 url을 추출하고 싶은데 [<div class="pic" id="viewPcontent"> </div>] 이런식으로만 뜨고 끝이네요ㅜㅜ 뭐가 문제인지 모르겠어요 ㅠㅠ
- 미해결초간단 초스피드 데이터 수집 (파이썬 크롤링)
질문입니다
똑같이 따라서 했는데 Print를 해보니, 아무런 값이 나오지 않았습니다. ;; 왜그런걸까요? ㅠ
- 미해결초간단 초스피드 데이터 수집 (파이썬 크롤링)
크롬드라이버 설치
머설치는 했는데 강의 화면가 다른거 같습니다.
- 미해결초간단 초스피드 데이터 수집 (파이썬 크롤링)
크롬드라이버 설치질문
크롬드라이버를 드래그해서 했는데...먼가 이상합니다.
- 미해결초간단 초스피드 데이터 수집 (파이썬 크롤링)
질문이요
import requestsfrom bs4 import BeautifulSoupreq = requests.get('https://www.donga.com/news/Entertainment/List?p=1&prod=news&ymd=&m=')soup = BeautifulSoup(req.text, 'html.parser')for i in soup.select("#contents > div.page > a") : req2 = requests.get("http://www.donga.com/news/List/Enter/" + i['href']) soup2 = BeautifulSoup(req2.text, 'html.parser') for i in soup2.find_all("span", class_="tit") : print(i.text)C:\Users\karma\PycharmProjects\pychamwebcrawling\venv\Scripts\python.exe "C:/Users/karma/PycharmProjects/pychamwebcrawling/01_web_crawling_naver_test/url 링크 찾아내서 크롤링.py" Process finished with exit code 0머가 문제인건가요???
- 미해결초간단 초스피드 데이터 수집 (파이썬 크롤링)
브라우저가 안나와요
뭔가 브라우저가 나오는 것 같다가 없어져 버립니다.
- 미해결초간단 초스피드 데이터 수집 (파이썬 크롤링)
에디터와 모듈 관련
수업 내용과 직접 관련이 있는 사항은 아닙니다. 지금 수업은 파이참 에디터를 이용하고 있는데 Visual Studio Code와 Atom을 써보니까 requests 모듈이 import되지 않습니다. 에디터마다 다르게 적용되는 건가요?
- 미해결초간단 초스피드 데이터 수집 (파이썬 크롤링)
여러 페이지 크롤링
"Process finished with exit code 0"라는 메시지가 나오면서 크롤링이 중단됩니다. (그림 파일 좌측 하단 붉은 상자 부분) 해결방법 좀 알려주세요.
- 초간단 초스피드 데이터 수집 (파이썬 크롤링)
개발자 도구 관련
삭제된 글입니다
- 미해결초간단 초스피드 데이터 수집 (파이썬 크롤링)
패키지 설치 방법 알려주세요
똑같이 따라 갔는데 패키지 설치 부분이 강의 내용과 달라요. 어떻게 설치해야 하는지 알려주세요.
- 미해결초간단 초스피드 데이터 수집 (파이썬 크롤링)
셀레니움 설치 관련
안녕하세요? 제가 아래 코드를 치면 화면에서처럼 빨간색 전구가 뜨면서 셀레니움 설치가 떠야 하는데요, 저는 뜨지 않고, 파란색으로만 되어 있어요. 이럴 때는 어떻게 해야 하나요? from selenium import webdriver==> 제가 이 질문을 올리고 나서 인터넷에서 찾아서 어떻게 하다보니까 셀레니움 설치를 했는데요, 제가 이번만 그랬던 게 아니라 from 모듈(eg., bs4) import 어쩌고(e.g., beautifulsoup) 해서 설치를 했던 적이 없어요. 선생님 방법이 제일 쉬운데, 그게 왜 제 파이참에는 안 되는지가 궁금해요.답변 감사합니다.
- 미해결초간단 초스피드 데이터 수집 (파이썬 크롤링)
12페이지 이후 print
따라 해보니까 페이지 11 마지막 기사까지만 print가 되는데요, 12페이지 이후로는 왜 안 되는 건가요? 동아일보 웹페이지는 100페이지 이후로까지 있던데요. 이유가 무엇인가요? 12페이지 이후로도 print 하려면 어떻게 해야 하나요?
- 미해결초간단 초스피드 데이터 수집 (파이썬 크롤링)
파이참설치안하고 아나콘다의 주피터 노트북으로 강의내용 따라가도되나요~?
ㅇ
- 미해결초간단 초스피드 데이터 수집 (파이썬 크롤링)
chromedriver 라이브러리
프로젝트 왼쪽에 나온것처럼 chromedriver 추가하려면 어떻게 해야하나요?? 드라이버 설치하고 경로를 바탕화면으로 설정한 다음에 webdriver.Chrome('설치경로')로 했는데도 왼쪽에 추가가 안 됩니다 ㅠㅠ
- 미해결초간단 초스피드 데이터 수집 (파이썬 크롤링)
다음 실시간 검색어 클래스 추출 불가
다음에서 실시간 검색어 탭을 폐지해서 강의를 네이버로 진행해주셔야할 것 같습니다.