55,000원
다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결파이썬 입문 및 웹 크롤링을 활용한 다양한 자동화 어플리케이션 제작하기
[WinError 10053] 에러가 납니다
저 에러가 나면서 이미지 다운로드가 안 되는데, 혹시 어떻게 해야하는지 여쭙고 싶습니다.... 구글링을 해보니까 공용컴퓨터 사용시 문제가 된다는데 제가 군복무로 인해서 어쩔 수 없이 공용 컴퓨터를 활용해서 강의를 듣고 실행을 하고 있는 상황에 있습니다... 그 문제가 아니라면 어떻게 해야되나요? ...
- 미해결파이썬 입문 및 웹 크롤링을 활용한 다양한 자동화 어플리케이션 제작하기
전체화면시 피피티 글자크기
전체화면시 피피티 글자크기가 너무 작아서 하나도 안보입니다. 전체화면 해제하고 마우스로 화면자체를 확대해서 보는게 불편합니다.
- 미해결파이썬 입문 및 웹 크롤링을 활용한 다양한 자동화 어플리케이션 제작하기
ection2. 파이썬 기초 스크래핑하기가 수업내용이 없는데요?
ection2. 파이썬 기초 스크래핑하기가 수업내용이 없는데요?
- 미해결파이썬 입문 및 웹 크롤링을 활용한 다양한 자동화 어플리케이션 제작하기
section2 pytube 강의 질문
Traceback (most recent call last): File "C:\section2\youtube-downloader.py", line 13, in <module> videos[0].download(down_dir) File "C:\ProgramData\Anaconda3\envs\section2\lib\site-packages\pytube\streams.py", line 206, in download filename = filename or self.default_filename File "C:\ProgramData\Anaconda3\envs\section2\lib\site-packages\pytube\streams.py", line 176, in default_filename title = self.player_config_args['title'] KeyError: 'title' youtube 동영상 다운로드 받는 강의 듣는데 똑같이 해서 실행했는데 해당 에러가 뜨는데 무슨 문제인지를 모르겠습니다. 깃에서 pytube _main_.py를 이렇게 수정하면 된다고 해서 수정하고 저장한 뒤 다시 실행해도 동일한 문제가 발생하네요...ㅠ.ㅠ return self.player_config_args['thumbnail_url'] return ( self.player_config_args .get('player_response', {}) .get('videoDetails', {}) .get('thumbnail', {}) .get('thumbnails', [])[0] .get('url') ) @property def title(self): @@ -251,7 +258,12 @@ def title(self): :rtype: str """ return self.player_config_args['title'] return ( self.player_config_args .get('player_response', {}) .get('videoDetails', {}) .get('title') ) @property def description(self): @@ -283,7 +295,12 @@ def length(self): :rtype: str """ return self.player_config_args['length_seconds'] return ( self.player_config_args .get('player_response', {}) .get('videoDetails', {}) .get('lengthSeconds') )
- 미해결파이썬 입문 및 웹 크롤링을 활용한 다양한 자동화 어플리케이션 제작하기
pytube 에러 관련하여 질문합니다.
안녕하세요 PyQT5 유투브 다운로더 만들기 섹션 코딩 중에 에러가 발생해서 질문합니다. 유투브 다운로더에 URL을 입력하고 다운로드 시작 버튼을 클릭하면 프로그램이 종료되더라구요 작성된 코드는 깃허브에 올려주신 section6/main.py와 비교해봤는데 똑같았습니다. 다운로드 시작버튼을 누를때 파일 사이즈는 제대로 불러오는걸 보면 다운로드 부분이 뭔가 잘못된거같아요 def downloadYoutb(self) : down_dir = self.pathTextEdit.text().strip() if down_dir is None or down_dir == '' or not down_dir : QMessageBox.about(self, '경로 선택', '다운로드 받을 경로를 선택하세요.') return None self.youtb_fsize = self.youtb[self.streamCombobox.currentIndex()].filesize print('fsize', self.youtb_fsize) self.youtb[self.streamCombobox.currentIndex()].download(down_dir) self.append_log_msg('Download Click') 혹시 pytube쪽 이슈일 수도있어서 section2에서 활용했던 코드로 확인했더니 5 , <Stream: itag="299" mime_type="video/mp4" res="1080p" fps="60fps" vcodec="avc1.64002a"> 6 , <Stream: itag="303" mime_type="video/webm" res="1080p" fps="60fps" vcodec="vp9"> Traceback (most recent call last): File "D:\Atom WorkSpace\section2\youtube-downloader.py", line 18, in <module> videos[0].download(down_dir) File "D:\Program Files\Anaconda3\envs\section6\lib\site-packages\pytube\streams.py", line 206, in download filename = filename or self.default_filename File "D:\Program Files\Anaconda3\envs\section6\lib\site-packages\pytube\streams.py", line 176, in default_filename title = self.player_config_args['title'] KeyError: 'title' 7 , <Stream: itag="136" mime_type="video/mp4" res="720p" fps="30fps" vcodec="avc1.4d401f"> 8 , <Stream: itag="247" mime_type="video/webm" res="720p" fps="30fps" vcodec="vp9"> 이런 오류 메세지가 나왔습니다. 구글을 아무리 찾아봐도 정규표현식 패턴 오류에 대한 답변밖에 못찾겠더라구요 혹시 해결 방법에 대해 아시는 부분 있으시면 답변 부탁드립니다. yt=pytube.YouTube("https://www.youtube.com/watch?v=GaGVNTHAUZQ") videos=yt.streams.all() print('videos', videos) #print(yt.title) for i in range(len(videos)) : print(i, ', ' ,videos[i]) #cNum = int(input("다운받을 화질은?(0~21)")) down_dir = "D:/Atom WorkSpace/Youtube" videos[0].download(down_dir) ==> section2에서 배워서 pytube 확인용으로 작성한 예제 코드입니다
- 미해결파이썬 입문 및 웹 크롤링을 활용한 다양한 자동화 어플리케이션 제작하기
웹페이지를 다 불러오지못합니다.
밑에 글중에 혹시 같은 문제가있는지 확인해보았는데.. 쪽지로 답변 주신분과 동일합니다. ul 데이터까진 불러오는데 li 데이터는 불러오지 않습니다. 크롬 개발자도구에서는 확인이 가능한데. response 값에는 없습니다.. 저도 해결법좀 알려주세요.
- 미해결파이썬 입문 및 웹 크롤링을 활용한 다양한 자동화 어플리케이션 제작하기
robots.txt의 disallow
안녕하세요! 제가 이번에 크롤링 하려는 것의 robots.txt에 들어가봤는데 해당 url이 disallow 처리가 되어있더라고요ㅠㅠ 이럴 시 해당 url을 크롤링하면 법적으로 문제가 되는지 궁금하여 질문 올리게 되었습니다.
- 미해결파이썬 입문 및 웹 크롤링을 활용한 다양한 자동화 어플리케이션 제작하기
관리자권한 anaconda prompt 실행 시 질문입니다!
안녕하세요~ 현재 저는 컴퓨터 관리자 계정명을 한글로 지정하는 바람에 별도의 영문계정을 하나 생성해서 python 학습을 진행하고 있습니다. 파이썬 urllib을 활용한 웹에서 필요한 데이터 추출하기(1) 위 강의에서 관리자권한으로 anaconda prompt 를 실행하라고 하셔서 해보니 개발 환경설정 때 생성한 section2 도 activate 되지 않을 뿐 아니라 section2 를 새로 생성해서 atom 을 실행시키면 아래와 같은 에러메세지만 나오게 되네요! ------------------------------------------------------------------------- 'atom'은(는) 내부 또는 외부 명령, 실행할 수 있는 프로그램, 또는 배치 파일이 아닙니다. ------------------------------------------------------------------------- 해결할 수 있는 방법좀 알려주세요!!!
- 미해결파이썬 입문 및 웹 크롤링을 활용한 다양한 자동화 어플리케이션 제작하기
수정된 다음 금융 페이지 크롤링 관련 질문
Github에 새로 올려주신 코드 중에서 headers 부분의 ua.ie때문에 AttributeError가 발생합니다. 해결 방법이 있을까요? (AttributeError : ‘UserAgent’ object has no attribute ‘ie’)
- 미해결파이썬 입문 및 웹 크롤링을 활용한 다양한 자동화 어플리케이션 제작하기
아톰 오류 발생 질문
안녕하세요, 강의 수강 중 질문이 있어 글 남깁니다. atom에서 이미지 파일을 저장할 때 PermissionError(errno 13)이 발생합니다. 정확한 오류 내용은 다음과 같습니다. (window 10 사용중입니다.) PermissionError: [Errno13] Permission denied: 'c:/test1.jpg'
- 미해결파이썬 입문 및 웹 크롤링을 활용한 다양한 자동화 어플리케이션 제작하기
BeautifulShop(2)에서 에러가나는데요?
food-list.html 파일에서 print("1",soup.select_one("li:nth-of-type(8)").string) AttributeError: 'NoneType' object has no attribute 'string'소스코드를 입력하고 실행하면 이처럼 에러가 나는데 접근방법이 틀렸는지요?
- 미해결파이썬 입문 및 웹 크롤링을 활용한 다양한 자동화 어플리케이션 제작하기
질문있습니다
이번 강의를 보고 유튜브 사이트에서 크롤링을 해보고 있는데 특정 클래스나 아이디 값들을 크롤링하면 항상 none이라고 나오던데 이러한 경우에는 어떻게 해야하나요?
- 미해결파이썬 입문 및 웹 크롤링을 활용한 다양한 자동화 어플리케이션 제작하기
강사님 안녕하세요 ^^ 강의 듣고 실력이 일취월장 했습니다.
pyqt5를 이용해서 윈도우 프로그램을 만들었습니다. 이 프로그램을 .exe 파일로 변환하여 배포를 하려고 합니다. pyinstaller 를 이용해서 exe 파일로 생성은 했지만, 실행 과정에서 두리뭉실한 에러를 내며 프로그램이 다운됩니다. ----------------------------------------- [오류 내용] Traceback (most recent call last): File "letmeknowa_judev.py", line 4, in <module> ImportError: DLL load failed: 지정된 프로시저를 찾을 수 없습니다. [2960] Failed to execute script letmeknowa_judev ----------------------------------------- pyqt5 사용에 따른 문제가 아닐까 생각되긴 합니다. 하지만 해결 방법을 찾지 못하고 있습니다. 위 메시지에 대한 해결 방법이나, exe로 변환할 때 어떤 모듈을 이용하는 것이 좋은지 자문을 구합니다 ^^
- 미해결파이썬 입문 및 웹 크롤링을 활용한 다양한 자동화 어플리케이션 제작하기
구글에서 고양이 사진 100장 가져오기
안녕하세요~ beautifulsoup를 사용하여구글에서 고양이 사진 100장 가져오는 실습을 완료해보고 싶은데 구글에서 고양이 사진 20장 밖에 가져오지 못하고 있습니다. 아래는 제 소스코드 입니다. 1. 어떤 부분을 추가해야 100장을 가져올 수 있을까요? 2. 그리고 왜 20장 밖에 가져오지 못하는 걸까요? [소스코드] # Issue : 어떻게 100장 가져올 수 있을까? from bs4 import BeautifulSoup import urllib.request as req import urllib.parse as rep import os opener = req.build_opener() opener.addheaders = [('User-agent', 'Mozilla/5.0')] req.install_opener(opener) savePath = "/Users/kimhyeyeong/Documents/section2/google/" base = "https://www.google.com/search?q=" input_quote = input("구글에서 어떤 이미지를 가져오고 싶습니까") quote = rep.quote_plus(input_quote) end = "&source=lnms&tbm=isch&sa=X&ved=0ahUKEwic4eDlhpjjAhWDwrwKHdbRCeQQ_AUIECgB&biw=1440&bih=766&dpr=2" url = base + quote + end res = req.urlopen(url) savePath = "/Users/kimhyeyeong/Documents/section2/google/" try: if not (os.path.isdir(savePath)): os.makedirs(os.path.join(savePath)) except OSError as e: if e.errno != errno.EEXIST: print("폴더 만들기 실패") raise soup = BeautifulSoup(res, "html.parser") img_list = soup.select("table.images_table > tr > td > a > img") for i, img_list in enumerate(img_list, 1): fullFileName = os.path.join(savePath, savePath+str(i) + '.jpg') req.urlretrieve(img_list['src'], fullFileName) print("다운로드 완료")
- 미해결파이썬 입문 및 웹 크롤링을 활용한 다양한 자동화 어플리케이션 제작하기
4-7-3 파일 finance-datareader 업데이트 인스톨후에도 실행안됩니다
NotImplementedError=data_source="google" 이부분이 오류라고 자꾸나오네요 www와 닷컴을 붙이거나 네이버로해봐도 계속 같은 오류가납니다.
- 미해결파이썬 입문 및 웹 크롤링을 활용한 다양한 자동화 어플리케이션 제작하기
수동으로 atom 설치 시 환경변수 설정
수동으로 atom을 설치해서 해보고 있습니다. 환경변수의 시스템변수 항목에 ATOM_HOME을 입력하고 C:\atom\.atom 을 설정했습니다. 그런데 atom을 실행해놓고 보면 예전 "사용자계정폴더\.atom" 으로 환경설정 정보나 패키지 정보가 저장됩니다. 삭제해도 자꾸 생성되는데 검색을 해봐도 적당한 해결책을 못 찾아서 질문드립니다. atom이 ATOM_HOME이라는 시스템변수를 자동으로 인식하는 건가요? 아니면 설정을 다시 해줘야 하는 건가요? 어떻게 하면 될 지 알려주시면 감사하겠습니다.
- 미해결파이썬 입문 및 웹 크롤링을 활용한 다양한 자동화 어플리케이션 제작하기
QueryBox 'caching_sha2_password' 접속 문제
안녕하세요. 질문글은 아니고 '19.06/23 일 기준으로 MySQL 8.0 버전으로 다운받아 실행하는데 QueryBox 접속시 Unable to load authentication plugin 'caching_sha2_password' 이라는 문제가 발생하여 MySQL입력창에서 ALTER USER 'python'@'localhost' IDENTIFIED WITH mysql_native_password BY 'password'; 을 입력하여 해결하였습니다. MySQL 8.0 버전에서 password 인식문제 같은걸로 예상되는데, DB지식이 없다보니 이유는 잘 모르겠네요. 혹시 저같은 문제가 발생한 분이 있을까봐 올려둡니다. 얼른 다음 내용 강의 들으러 가야겠네요! 감사합니다.
- 미해결파이썬 입문 및 웹 크롤링을 활용한 다양한 자동화 어플리케이션 제작하기
python에서 dict를 합칠려면 어떻게 해야되는지요?
좋은강의를 올려주셔서 감사합니다.이동영상과는 조금 다른 질문이 될수도 있겠습니다.다름이 아니라 아래에 a, b 리스트에 dict 자료가 들어 있습니다. a, b에서 yyyy가 날짜인데 날짜가 같으면 a에 b에 있는 price를 넣는것이구요,같은 날짜가 없으면 price는 0으로 넣어 tmp처럼 만들수가 있을가요.a리스트가 기준이 된다고 생각하시면 됩니다.b에는 없는 날짜도 있구요.파이썬 초보인데 데이터를 합쳐야되는 문제가 있어서 여쭤봅니다.가능하시면 지혜를 주시면 감사하겠습니다.a=[{'yyyy':'20151001','AVG_TA':23.6,'MIN_TA':14.5,'MAX_TA':23},{'yyyy':'20151002','AVG_TA':23.6,'MIN_TA':14.5,'MAX_TA':23}, {'yyyy':'20151003','AVG_TA':23.6,'MIN_TA':14.5,'MAX_TA':23}] b=[{'yyyy':'20151001','price':2134}, {'yyyy':'20151003','price':2234}] tmp=[{'yyyy':'20151001','AVG_TA':23.6,'MIN_TA':14.5,'MAX_TA':23,'price':2134}, {'yyyy':'20151002','AVG_TA':23.6,'MIN_TA':14.5,'MAX_TA':23,'price':0},{'yyyy':'20151003','AVG_TA':23.6,'MIN_TA':14.5,'MAX_TA':23,'price':2234} ]
- 미해결파이썬 입문 및 웹 크롤링을 활용한 다양한 자동화 어플리케이션 제작하기
실행시 urllib.error.HTTPError: HTTP Error 403: Forbidden 이라고 나옵니다
안녕하세요 강의 잘 보고 있습니다 이번에 실행 해보니 urllib.error.HTTPError: HTTP Error 403: Forbidden 와 같은 에러가 발생합니다. streams 목록까지는 잘 나오는데 download에서 그런거 같은데 어떤 문제가 있을까요? 확인 부탁드립니다 제 소스 입니다.=== import pytube import os import subprocess yt = pytube.YouTube("https://www.youtube.com/watch?v=CTRO5NXmAp8") #다운로드 받을 동영상 지정 videos = yt.streams.all() for i in range(len(videos)) : #range(1, 6) 1,2,3,4,5 : 첫번째 인자 이상 두번째 미만 print(i, ',', videos[i]) cNum = int(input("다운 받을 화질은? (0~21 입력)")) down_dir = "/Users/junhowoo/Documents" videos[cNum].download(down_dir) newFileName = input("변환 할 mp3 파일명은?") oriFileName = videos[cNum].default_filename subprocess.call(["ffmpeg", "-1", os.path.join(down_dir, oriFileName), os.path.join(down_dir, newFileName) ]) print("동영상 변환 완료")
- 미해결파이썬 입문 및 웹 크롤링을 활용한 다양한 자동화 어플리케이션 제작하기
질문있습니다
다음 코드에서 string을 안붙이면 정상적으로 출력이 되는데, string을 붙이면 None을 출력합니다. 왜때문인거죠? from bs4 import BeautifulSoup import urllib.request as req import sys import io sys.stdout = io.TextIOWrapper(sys.stdout.detach(), encoding = 'utf-8') sys.stderr = io.TextIOWrapper(sys.stderr.detach(), encoding = 'utf-8') url = "https://finance.daum.net/" res = req.urlopen(url).read() soup = BeautifulSoup(res, "html.parser") top = soup.select("#wrap > div.footer > span > div.fl > p")[0] print(top.string)