-
카테고리
-
세부 분야
데이터 엔지니어링
-
해결 여부
해결됨
DUPEFILTER_CLASS 에 대해 설명 부탁드리겠습니다.
20.02.26 22:23 작성 조회수 134
0
예제 파일에 DUPEFILTER_CLASS = 'scrapy.dupefilters.BaseDupFiler' 로 되어 있던데 이게 뭔지요? 답변 부탁드리겠읍니다.
답변을 작성해보세요.
1
잔재미코딩 DaveLee
지식공유자2020.03.02
안녕하세요. 해당 설정은 URL이 중복될 경우, request가 두번 요청이 안됩니다. 중복 요청에 대해서는 드랍을 시키는데, 이를 해결하는 설정입니다. 예를 들어 예제의 각 URL을 보시면 corners.gmarket.co.kr 로 앞의 URL이 동일해서요.
이 부분은 강좌에서 설명한 부분이 있고, 첨부드린 프로젝트 코드에서도 확인해보실 수 있는데요.
settings.py 에서 다음 항목에 앞에 # 을 삭제해서, enable 하시면, 중복 URL에 대해서도 요청이 가능합니다.
감사합니다.
DUPEFILTER_CLASS = 'scrapy.dupefilter.RFPDupeFilter'
0
Seongc좋은ᅵᅵheol Kim
질문자2020.03.04
강사님의 친절한 답변 감사합니다. scrapy 프레임워크 정말 감사합니다. selenium을 하다 보면 처리 속도가 문제가 되는데 이 부분에 대해 많은 도움이 되었읍니다. 하지만 scrapy 에서도 한가지 단점이 있는데 사용자가 입력해야 하는 부분의 처리 입니다. 이를 위해 selenium과 scrapy를 결합한 형태로 사용해야 할 거 같은데 이 경우에도 scrapy의 장점을 취할 수 있는지 궁금합니다. 가능하시면 양 솔루션의 장점을 같이 얻을 수 있는 예제 샘플 제공해 주시면 너무 감사하겠습니다. 강사님 덕분에 그동안 어려웠던 부분 많이 해결하고 있습니다. 아울러 적은 비용으로 수준높은 지식을 주시는 강사님 감사합니다. 늘 많은 지식 주시고 항상 발전 있으시길 기원 드립니다.
답변 2