묻고 답해요
164만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결[리뉴얼] 처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화 전과정 익히기) [데이터분석/과학 Part1]
fig.add_annotation 관련 질문입니다.
EDA/pandas/시각화로 이커머스 거래액 상세 분석4 영상의 5분정도부터 시작되는 add_annotation 관련인데요. 지금은 표시 할 그래프 요소의 x 와 y 값을 수동으로 지정하여 표기하였는데요. 현업에서 다양한 데이터의 그래프들을 DB와 연동하여 자동으로 업데이트되게 하고 그것들을 하나의 페이지등에 보여지게 하는 대시보드를 만들면 좋겠다는 생각이 들어서요. 스스로 해 본 결과 datetime dtype 형태로 된 인덱스 값을 str 로 뽑는게 좀 복합하긴 한데.. 좀 간결하게 하는 방법 있을까요? 저는 아래와 같이 진행했는데.. 뭔가 더 간결하게 가능할것 같기도 해서 여쭤봅니다. # order_temp_data_deep << 월별 거래액 데이터 프레임 month = order_temp_data_deep[order_temp_data_deep['payment_value'] == order_temp_data_deep['payment_value'].min()].index.strftime('%Y-%m-%d') fig_order_temp_data_deep.add_annotation( x=list(month.values)[0], y=order_temp_data_deep['payment_value'].min(), text="<b>최저 거래액 월</b>", . . . . <이하 생략>
-
미해결프론트엔드 개발환경의 이해와 실습 (webpack, babel, eslint..)
webpack 명령어 에러
운영체제는 윈도우 10이고, webpack cli 버전은 4.0.0 버전입니다. powershell에서는 아예 안되는 거 같아서 cmd에서 하는데요...하고보니까 화면처럼 나오네요... 뭐가 문제일까요? 대충 보면 아예 --output 명령어 자체를 이해를 못하는거 같은데... 정확한 이유를 모르겠습니다.
-
미해결따라하며 배우는 도커와 CI환경 [2023.11 업데이트]
docker build 성공
강의와 다르게 docker build ./ 명령어 실행시 아래와 같이 나오며 성공된것 처럼 보입니다.' [+] Building 2.5s (6/6) FINISHED => [internal] load .dockerignore 0.0s => => transferring context: 2B 0.0s => [internal] load build definition from Dockerfile 0.0s => => transferring dockerfile: 36B 0.0s => [internal] load metadata for docker.io/library/node:10 2.5s => [1/2] FROM docker.io/library/node:10@sha256:9d06418fa4335f9cf96c59d5c09372f7a56329e7234456ee9fe2340c4ac35a9 0.0s => CACHED [2/2] RUN npm install 0.0s => exporting to image 0.0s => => exporting layers 0.0s => => writing image sha256:07b8bb6ccf76a84a978a21f784ee1288833052c43afe93b17dd285b8f2095eb8 0.0s 이후 docker run 07b8bb6ccf76a84a978a21f784ee1288833052c43afe93b17dd285b8f2095eb8 명령어 실행 시 Cannot find module '/server.js' 에러가 발생하는데 docker 버전의 차이때문에 다른것 인가요?
-
미해결iOS/Android 앱 개발을 위한 실전 React Native - Basic
Picker 관련하여
맥북이 없어 윈도우즈 환경으로 하고 있습니다. Picker부분에서 npm install @react-native-community/picker --save 하고 ios 폴더에서 npx pod-install picker.js 에서 import {Picker} from '@react-native-community/picker'; 하고 <Picker></Picker를 했는데 에러가 납니다. 에러메시지를 검색했더니 아래와 같이 설치하라고 해서 npm install react-native-android-dialog-picker --save 를 설치하였습니다. 그런데로 에러가 계속 똑같이 나서 진행이 안되네요.. ㅠㅠ 안드로이드라서 그런건지요? 다른 조치를 취해줘야할까요?
-
미해결파이썬 사용자를 위한 웹개발 입문 A to Z Django + Bootstrap
db를 sqlite3 에서 postgre 로 교체했는데 이걸 배포하려면 어떻게 해야 될까여?
안녕하세요 강사님~! 질문이 있습니다 강사님의 강의를 토대로 만들었던 토이 프로젝트의 db를 postgre 로 교체했는데여 vultr에 어떻게 디비를 설정해야 되나여? sqlite3 은 db를 따로 설정하지는 않잖아여 그래서 다시 배포 하려고 하는데 잘몰겠어서여 ㅋㅋ;; site: www.terecal-hyun.co.kr git: https://github.com/hyunsokstar/skilnote1
-
자바 ORM 표준 JPA 프로그래밍 - 기본편
맵핑을 항상 단방향으로 할 경우
삭제된 글입니다
-
미해결홍정모의 따라하며 배우는 C언어
while(getchar()!='\n')에 대해서 질문합니다!!
앞부분 강의에서 while(getchar()!='\n')이 나왔을 땐 잘 이해되지 않았지만 직관적으로 '여러가지 글자가 들어오면 맨 앞글자만 받고 나머지는 무시하려고 쓰는구나'하고 넘어갔습니다. 그러다 이번 강의에서 다시 한번 보고 완전히 이해하겠다고 마음을 먹고 구글링도 해보면서 어느정도는 이해를 한것 같습니다. 혹시 제가 이해한 것이 맞는 개념인지 여쭤봐도 될까요? 제가 이해한 것은 일단 우리가 어떤 것을 입력하면 일단 그것은 버퍼에 저장됩니다. 그리고 그것을 scanf 나 getchar를 이용해서 가져가는 것이라고 생각했습니다. 그래서 예를 들어 앞글자만 필요한 프로그램에서 while(getchar()!='\n')을 사용하면 , 앞글자를 제외한 나머지 글자들이 호출을 받지못한 상태로 버퍼에 남아있습니다. 그것들을 '\n'과 비교하기 위해 getchar()로 가져오게 되면 , 그 결과 버퍼는 비워지기 때문에 나머지글자들은 의미가 없는 것으로 간주된다고생각했습니다. --긴 글 읽어주셔서 감사합니다. 교수님 강의로 열심히 공부하고 있고 끝까지 완강하겠습니다.!!!!!--
-
미해결실전! Querydsl
group by 조건 2개 이상 시 패치 카운트 오류 문제
안녕하세요. 김영한 강사님. 지난 번 답변 감사드립니다! 현재 DB는 mysql이고, group by 2개를 해서, 그 결과물의 총 row 갯수를 가져오려는데, (패치 카운트 사용하여) 에러가 발생하더군요. (group by 한개는 되던데....) 생각해보니 jpql은 from 절에 서브쿼리를 만들 수 없기 때문에, fetch count가 총 로우갯수를 가져올 수 없었던 것 같았습니다.(selct count() from (서브쿼리) 이런 구조가 안되서...) DISTINCT도 컬럼 하나만 적용되는 것 같아서, 여러 대상을 DISTINCT한 후 카운트 하는 것도 안되는 것 같습니다. 이 쿼리는 꼭 2개의 GROUP by를 해야하기 상황이고, GROUP BY 1개만 해서 각각 카운트하고 group by 한 결과를 자바에서 sum 하는 방식으로 할까 하다가 괜찮은 방법이 아닌 것 같아서 다른 방법을 찾고 있습니다. 인터넷을 뒤져봐도 마땅한 방법을 못찾아서 그냥 그룹바이 2개 쿼리의 카운트 부분만 네이티브 쿼리를 써야 하나 생각하고 있습니다. 좋은 방법이 없을까요? 혹시 querydsl에서 이 방법을 해결하기 어렵다면, 다른 방식으로 해결이 가능할까요? 감사합니다.
-
미해결Vue.js 완벽 가이드 - 실습과 리팩토링으로 배우는 실전 개념
스피너 컴포넌트 소스 주소
강사님, 권한요청도 이 전에 정상적으로 처리되었고, 스피너 컴포넌트 소스 주소 링크를 누르기 전에 깃허브에 로그인도 되어있었는데 404에러가 떠요.
-
미해결[리뉴얼] React로 NodeBird SNS 만들기
css icon도 SSR이 가능 하나요?
현재 styled component는 사용하지 않고 semantic ui react를 쓰고 있습니다. 페이지를 처음 들어가거나 새로고침을 하면 아이콘에는 css가 약간 느리게 적용되는데 icon css도 SSR이 되도록 설정할 수 있나요?
-
미해결[리뉴얼] React로 NodeBird SNS 만들기
익스플로러 11에서는 작동이 안 됩니다.
크롬과 엣지에서는 정상적으로 작동하는데, 익스플로러 11에서는 아래와 같은 에러를 발생시키며 작동하지 않습니다. 강의대로 만든 코드에서는 정상적으로 동작하는데 제가 새로 만든 코드에서는 동작을 하지 않습니다. polyfil io에서 필요한 것들 복사해서 붙여넣기도 해보고 react-app-polyfill도 설치해 봤는데 해결이 안 되네요. 원본 코드랑 뭐가 달라서 안되는지 모르겠습니다.
-
미해결[개정판] 딥러닝 컴퓨터 비전 완벽 가이드
RPN에서의 앵커박스 질문
안녕하세요. RPN 학습 중 추가적인 궁금사항이 발생하여 질의 드립니다. 앵커박스는 3개의 종횡비로 개별 그리드 당 9개가 생성된다고 하셨는데요. 전제되는 것이 모든 앵커박스는 모두 수평, 수직 형태의 직사각형 형태 이잖아요. 그렇다면 45도 회전된 길쭉한(?) 물체는 가령 긴 배(ship)를 검출하게되면 의도치않게 불필요한 공간까지 확 퍼진 형태의 바운딩 박스가 나오게 되지 않나요? 만약 회전된 앵커박스를 생성하면 기다랗고 회전된 오브젝트에 잘 맞는 바운딩박스가 나오지 않을까요? 혹시 위와 같이 바꾸려면 엔지니어가 RPN에서 앵커박스를 생성할 때 기본적인 9개 앵커박스 말고 뭐랄까....한 그리드에서 시계방향으로 회전한 형태의 앵커박스를 추가할 수도 있는 건가요?
-
미해결자바 ORM 표준 JPA 프로그래밍 - 기본편
양방향 관계에서 질문이 있습니다.
Member 엔티티에서는 team 객체에 @ManyToOne , @JoinColumn(name = "TEAM_ID")로 설정했는데, 반대로 Team 엔티티에서 기본키 설정에서 @Id @GeneratedValue @Column(name = "TEAM_ID")도 설정되어있는데, @Column(name = "TEAM_ID") 이걸 빼더라도 조인 매핑이 되더라구요. 이유가 궁금해서 질문드립니다. jpa 가 알아서 id를 TEAM_ID 로 매핑해주는건가요?
-
해결됨홍정모의 따라하며 배우는 C++
(C++ 초보) && (독학하시는 분들)께 드리는 = ( enum class, switch 활용과 팁) 입니다!
저 또한 홍정모 선생님의 영상강의를 보며 배우는중인 C++ 신생아 인데요, 매 강의를 다 듣고난 뒤, 여러 사람들의 질답란을 읽으며 새롭게 알게되는 부분이 많이 있었습니다 그래서 저 처럼 질답란을 적극 활용하여 공부하시는 분들께 이번엔 제가 아는 것을 나누어주고 싶어 이렇게 글을 적어봅니다! 도움이 되셨으면 좋겠습니다! 부담갖지 마시고 재미로 읽으셨으면 좋겠습니다 :) <정리> 이번강의 switch - case - break (- default - break) 문법은 어떤 변수를 switch(조건) 조건 자리에 넣어 case(상수) 상수와 대조하여 변수와 상수가 같은(==) 값일 경우, 조건에 해당하는 case 의 코드를 실행시키고자 할 때 쓰이는 문법입니다 오늘의 코드를 사람과 가까운 고수준 언어 위의 '고오오오오수준 언어' 로 간단히 보면 이런 형식입니다 switch (변수) { case (상수 ex==0) : { // 변수 == 0 일 때 동작할 코드작성 } break; case (상수 ex==1) : { // 변수 == 1 일 때 동작할 코드작성 } break; . . . default: { //case에서 찾는 값이 없을때 동작. if문의 else와 같은 기능 } break; } 그리고 앞전 강의에서 배운 enum문(열거형) , enum class문(영역 제한 열거형) 열거체들은 상수에 이름을 부여해주는 기능입니다! 그래서 switch 문과 enum문은 함께 응용되어 많이 사용됩니다. <활용> 이렇게 Colors 라는 이름의 enum 문을 작성하면 상수 0 은 BLACK 이라는 이름을 갖게 되고, 상수 1 은 WHITE 이라는 이름을 갖게 되고, 상수2 는 RED 라는 이름을 갖게 되고, (3 == GREEN, 4 ==BLUE) cin, enum class, switch를 활용하여 이런 재밌는 코드를 작성하는 것이 가능해지게 됩니다! 사용자가 0을 입력하면 Black, 1을 입력하면 white 를, 사용자가 입력한 값이 case에서 찾을 수 없을 경우 '잘못 입력했다'고 콘솔창에 출력하는 코드입니다 빨간 밑줄은 명시적 형변환을 해주고 있는 모습입니다 형변환을 안해주면 아래와 같은 오류가 발생하기 때문입니다 'case에 있는 상수식이 enum class Colors 타입인데 왜 조건식에는 int 타입을 넣는거얏!' 하고 화내는 모습인듯 합니다ㅋㅋㅋ 그래서 switch 조건식도 Colors 사용자정의타입 으로 명시적 형변환을 하여 타입을 맞춰주었습니다. 그리고 switch 문이 꽤 길어보이고 복잡해 보이지만, 비쥬얼스튜디오에는 switch 문을 프로그래머가 더 빨리, 더 쉽게 입력할 수 있도록 도와주는 자동완성 기능이 존재합니다! < switch문 자동완성 > 'switch' 입력 → (tab) → enum class 이름 (위 예제에서는 'Colors')입력 → 다른곳 클릭 중간에 스페이스바나 다른 입력은 하지 않습니다. ( 참고 : https://ntbda.tistory.com/16 ) (참고2 : https://helloacm.com/code-snippet-auto-complete-on-switch-statement-using-enum-in-visual-studio/) 꽤 재미있는 기능이므로 여러가지 enum class를 활용하여 switch 문을 만들어보세요! 자동완성 단축키 연습 조금만 하시면 손에 금방 익어서 여러가지 switch 문을 작성하실 수 있으실겁니다! 여기까지 읽어주셔서 감사합니다 :D !! 잘못된 부분이 있다면 알려주세요 수정하겠습니다!
-
미해결[리뉴얼] 처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화 전과정 익히기) [데이터분석/과학 Part1]
중복값제거 , drop_duplicates 옵션값문의
해당 코드중, keep 의 옵션값이 last 입니다 first 를 하지 않고 last 를 써야만하는건지, last를 쓴 이유가 궁금합니다
-
미해결따라하며 배우는 노드, 리액트 시리즈 - 쇼핑몰 사이트 만들기[전체 리뉴얼]
설명해 주신곳이 위치가 잘 이해가 안가 못찾고 있습니다.
아래 글에 답변해주신걸 잘 이해를 못했습니다. => ' ' 을 '${Date.now()}_${file.originalname}' 으로 바꾸어 보란게 혹시 poduct.js 에 upload 쪽을 말해주신건가요? 업로드는 성공하되 console.log 가 다른걸 보니 filename 같은게 다르게 뜨는걸 보아 과젖ㅇ중 실수 나 뭔가 있었을 거다는건 예상이 되는데 아래와 같이 되있는걸 아래 두가지를 다 해봤는데 에러가 나서요 죄송한데 다시한번 설명해주실수 있을까요 router.post('/image', (req, res) => '${Date.now()}_${file.originalname}' upload(req, res, err => '${Date.now()}_${file.originalname}'
-
미해결실전! 스프링 데이터 JPA
repository service
김영한 개발자님 좋은 강의 감사드립니다. 유익한 강의를 따라 스프링 데이터 Jpa를 공부하니 호기심에 이것저것 궁금한게 생기네요. 초보 개발자인 저는 JpaRepository<T, ID>를 활용하면서 설계패턴에 대한 고민을 시작했습니다. 설계패턴을 이론으로 배울때는 별 생각없었는데, 코딩하면서 적용해보니깐 설계하기 애매한게 많더군요. 굉장히 흥미롭고, 그래서 선배 개발자님의 경험이 듣고 싶습니다. 1. JpaRepository는 T에 들어가는 하나의 테이블을 위해서 공통 인터페이스들을 제공해주고 있잖아요. 그렇다면 여러개의 테이블을 위해서는 일일이 JpaRepository를 따로 만들어줘야 할텐데요. 강의에서는 주로 하나의 테이블만을 이용해서 쿼리를 날렸기에, 하나의 JpaRepository로 충분했는데요. 테이블이 한두개면 모르겠는데 테이블 숫자가 많아지면 그에 맞춰 repository 숫자도 계속 늘려줘야 하는건가요? 가령 수백개의 테이블이 있을 경우에도 일일이 repository를 따로 만들어주는 건가요? 2. 테이블당 하나씩 repository를 만든다면, join 쿼리처럼 여러 테이블을 동시에 참조하는 쿼리는 어떤 테이블을 위한 repository에 작성해야할지 모르겠습니다. 예를들어 : '주문자'와 '상품'을 n:n 관계로 잇는 '주문' 테이블을 조회한다고 가정해볼경우. 제가 주문한 상품에 대한 상세정보를 가져오려고 쿼리를 짜면 다음과 같을 것입니다. select (상품명, 상품가격, 유통기한) from '주문' join '상품' on '주문'.상품id = '상품'.id where '주문'.사용자id = 'qwer1234' 그렇다면 이 쿼리를 '주문자repository'에서 작성해야할지, '상품repository'에서 작성해야할지, '주문repository'에서 작성해야할지 모르겠습니다. 테이블 단위로 repository를 만든다면, 여러 테이블을 넘나들며 query를 날리는 비즈니스 로직이 있을경우, 어떤 테이블을 위한 repository에서 그 쿼리를 작성해줘야 할까요? join 쿼리만을 위한 repository를 따로 만들어줄까도 생각해봤고, service 측에서 작성해줄까도 생각을 해봤는데요. service 측에서 작성해주는 것은 service랑 repository를 분리하는 것이 퇴색되는 것 같습니다. join을 위한 repository를 따로 만드는 것은 개발하다 구조적인 문제가 생길지 않생길지 몰라서 확신이 안섭니다. 물론 위에 대한 답변들은 프로젝트의 규모나 비즈니스 로직에 따라서 어떻게 분리할지, 통합할지 얘기가 달라지겠지만, 김영한 개발자님은 실무에서 어떻게 균형있게 분리하셨는지 경험을 듣고 싶습니다. 감사합니다.
-
미해결iOS AutoLayout 완벽 가이드 - 실무 프로젝트를 위한 실전강의
Chat_6 키보드 올라갈때 테이블 스크롤 이동 이슈
어느정도 채팅을 치고 키보드를 내렸다 다시 올릴경우 그땐 어떻게 테이블 스크롤이 마지막 채팅을 향하게 하나요??
-
미해결[리뉴얼] 처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화 전과정 익히기) [데이터분석/과학 Part1]
자꾸 질문드려 죄송합니다 . 컬럼인덱스 이해가 안가네요..
프로그램이 처음이라서 그런지 모든게 의문투성입니다. 어느덧 40이 넘은 나이지만, 퇴근후에 회사에 남아서, 어려워도 포기하지 않고 몇번씩 돌려가며 연습하고있습니다. 그래도 이해가 가지 않아 질문드려요 import json import pandas as pd with open('COVID-19-master/csse_covid_19_data/country_convert.json', 'r', encoding = 'utf-8-sig') as json_file: jons_data = json.load(json_file) def country_name_convert(row): if row['Country_Region'] in json_data: return json_data[row['Country_Region']] return row['Country_Region'] def creat_dateframe(filename): doc = pd.read_csv('PATH + filename', encoding= 'utf-8-sig') try: # 읽었는데 읽은 파일의 컬럼인덱스가 우리가 원하는 컬럼네임인지 확인해야돼, 아니면 바꿔줘야해서 try doc = doc[['Country_Region', 'Confirmed']] except: doc = doc[['Country/Region', 'Confirmed']] doc.columns = ['Country_Region', 'Confirmed'] doc = doc.dropna(subset = ['Confirmed']) # 특정컬럼의 값이 없는 행을 삭제해버려 doc['Country_Region'] = doc.apply(country_name_convert, axis =1) # 국가명을 여러파일에 일관되게 변경하기 doc = doc.astype({'Confirmed':'int64'}) doc = groupby('Country_Region').sum() date_colum = filename.split('.')[0].lstrip('0').replace('-', '/') doc.columns = [date_column] return doc 위의 코드에서 date_colum = filename.split('.')[0].lstrip('0').replace('-', '/') doc.columns = [date_column] 이 두줄은 date_colum => 컬럼명을 만들고 doc.columns = [date_column] => 컬럼을 지정한것으로 보입니다 원래 doc의 컬럼은 'Country_Region', 'Confirmed' 이렇게 두개 였는데 doc.columns = [date_column] 이 코드로 인하여 1개의 컬럼이 되어진건가요? 그럼 자동으로 앞의 컬럼 Country_Region 이게 인덱스로 지정되어지는 건가요? 앞의 컬럼이 인덱스로 지정되는게 법칙일까요? 컬럼이 5개인데 1개로 줄인다면, 무조건 맨앞의 컬럼이 인덱스가 되는건가요? 맨처음에 맨앞에 있던 인덱스컬럼 0,1,2,3,4,5 이건 왜 없어졌을까요? 질문을 잘 전달드렸는지 모르겠네요. 질문이 너무 이상하다면. 답변보다 제가 찾아봐야할 강의 목차를 알려주시면 감사하겠습니다! 그럼 많은 지도 부탁드리겠습니다
-
미해결[리뉴얼] 처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화 전과정 익히기) [데이터분석/과학 Part1]
강의에 없는 내용인데 질문드려도 되나요?
import os PATH = 'COVID-19-master/csse_covid_19_data/csse_covid_19_daily_reports/' file_lsit = os.listdir(PATH) for file in file_list: if file.split(".")[-1] == 'csv': csv_list.append(file) print(csv_list) 이렇게 코드를 작성해보았습니다 ( csv_list = list() 이걸빼고 작성해봄, 이 코드가 왜 들어가야 하는지 모르겠어요 ㅠㅠ) 실행해보니 값이 두번출력되네요.. 왜 두번 출력되는지 여쭤봐도 되나요? ['01-22-2020.csv', '01-23-2020.csv', '01-24-2020.csv', '01-25-2020.csv', '01-26-2020.csv', '01-27-2020.csv', '01-28-2020.csv', '01-29-2020.csv', '01-30-2020.csv', '01-31-2020.csv', '02-01-2020.csv', '02-02-2020.csv', '02-03-2020.csv', '02-04-2020.csv', '02-05-2020.csv', '02-06-2020.csv', '02-07-2020.csv', '02-08-2020.csv', '02-09-2020.csv', '02-10-2020.csv', '02-11-2020.csv', '02-12-2020.csv', '02-13-2020.csv', '02-14-2020.csv', '02-15-2020.csv', '02-16-2020.csv', '02-17-2020.csv', '02-18-2020.csv', '02-19-2020.csv', '02-20-2020.csv', '02-21-2020.csv', '02-22-2020.csv', '02-23-2020.csv', '02-24-2020.csv', '02-25-2020.csv', '02-26-2020.csv', '02-27-2020.csv', '02-28-2020.csv', '02-29-2020.csv', '03-01-2020.csv', '03-02-2020.csv', '03-03-2020.csv', '03-04-2020.csv', '03-05-2020.csv', '03-06-2020.csv', '03-07-2020.csv', '03-08-2020.csv', '03-09-2020.csv', '03-10-2020.csv', '03-11-2020.csv', '03-12-2020.csv', '03-13-2020.csv', '03-14-2020.csv', '03-15-2020.csv', '03-16-2020.csv', '03-17-2020.csv', '03-18-2020.csv', '03-19-2020.csv', '03-20-2020.csv', '03-21-2020.csv', '03-22-2020.csv', '03-23-2020.csv', '03-24-2020.csv', '03-25-2020.csv', '03-26-2020.csv', '03-27-2020.csv', '03-28-2020.csv', '03-29-2020.csv', '03-30-2020.csv', '03-31-2020.csv', '04-01-2020.csv', '04-02-2020.csv', '04-03-2020.csv', '04-04-2020.csv', '04-05-2020.csv', '04-06-2020.csv', '04-07-2020.csv', '04-08-2020.csv', '04-09-2020.csv', '04-10-2020.csv', '04-11-2020.csv', '04-12-2020.csv', '04-13-2020.csv', '04-14-2020.csv', '04-15-2020.csv', '04-16-2020.csv', '04-17-2020.csv', '04-18-2020.csv', '04-19-2020.csv', '04-20-2020.csv', '04-21-2020.csv', '04-22-2020.csv', '04-23-2020.csv', '04-24-2020.csv', '04-25-2020.csv', '04-26-2020.csv', '04-27-2020.csv', '04-28-2020.csv', '04-29-2020.csv', '04-30-2020.csv', '05-01-2020.csv', '05-02-2020.csv', '05-03-2020.csv', '05-04-2020.csv', '05-05-2020.csv', '05-06-2020.csv', '05-07-2020.csv', '05-08-2020.csv', '05-09-2020.csv', '05-10-2020.csv', '05-11-2020.csv', '05-12-2020.csv', '05-13-2020.csv', '05-14-2020.csv', '05-15-2020.csv', '05-16-2020.csv', '05-17-2020.csv', '05-18-2020.csv', '05-19-2020.csv', '05-20-2020.csv', '05-21-2020.csv', '05-22-2020.csv', '05-23-2020.csv', '05-24-2020.csv', '05-25-2020.csv', '05-26-2020.csv', '05-27-2020.csv', '05-28-2020.csv', '05-29-2020.csv', '05-30-2020.csv', '05-31-2020.csv', '06-01-2020.csv', '06-02-2020.csv', '06-03-2020.csv', '06-04-2020.csv', '06-05-2020.csv', '06-06-2020.csv', '06-07-2020.csv', '06-08-2020.csv', '06-09-2020.csv', '06-10-2020.csv', '06-11-2020.csv', '06-12-2020.csv', '06-13-2020.csv', '06-14-2020.csv', '06-15-2020.csv', '06-16-2020.csv', '06-17-2020.csv', '01-22-2020.csv', '01-23-2020.csv', '01-24-2020.csv', '01-25-2020.csv', '01-26-2020.csv', '01-27-2020.csv', '01-28-2020.csv', '01-29-2020.csv', '01-30-2020.csv', '01-31-2020.csv', '02-01-2020.csv', '02-02-2020.csv', '02-03-2020.csv', '02-04-2020.csv', '02-05-2020.csv', '02-06-2020.csv', '02-07-2020.csv', '02-08-2020.csv', '02-09-2020.csv', '02-10-2020.csv', '02-11-2020.csv', '02-12-2020.csv', '02-13-2020.csv', '02-14-2020.csv', '02-15-2020.csv', '02-16-2020.csv', '02-17-2020.csv', '02-18-2020.csv', '02-19-2020.csv', '02-20-2020.csv', '02-21-2020.csv', '02-22-2020.csv', '02-23-2020.csv', '02-24-2020.csv', '02-25-2020.csv', '02-26-2020.csv', '02-27-2020.csv', '02-28-2020.csv', '02-29-2020.csv', '03-01-2020.csv', '03-02-2020.csv', '03-03-2020.csv', '03-04-2020.csv', '03-05-2020.csv', '03-06-2020.csv', '03-07-2020.csv', '03-08-2020.csv', '03-09-2020.csv', '03-10-2020.csv', '03-11-2020.csv', '03-12-2020.csv', '03-13-2020.csv', '03-14-2020.csv', '03-15-2020.csv', '03-16-2020.csv', '03-17-2020.csv', '03-18-2020.csv', '03-19-2020.csv', '03-20-2020.csv', '03-21-2020.csv', '03-22-2020.csv', '03-23-2020.csv', '03-24-2020.csv', '03-25-2020.csv', '03-26-2020.csv', '03-27-2020.csv', '03-28-2020.csv', '03-29-2020.csv', '03-30-2020.csv', '03-31-2020.csv', '04-01-2020.csv', '04-02-2020.csv', '04-03-2020.csv', '04-04-2020.csv', '04-05-2020.csv', '04-06-2020.csv', '04-07-2020.csv', '04-08-2020.csv', '04-09-2020.csv', '04-10-2020.csv', '04-11-2020.csv', '04-12-2020.csv', '04-13-2020.csv', '04-14-2020.csv', '04-15-2020.csv', '04-16-2020.csv', '04-17-2020.csv', '04-18-2020.csv', '04-19-2020.csv', '04-20-2020.csv', '04-21-2020.csv', '04-22-2020.csv', '04-23-2020.csv', '04-24-2020.csv', '04-25-2020.csv', '04-26-2020.csv', '04-27-2020.csv', '04-28-2020.csv', '04-29-2020.csv', '04-30-2020.csv', '05-01-2020.csv', '05-02-2020.csv', '05-03-2020.csv', '05-04-2020.csv', '05-05-2020.csv', '05-06-2020.csv', '05-07-2020.csv', '05-08-2020.csv', '05-09-2020.csv', '05-10-2020.csv', '05-11-2020.csv', '05-12-2020.csv', '05-13-2020.csv', '05-14-2020.csv', '05-15-2020.csv', '05-16-2020.csv', '05-17-2020.csv', '05-18-2020.csv', '05-19-2020.csv', '05-20-2020.csv', '05-21-2020.csv', '05-22-2020.csv', '05-23-2020.csv', '05-24-2020.csv', '05-25-2020.csv', '05-26-2020.csv', '05-27-2020.csv', '05-28-2020.csv', '05-29-2020.csv', '05-30-2020.csv', '05-31-2020.csv', '06-01-2020.csv', '06-02-2020.csv', '06-03-2020.csv', '06-04-2020.csv', '06-05-2020.csv', '06-06-2020.csv', '06-07-2020.csv', '06-08-2020.csv', '06-09-2020.csv', '06-10-2020.csv', '06-11-2020.csv', '06-12-2020.csv', '06-13-2020.csv', '06-14-2020.csv', '06-15-2020.csv', '06-16-2020.csv', '06-17-2020.csv']