처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화까지 전과정 기본 익히기) [데이터과학 Part1]대시보드
월 15,400원
5개월 할부 시다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화까지 전과정 기본 익히기) [데이터과학 Part1]
파이썬에 대한 기초를 더 쌓고 와야하는지 궁금합니다.
안녕하세요 데이터 분석에 관심이 생겨 강의를 듣고 있는 학생입니다. 이해가 되는 부분은 너무 재밌고 이런 세계가 있었나 싶어 앞으로 더 기대가 됩니다. 하지만 현재 파일 형태(XML,CSV 등)에 따른 데이터 불러오는 파트를 수강중인데 제가 기초지식이 전무한 상태라 이해가 잘 되지 않습니다. 한 줄 한 줄 왜 이렇게 쓰는지 이해가 되어야 이해하기도 쉬울텐데 data_file = open (~~~~/~~~) data_write = csv.writer(~~~) 이러한 각 부분들이 어떤 의미를 가지는 건지, 왜 이런 식으로 적어야 하는지 이해가 안되다보니 조금 힘든 부분이 있습니다. 이런 경우 더 기초적인 강의를 수강하고 오는게 좋을지 아니면 추후 강의를 듣다보면 차차 이해되는 부분이기 때문에 지금은 최대한 이해하고 넘어가야하는 부분인지 궁금합니다.
- 미해결처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화까지 전과정 기본 익히기) [데이터과학 Part1]
select, select_one 의 차이점??
select_one을 select으로 바꿔서 해봤는데, 에러가 나네요. 왜 그런 걸까요? select는 user태그의 하위 내용 모두를 가져오는 것이고, select_one은 user태그의 하위 내용의 일치하는 것들 중 처음 만난 하나를 가져오는 것으로 알고있습니다. 그렇다면, select_one을 select로 바꿔도 정상적으로 출력이 되어야 하는 것 아닌가요? 사용에 제한이 있는 부분이 있다면 알려주시면 감사하겠습니다!
- 미해결처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화까지 전과정 기본 익히기) [데이터과학 Part1]
줄바꿈 문자인 \n의 상황별? 역할에 대한 질문입니다!
간단한 질문이면서도 그 원인이 무엇일지 궁금해서요! data_file = open("00_data/text_data_practice.txt ","w") data_file.write('유치원A\n초등학교B\n중학교C\n고등학교D') data_file.close() 이 코드를 실행했을 때 \n이 그대로 화면에 출력이 되는데요. \n은 문자열의 맨 마지막에 적었을 때만 줄바꿈 역할을 하는 것일까요?? 위와 달리 이 코드는 왜 1 2 3이 줄바꿈되어 출력되는 것인지 궁금합니다. 매번 감사합니다!
- 미해결처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화까지 전과정 기본 익히기) [데이터과학 Part1]
국가명을 json 데이터의 값을 바꾸는게 이해가 안가서 질문드려요
강의 목차 "pandas 라이브러리로 실제 데이터 전처리하기2" 의 7분 38초의 코드는 아래와 같고 이건 이해가 갑니다 헌데 해당 목차 1분 59초 를 보면 코드가 이렇게 바뀌었습니다 물론 코드는 얼마든지 바뀔수있는거 라는거 압니다. 다만 바뀐 코드를 이해를 못하겠어서 질문드립니다. 3번재줄 return json_data[row['Country_Region']] 이건 제이슨데이터의 키값이 "row['Country_Region']" 이거인 "값"을 가져와서 이걸 리턴한다고 이해했습니다 값을 가져와서 , 다른 데이터를 수정하는게 아니라 리턴만한다는게 이해가 안가네요리턴을 한다는건 수정이나 기타 다른일은 하지 않고 값을 가져오기만 하는것이 아닌지요? 그리고 마지막줄 return row['Country_Region'] 이거는 함수 내에서 수정한 데이터가 없기 때문에 본래의 맨처음 데이터가 리턴되지 않나요? 여기 함수식에서, row['Country_Region'] 의 값을 바꾸는 코드가 없다고 생각되어서 너무너무 헥갈립니다. 부디 알려주세요andas 라이브러리로 실제 데이터
- 미해결처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화까지 전과정 기본 익히기) [데이터과학 Part1]
데이터 크기가 다릅니다.
하기와 같이 행열 갯수가 다릅니다. 동일한 파일과 방법을 통해 진행했는데.. 어떤 데이터를 가져오지 못한지 확실히 모르겠네요. 엑셀 파일로 확인하니 2485개가 맞는 듯 한데..
- 미해결처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화까지 전과정 기본 익히기) [데이터과학 Part1]
코로나 데이터 전처리 파트 질문 드립니다.
안녕하세요, 복습 중 궁금한 점 질문 드립니다. 1 json 파일 다루는 함수에서 json.load와 json.loads 둘 사이 차이점이 뭔가요? json 파일을 딕셔너리 형태로 사용할 수 있게 만들어 준다는 점은 이해했는데 둘 차이잠 이해가 잘 안되어 질문 남깁니다. 2. 코로나 데이터 전처리 복습 중 궁금한 점입니다. 보통 실제로 현업에서 이 데이터를 다룬다고 했을 때 어떤 순서로 접근하게 되는지 궁금합니다. 강의에서는 플로우를 미리 짜두시고, 중간 중간 필요한 개념과 함수를 소개해주신 것 같은데요 실전 상황인 경우 전처리 순서를 아래와 같이 계획하고, 1. 개별 파일 행/열, 결측치 정리하고 사용할 데이터 프레임만 남김 2. 전체 파일 컬럼명/인덱스명 점검 후 통일하고 필요한 내용에 맞게 정리 3. 전체파일 리스트로 불러온 후 파일 병합 진행과정에서, Country_Region , Country/Region 의 사례 처럼 컬럼의 제목이 다르다던가 국가명이 파일마다 조금씩 다르게 설정되어 있다던가 하는 문제점이 발생하면 그때그때 문제를 해결하는 건가요? (국가명 json 파일은 그럼 강사님께서 미리 Country_Region 내 변수들을 모두 뽑아서 중복제거 후 별도의 key 와 값으로 직접 만들어서 제공해주신거죠?) 실제 분석시 윤곽을 어떻게 잡고 시작하게 되는지 궁금합니다. 질문이 좀 길어졌네요. 꼼꼼하게 준비해두신 강의 잘 듣고 있습니다 :) 감사합니다.
- 미해결처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화까지 전과정 기본 익히기) [데이터과학 Part1]
fig.add_annotation 관련 질문입니다.
EDA/pandas/시각화로 이커머스 거래액 상세 분석4 영상의 5분정도부터 시작되는 add_annotation 관련인데요. 지금은 표시 할 그래프 요소의 x 와 y 값을 수동으로 지정하여 표기하였는데요. 현업에서 다양한 데이터의 그래프들을 DB와 연동하여 자동으로 업데이트되게 하고 그것들을 하나의 페이지등에 보여지게 하는 대시보드를 만들면 좋겠다는 생각이 들어서요. 스스로 해 본 결과 datetime dtype 형태로 된 인덱스 값을 str 로 뽑는게 좀 복합하긴 한데.. 좀 간결하게 하는 방법 있을까요? 저는 아래와 같이 진행했는데.. 뭔가 더 간결하게 가능할것 같기도 해서 여쭤봅니다. # order_temp_data_deep << 월별 거래액 데이터 프레임 month = order_temp_data_deep[order_temp_data_deep['payment_value'] == order_temp_data_deep['payment_value'].min()].index.strftime('%Y-%m-%d') fig_order_temp_data_deep.add_annotation( x=list(month.values)[0], y=order_temp_data_deep['payment_value'].min(), text="<b>최저 거래액 월</b>", . . . . <이하 생략>
- 미해결처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화까지 전과정 기본 익히기) [데이터과학 Part1]
중복값제거 , drop_duplicates 옵션값문의
해당 코드중, keep 의 옵션값이 last 입니다 first 를 하지 않고 last 를 써야만하는건지, last를 쓴 이유가 궁금합니다
- 미해결처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화까지 전과정 기본 익히기) [데이터과학 Part1]
자꾸 질문드려 죄송합니다 . 컬럼인덱스 이해가 안가네요..
프로그램이 처음이라서 그런지 모든게 의문투성입니다. 어느덧 40이 넘은 나이지만, 퇴근후에 회사에 남아서, 어려워도 포기하지 않고 몇번씩 돌려가며 연습하고있습니다. 그래도 이해가 가지 않아 질문드려요 import json import pandas as pd with open('COVID-19-master/csse_covid_19_data/country_convert.json', 'r', encoding = 'utf-8-sig') as json_file: jons_data = json.load(json_file) def country_name_convert(row): if row['Country_Region'] in json_data: return json_data[row['Country_Region']] return row['Country_Region'] def creat_dateframe(filename): doc = pd.read_csv('PATH + filename', encoding= 'utf-8-sig') try: # 읽었는데 읽은 파일의 컬럼인덱스가 우리가 원하는 컬럼네임인지 확인해야돼, 아니면 바꿔줘야해서 try doc = doc[['Country_Region', 'Confirmed']] except: doc = doc[['Country/Region', 'Confirmed']] doc.columns = ['Country_Region', 'Confirmed'] doc = doc.dropna(subset = ['Confirmed']) # 특정컬럼의 값이 없는 행을 삭제해버려 doc['Country_Region'] = doc.apply(country_name_convert, axis =1) # 국가명을 여러파일에 일관되게 변경하기 doc = doc.astype({'Confirmed':'int64'}) doc = groupby('Country_Region').sum() date_colum = filename.split('.')[0].lstrip('0').replace('-', '/') doc.columns = [date_column] return doc 위의 코드에서 date_colum = filename.split('.')[0].lstrip('0').replace('-', '/') doc.columns = [date_column] 이 두줄은 date_colum => 컬럼명을 만들고 doc.columns = [date_column] => 컬럼을 지정한것으로 보입니다 원래 doc의 컬럼은 'Country_Region', 'Confirmed' 이렇게 두개 였는데 doc.columns = [date_column] 이 코드로 인하여 1개의 컬럼이 되어진건가요? 그럼 자동으로 앞의 컬럼 Country_Region 이게 인덱스로 지정되어지는 건가요? 앞의 컬럼이 인덱스로 지정되는게 법칙일까요? 컬럼이 5개인데 1개로 줄인다면, 무조건 맨앞의 컬럼이 인덱스가 되는건가요? 맨처음에 맨앞에 있던 인덱스컬럼 0,1,2,3,4,5 이건 왜 없어졌을까요? 질문을 잘 전달드렸는지 모르겠네요. 질문이 너무 이상하다면. 답변보다 제가 찾아봐야할 강의 목차를 알려주시면 감사하겠습니다! 그럼 많은 지도 부탁드리겠습니다
- 미해결처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화까지 전과정 기본 익히기) [데이터과학 Part1]
강의에 없는 내용인데 질문드려도 되나요?
import os PATH = 'COVID-19-master/csse_covid_19_data/csse_covid_19_daily_reports/' file_lsit = os.listdir(PATH) for file in file_list: if file.split(".")[-1] == 'csv': csv_list.append(file) print(csv_list) 이렇게 코드를 작성해보았습니다 ( csv_list = list() 이걸빼고 작성해봄, 이 코드가 왜 들어가야 하는지 모르겠어요 ㅠㅠ) 실행해보니 값이 두번출력되네요.. 왜 두번 출력되는지 여쭤봐도 되나요? ['01-22-2020.csv', '01-23-2020.csv', '01-24-2020.csv', '01-25-2020.csv', '01-26-2020.csv', '01-27-2020.csv', '01-28-2020.csv', '01-29-2020.csv', '01-30-2020.csv', '01-31-2020.csv', '02-01-2020.csv', '02-02-2020.csv', '02-03-2020.csv', '02-04-2020.csv', '02-05-2020.csv', '02-06-2020.csv', '02-07-2020.csv', '02-08-2020.csv', '02-09-2020.csv', '02-10-2020.csv', '02-11-2020.csv', '02-12-2020.csv', '02-13-2020.csv', '02-14-2020.csv', '02-15-2020.csv', '02-16-2020.csv', '02-17-2020.csv', '02-18-2020.csv', '02-19-2020.csv', '02-20-2020.csv', '02-21-2020.csv', '02-22-2020.csv', '02-23-2020.csv', '02-24-2020.csv', '02-25-2020.csv', '02-26-2020.csv', '02-27-2020.csv', '02-28-2020.csv', '02-29-2020.csv', '03-01-2020.csv', '03-02-2020.csv', '03-03-2020.csv', '03-04-2020.csv', '03-05-2020.csv', '03-06-2020.csv', '03-07-2020.csv', '03-08-2020.csv', '03-09-2020.csv', '03-10-2020.csv', '03-11-2020.csv', '03-12-2020.csv', '03-13-2020.csv', '03-14-2020.csv', '03-15-2020.csv', '03-16-2020.csv', '03-17-2020.csv', '03-18-2020.csv', '03-19-2020.csv', '03-20-2020.csv', '03-21-2020.csv', '03-22-2020.csv', '03-23-2020.csv', '03-24-2020.csv', '03-25-2020.csv', '03-26-2020.csv', '03-27-2020.csv', '03-28-2020.csv', '03-29-2020.csv', '03-30-2020.csv', '03-31-2020.csv', '04-01-2020.csv', '04-02-2020.csv', '04-03-2020.csv', '04-04-2020.csv', '04-05-2020.csv', '04-06-2020.csv', '04-07-2020.csv', '04-08-2020.csv', '04-09-2020.csv', '04-10-2020.csv', '04-11-2020.csv', '04-12-2020.csv', '04-13-2020.csv', '04-14-2020.csv', '04-15-2020.csv', '04-16-2020.csv', '04-17-2020.csv', '04-18-2020.csv', '04-19-2020.csv', '04-20-2020.csv', '04-21-2020.csv', '04-22-2020.csv', '04-23-2020.csv', '04-24-2020.csv', '04-25-2020.csv', '04-26-2020.csv', '04-27-2020.csv', '04-28-2020.csv', '04-29-2020.csv', '04-30-2020.csv', '05-01-2020.csv', '05-02-2020.csv', '05-03-2020.csv', '05-04-2020.csv', '05-05-2020.csv', '05-06-2020.csv', '05-07-2020.csv', '05-08-2020.csv', '05-09-2020.csv', '05-10-2020.csv', '05-11-2020.csv', '05-12-2020.csv', '05-13-2020.csv', '05-14-2020.csv', '05-15-2020.csv', '05-16-2020.csv', '05-17-2020.csv', '05-18-2020.csv', '05-19-2020.csv', '05-20-2020.csv', '05-21-2020.csv', '05-22-2020.csv', '05-23-2020.csv', '05-24-2020.csv', '05-25-2020.csv', '05-26-2020.csv', '05-27-2020.csv', '05-28-2020.csv', '05-29-2020.csv', '05-30-2020.csv', '05-31-2020.csv', '06-01-2020.csv', '06-02-2020.csv', '06-03-2020.csv', '06-04-2020.csv', '06-05-2020.csv', '06-06-2020.csv', '06-07-2020.csv', '06-08-2020.csv', '06-09-2020.csv', '06-10-2020.csv', '06-11-2020.csv', '06-12-2020.csv', '06-13-2020.csv', '06-14-2020.csv', '06-15-2020.csv', '06-16-2020.csv', '06-17-2020.csv', '01-22-2020.csv', '01-23-2020.csv', '01-24-2020.csv', '01-25-2020.csv', '01-26-2020.csv', '01-27-2020.csv', '01-28-2020.csv', '01-29-2020.csv', '01-30-2020.csv', '01-31-2020.csv', '02-01-2020.csv', '02-02-2020.csv', '02-03-2020.csv', '02-04-2020.csv', '02-05-2020.csv', '02-06-2020.csv', '02-07-2020.csv', '02-08-2020.csv', '02-09-2020.csv', '02-10-2020.csv', '02-11-2020.csv', '02-12-2020.csv', '02-13-2020.csv', '02-14-2020.csv', '02-15-2020.csv', '02-16-2020.csv', '02-17-2020.csv', '02-18-2020.csv', '02-19-2020.csv', '02-20-2020.csv', '02-21-2020.csv', '02-22-2020.csv', '02-23-2020.csv', '02-24-2020.csv', '02-25-2020.csv', '02-26-2020.csv', '02-27-2020.csv', '02-28-2020.csv', '02-29-2020.csv', '03-01-2020.csv', '03-02-2020.csv', '03-03-2020.csv', '03-04-2020.csv', '03-05-2020.csv', '03-06-2020.csv', '03-07-2020.csv', '03-08-2020.csv', '03-09-2020.csv', '03-10-2020.csv', '03-11-2020.csv', '03-12-2020.csv', '03-13-2020.csv', '03-14-2020.csv', '03-15-2020.csv', '03-16-2020.csv', '03-17-2020.csv', '03-18-2020.csv', '03-19-2020.csv', '03-20-2020.csv', '03-21-2020.csv', '03-22-2020.csv', '03-23-2020.csv', '03-24-2020.csv', '03-25-2020.csv', '03-26-2020.csv', '03-27-2020.csv', '03-28-2020.csv', '03-29-2020.csv', '03-30-2020.csv', '03-31-2020.csv', '04-01-2020.csv', '04-02-2020.csv', '04-03-2020.csv', '04-04-2020.csv', '04-05-2020.csv', '04-06-2020.csv', '04-07-2020.csv', '04-08-2020.csv', '04-09-2020.csv', '04-10-2020.csv', '04-11-2020.csv', '04-12-2020.csv', '04-13-2020.csv', '04-14-2020.csv', '04-15-2020.csv', '04-16-2020.csv', '04-17-2020.csv', '04-18-2020.csv', '04-19-2020.csv', '04-20-2020.csv', '04-21-2020.csv', '04-22-2020.csv', '04-23-2020.csv', '04-24-2020.csv', '04-25-2020.csv', '04-26-2020.csv', '04-27-2020.csv', '04-28-2020.csv', '04-29-2020.csv', '04-30-2020.csv', '05-01-2020.csv', '05-02-2020.csv', '05-03-2020.csv', '05-04-2020.csv', '05-05-2020.csv', '05-06-2020.csv', '05-07-2020.csv', '05-08-2020.csv', '05-09-2020.csv', '05-10-2020.csv', '05-11-2020.csv', '05-12-2020.csv', '05-13-2020.csv', '05-14-2020.csv', '05-15-2020.csv', '05-16-2020.csv', '05-17-2020.csv', '05-18-2020.csv', '05-19-2020.csv', '05-20-2020.csv', '05-21-2020.csv', '05-22-2020.csv', '05-23-2020.csv', '05-24-2020.csv', '05-25-2020.csv', '05-26-2020.csv', '05-27-2020.csv', '05-28-2020.csv', '05-29-2020.csv', '05-30-2020.csv', '05-31-2020.csv', '06-01-2020.csv', '06-02-2020.csv', '06-03-2020.csv', '06-04-2020.csv', '06-05-2020.csv', '06-06-2020.csv', '06-07-2020.csv', '06-08-2020.csv', '06-09-2020.csv', '06-10-2020.csv', '06-11-2020.csv', '06-12-2020.csv', '06-13-2020.csv', '06-14-2020.csv', '06-15-2020.csv', '06-16-2020.csv', '06-17-2020.csv']
- 미해결처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화까지 전과정 기본 익히기) [데이터과학 Part1]
if row['Country_Region'] in json_data: 문의드려요
def country_name_convert(row): if row['Country_Region'] in json_data: return json_data[row['Country_Region']] return row['Country_Region'] 위의 코드중 if row['Country_Region'] in json_data: 에서 row['Country_Region'] 는 Country_Region을 index로 하는 values들을 모드 차례로 돌아가나요? 즉, for 문을 써주지 않았는데도, 자동으로 값이 아래행으로 내려가며 if문을 완성하는지 궁금합니다.
- 해결됨처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화까지 전과정 기본 익히기) [데이터과학 Part1]
list 요소 위치 변경에 관한 문의
dataframe의 columns 을 리스트형태로 변환한 후에 remove와 insert 를 통해 iso2 columns의 위치를 변경한다고 하였는데.. remove 로 iso2 컬럼을 지웠을때 iso2 의 value 값들이 살아있나요? 같이 지워지는게 아닌가요? 궁금합니다!
- 해결됨처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화까지 전과정 기본 익히기) [데이터과학 Part1]
test_df.info()
해당 코드를 실행하면 #, Column, Non-Null, Count , Dtype 이렇게 정보가 나오는데 Non-Null은 개수를 의미하는게 맞나요? Count의 값은 전부 non-null 로 나오는데, 이유가 무엇일까요?
- 미해결처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화까지 전과정 기본 익히기) [데이터과학 Part1]
이해 못하는 부분이 있습니다 확인 부탁드려요
빨간색 부분을 네모치시면서 , 왠지 해당 부분은 값이 없는거 같고, 정확히 매칭이 안되는거 같다고하셨는데 이유가 무엇지 알수있을까요?
- 해결됨처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화까지 전과정 기본 익히기) [데이터과학 Part1]
시각화 관련 질문드립니다!
안녕하세요 잔재미코딩님! 늘 강의 정말 잘 듣고 있습니다. 좋은 강의 감사드립니다. 오늘 강의를 통해 시각화 라이브러리에 대해 공부하였는데 궁금한 점이 있었습니다. 엑셀같은 경우에는 데이터를 선택하고 추천 차트 기능을 사용하면 데이터에 적합한 차트(예를 들어 선형 차트, 세로 막대형, 파이 차트 등)를 추천해주는데, 혹시 파이썬 시각화 라이브러리인 plotly, matplotlib, seaborn에서도 그런 시각화 차트 추천 기능을 제공해주는지 궁금합니다! 구글에 검색해봤는데 그런 기능에 대해서 검색 결과가 나오지 않는 것으로 보아 없는 것 같긴 하지만 더 정확히 알고 싶어서 질문드립니다! 그럼 답변 기다리겠습니다. 좋은 강의 감사드립니다. :)
- 미해결처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화까지 전과정 기본 익히기) [데이터과학 Part1]
UID_ISO_FIPS_LookUp_Table.csv 파일의 출처가 궁급합니다.
직접 만드신건가여?? 아니면 깃허브나 다른 사이트에서 가져오신건가여??? 제가 나중에 국가들 뿐만 아니라 우리나라 지역 이미지를 넣어 그래프로 나타내고 싶어 이렇게 질문드립니다.
- 미해결처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화까지 전과정 기본 익히기) [데이터과학 Part1]
도와주세요. 소스수정없이 실행만했는데 에러가 납니다
타입 에러가 나네요 그리고 혹시몰라서 df를 실행시켜보니 값이 [1, 2, 3] 이 출력되는데 이게 정상일까요? 다른거 건드린게 없는데 , 무엇이 문제인지 모르겠습니다 알려주세요~
- 미해결처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화까지 전과정 기본 익히기) [데이터과학 Part1]
json value 값 할당 부분에 대해서 궁금합니다.
def func(row): if row['Country_Region'] in json_data: row['Country_Region'] = json_data[row['Country_Region']] return row -------------------------------------------- 이 구문에서 굵게 표시한 부분이 궁금합니다. print (json_data.items()) 실행 해서 확인해보면 이와 같이 나오고('Mainland China', 'China') 함수 부분을 적용하면 'China'로 자동변경이 되는데 구문에서는 value값을 할당한게 아니고 자동적?으로 변경이 된거 같은데 ('Mainland China' -> 'China') 이 부분이 어떻게 적용되는지 궁금합니다.
- 해결됨처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화까지 전과정 기본 익히기) [데이터과학 Part1]
'JSON 포맷 이해와 파이썬으로 JSON 파일 다루기' 영상 내용 질문입니다.
안녕하세요. 강사님. json_file_format.ipynb 파일에 있는 'json.dumps() 함수로 파이썬 사전 데이터를 JSON 문자열 데이터로 변환할 수 있음' 항목에서 질문이 있습니다. 아래 Input 코드에서 "language" 키의 값에 "Java" : "basic"이 들어있는 것을 알 수 있는데, json.dumps(data)로 json파일로 불러오면 Output에 해당 내용이 존재하지 않는 걸로 나옵니다. 이 부분이 이해가 잘 가지 않아서 질문드립니다. -Input import json # 변수에 문자열로 된 JSON 포멧의 데이터가 있을 경우 data = { "id":"01", "language": {"Java":"basic", "Java":"advance"}, "edition": "third", "author": "Herbert Schildt" } jsondata = json.dumps(data) jsondata -Output '{"id": "01", "language": {"Java": "advance"}, "edition": "third", "author": "Herbert Schildt"}'
- 미해결처음하는 파이썬 데이터 분석 (쉽게! 전처리, pandas, 시각화까지 전과정 기본 익히기) [데이터과학 Part1]
폴더 문의
쥬피터 노트북의 기본경로폴더를 사용자 폴더가 아닌 c드라이브 폴더에 jupyter 라는 폴더를 만들었는데 여기로 하고싶은데 가능할까요?