• 카테고리

    질문 & 답변
  • 세부 분야

    데이터 엔지니어링

  • 해결 여부

    해결됨

hue에서 파일 업로드가 정상적으로 되지 않습니다.

22.01.12 17:30 작성 조회수 307

0

좋은 강의 만들어주셔서 감사합니다. 자세한 설명 덕분에 순조롭게 잘 따라가고 있습니다.
 
현재 hue에서 파일 업로드를 진행하고 있는데요, CarMaster는 정상적으로 올라가지만 buy list는 업로드가 되지 않습니다.
.
 
첫번째 상태로 유지되다가" undefined 성공적으로 업로드 되었다"라고 뜨고 실제로는 아무런 변화도 일어나지 않습니다.
 
에러 로그를 어디서 확인할 수 있는지 궁금합니다.
감사합니다
 
 

답변 2

·

답변을 작성해보세요.

0

고니님의 프로필

고니

질문자

2022.01.13

내용을 삭제해서 용량을 10kb정도로 줄이니까 업로드가 됩니다. 

HDFS용량은 그래도 여유가 있는것 같고

호스트 용량도 괜찮아보입니다, 뭐가 문제인지 알 수 있는 방법이 있을까요?

네~ HDFS의 퍼미션 or 여유공간 문제는 아닌것 같습니다.

실습PC 환경의 특성(브라우져/보안/백신 프로그램 등)을 타는것 같기도 한데요..

일반적으로 파일을 PC에서 서버로 업로드 될땐 파일이 쪼개져서 올라가는데, 큰파일의 경우 브라우져(Chrome)와 WebHDFS 간의 세션 연결 시간이 길어지면서 통신에 문제가 발생 하는것으로 보입니다.

우선 아래 HDFS 명령으로 해당 파일(사이즈 유지)을 직접 업로드해서 실습을 진행해봐 주세요~

1. CarItemBuyList_202003.txt 파일을 파일질라를 통해 Server02의 /home/pilot-pjt에 업로드

2. putty로 Server02에 접속해 아래 명령으로 해당 파일을 HDFS에 직접 업로드

$ hdfs dfs -put /home/pilot-pjt/CarItemBuyList_202003.txt  /pilot-pjt/collect/buy-list

 

추가로 아래 점검 명령을통해 HDFS에 문제 (“CORRUPT FILES”, “MISSING BLOCKS”, “MISSING SIZE”, “CORRUPT BLOCKS”)가 있는지, Safe 모드 인지등을 체크해 봐 주시고요..

$ hdfs fsck /

$ hdfs dfsadmin -report

참고로 로그는 HDFS에 업로드중 문제가 발생 했기 때문에 아래의 위치에 있는 네임노드 및 데이터노드의 로그를 확인해 보시면 됩니다.

/var/log/hadoop-hdfs 

- 빅디 드림

고니님의 프로필

고니

질문자

2022.01.14

친절한 답변 정말 감사합니다 :)

0

안녕하세요! 고니님!

혹시 다른 경로에도 업로드 테스트 해봐주세요~

- 빅디 드림

고니님의 프로필

고니

질문자

2022.01.13

새로운 디렉토리에 올려봤는데도 마찬가지입니다,,car-master에는 CarMaster.txt가 정상적으로 올라와 있는데 이 경로에서도 똑같은 알림이 뜨면서 올라가지 않습니다.