• 카테고리

    질문 & 답변
  • 세부 분야

    데이터 분석

  • 해결 여부

    미해결

pyspark.SparkContext 실행 오류 관련 질문

24.03.15 02:43 작성 조회수 85

2

스크린샷 2024-03-15 02.10.13.png안녕하세요. 실습 환경 구축 중 다음과 같은 에러 메세지가 발생합니다. 구글링을 통해 Java설치 및 JAVA_HOME 설정을 해줬는데 해결이 되지 않는 것 같습니다. 도움 부탁드립니다ㅠ

답변 1

답변을 작성해보세요.

0

안녕하세요 덕배님,

일단 질문 잘 하셨습니다. 그런데 Docker를 사용하면 Java나 JAVA_HOME을 설정할 일이 없는데, 혹시 직접 Spark 설정하시나요? 제가 Docker Image와 커맨드를 드린 이유도 각각의 컴퓨터 마다 다른 환경이기 때문에 문제가 많이 일어납니다. 가능하시다면 직접 설치마시고 밑에 링크를 따르셔서 Docker로 사용하시기 바랍니다.

 

제가 지금 https://github.com/dimz119/learn-pyspark?tab=readme-ov-file#start-pyspark-notebook-docker를 따라해 봤는데 아무런 문제가 일어나지 않습니다만 한번 이 링크를 따라 해보시겠어요?

 

마지막으로 혹시 Docker가 익숙하시지 않다면 제 강의 중에 쿠버네티스 강좌(https://inf.run/m14g)가 있는게 거기 미리보기로 설정되어 있으니 그거보고 따라하셔도 됩니다.

 

그래도 문제가 일어난다면 말씀해주세요

덕배님의 프로필

덕배

질문자

2024.03.18

덕분에 잘 해결했습니다! 실습 환경이 잘 구축되니 마음이 놓이네요 😄 감사합니다!