월 26,400원
5개월 할부 시다른 수강생들이 자주 물어보는 질문이 궁금하신가요?
- 미해결15일간의 빅데이터 파일럿 프로젝트
server2 호스트 상태가 불량입니다
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 안녕하세요! 저번에 오류가 계속 나서 이번에 다시 설치해서 해볼려고하는데 저번처럼 클라우데라 설치 부분에서 server2 호스트 상태가 불량입니다라고 뜨는데 무시하고 그냥 계속 진행해도 될까요?
- 미해결15일간의 빅데이터 파일럿 프로젝트
클라우데라 클러스터 status가 모두 fail로 뜹니다.
안녕하세요. 클라우데라 클러스터를 만들고 나서 사진과 같이 빨간색으로 fail로 뜹니다. vm 서버 종료하고 메모리를 기존 3GB 정도의 크기에서 2GB로도 줄여보고 4GB, 5GB로 늘려보기도 했는데 여전히 같은 상황입니다. 프로젝트를 빨리 해보고 싶은데 여기서 막혀서 진도를 나가지 못하고 있네요.. 어떻게 해결할 수 있을까요? 조언 부탁드립니다.
- 미해결15일간의 빅데이터 파일럿 프로젝트
virtualbox 네트워크 설정 질문
빅디님 안녕하세요. 굉장히 오랜만에 질문 납깁니다. (개인적인 이유로,, 본 강의실습이 딜레이 되어 버렸네요.. ㅠㅠ) 각설하고, 최근 랩탑을 새로 구매하게 되었고, 해당 랩탑을 활용하여 본 파일럿 프로젝트를 다시 차근히 실습해 나가려는 중입니다. 문제는 환경구성 중 VirtualBox 네트워크 설정 부분입니다. 제가 현재 랩탑에 무선인터넷(wifi) 환경을 사용하고 있는데요. 호스트전용네트워크 관련 부분이 제 가상머신에 보이지 않네요. '호스트전용네트워크관리자' 탭에서 추가하려고 했는데 실패했습니다. 그래서 구글링하다가 윈도우 cmd를 통해 강제로 create할 수 있다는 내용을 보고 시도했는데,, 역시 Error가 뜹니다. 원인이 무엇일까요,,? 무선인터넷? 아니면 랩탑 모델 문제일까요? (저는 싱크패드를 사용중입니다 ㅜㅜ) VirtualBox 버전은 6.1.24이구요. 빅디님이 진행하신 버전은 제 컴퓨터에서 돌아가지가 않더라구요. (보안문제? 관련이라는 alert 보여주면서 작동하지 않습니다.) 제가 이 문제를 해결하려고 하는 이유는 다른 설정들을 마치고(서버01,02가 가상머신 안에서 작동합니다.), 클라우데라 매니저에 접근하려고 chrome에 server01 url을 입력하니 access가 안되더라구요. 그래서 방화벽 문제인가보다 하고 방화벽 설정에 갔는데,, 가상머신 앱 자체가 안보이더라구요,, ㅜㅜ 오랜만에 돌아와 열심히 하려는데,, 초반 세팅부터 이렇게 막힙니다 ㅎ ㅜ 부디 해결할 수 있는 부분이길,,
- 미해결15일간의 빅데이터 파일럿 프로젝트
윈도우가 아닌 우분투 환경내에서 실습해볼수있는 자료는 없을까요?
윈도우가 아닌 우분투 환경내에서 실습해볼수있는 자료는 없을까요? 가지고 있는 장비가 우분투밖에 없는데... 아니면 강의 사기전에 명시를 해주셨으면 합니다. 지금 일주일째 azure에서 윈도우 이미지로 vm만들어서 rdp로 접속해서하는데 이제보니 rdp로 접속하면 vb 실행이 불가능하네요....
- 해결됨15일간의 빅데이터 파일럿 프로젝트
Unhealthy Node 때문에 Accepted 상태에서 Running 상태로 넘어가지 않습니다.
안녕하세요 강사님. 강의 잘 듣고 있습니다. 해당 강의에 나오는Hive Query를 실행시켰습니다. 진행 중에 MapReduce가 Accepted에서 Running으로 넘어가지 않습니다. 저사양 파일럿 환경이라 Node를 1개만 사용하고 있는데, 사용중인 1개의 노드가 Unhealthy라서 동작하지 않는 것으로 보입니다. 누군가 리소스를 점유하고 있는 것은 아닌지 default queue의 리소스가 여유로운지 위의 두 요소를 살펴보았는데, 현재 MapReduce에 할당된 것이 없습니다. (MapReduce에 실행 중이라고 뜨는 것이 이 Hive Query의 MapReduce 동작 이외에 없음) 다음과 같이 나옵니다. - /etc/hadoop/conf의 yarn-site.xml을 건드려보려고 했는데, 정확히 어떤 것을 건드려야 할지 몰라 멈춰있는 상태입니다. 혹시 어떤 방법이 있을지 궁금합니다. 감사합니다
- 해결됨15일간의 빅데이터 파일럿 프로젝트
머하웃 진행 단계 확인
강사님이 진행하실때는 10분 정도 걸린 것으로 확인이 되는데 제 컴퓨터에서 위의 상태에서 1시간이 지나도 넘어가질 않습니다. 뭔가 문제가 있는 것 같아서 로그를 보려고 하는데 어디로 가서 봐야할까요? 아니면 다른 머하웃 추천시스템의 진행 상태를 확인하는 방법이 있을까요?
- 미해결15일간의 빅데이터 파일럿 프로젝트
mahout 의 canopy 분석에 대한 궁금증이 있습니다!
강사님의 강의 잘 듣고 있습니다! 그런데 공부 도중, [7. 분석 파일럿 실행 5단계 03]에서 mahout 의 canopy 분석에 대한 궁금증이 생겨서 여쭤봅니다. 강의 과정에서는 K-means에 사용할 최적의 K값을 찾기위해 canopy 분석을 한다고 말씀해주셨고, 여러 복잡한 과정을 거쳐 t1=12, t2=10 으로 하여 최적의 K값을 약 200으로 잡으셨다고 하셨습니다. 그런데 이 과정이 그냥 원하는 K값이 나올 때까지 계속 t1, t2에 주관적으로 값을 넣어보는... 이른바 답정너 느낌이었습니다;;ㅋ 그럴거면 그냥 canopy분석은 생략하고, 처음부터 마음속으로 정해둔 K값인 200으로 바로 K-means 군집분석을 해도 될텐데 말이죠... 그래서 제 생각엔 내가 원하는 K가 나올때까지 t1과 t2에 아무 숫자나 막 넣어보는게 아니라, 적절한 t1과 t2를 구하는 어떤 수학적 규칙이나 공식이 있을테고 그것을 통해 컴퓨터가 계산해낸(인간의 주관이 빠진) K값을 사용해야할 것 같은데... 아마 강의 난이도 때문인지 그부분은 생략하신 것 같습니다. 그래서 결론은... 1. 정말 t1, t2에 아무 숫자나 넣어보면서 주관적으로 적당하다 생각하는 K값이 나올때까지 돌려봐야 하나요? 2. 아니면 적절한 t1, t2를 찾는 어떤 규칙이나 공식 혹은 기준이 있나요? 3. 만약 1번이라면, "데이터가 2600개 있으니까 K는 200정도면 괜찮겠네!"라고 하면서 canopy는 생략하고 처음부터 K-means를 해도 되지 않나요?
- 미해결15일간의 빅데이터 파일럿 프로젝트
문의: tail -f /var/log/flume-ng/flume-cmf-flume-AGENT-server02.hadoop.com.log 실행시
실행시 updating checkpoint.. 이런 내용이 안나오고 아래와 같은 내용만 나옵니다. 에러는 없는데 " hdfs dfs -ls -R /pilot-pjt/collect/car-batch-log/" 실행하면 디렉토리가 없다고 나옵니다. value.serializer = class org.apache.kafka.common.serialization.ByteArraySerializer 2021-10-05 12:55:12,487 INFO org.eclipse.jetty.server.Server: jetty-9.3.25.v20180904, build timestamp: 2018-09-05T06:11:46+09:00, git hash: 3ce520221d0240229c862b122d2b06c12a625732 2021-10-05 12:55:12,647 INFO org.eclipse.jetty.server.AbstractConnector: Started ServerConnector@1f87d55e{HTTP/1.1,[http/1.1]}{0.0.0.0:41414} 2021-10-05 12:55:12,647 INFO org.eclipse.jetty.server.Server: Started @3734ms 2021-10-05 12:55:13,112 INFO org.apache.kafka.common.utils.AppInfoParser: Kafka version: 2.2.1-cdh6.3.2 2021-10-05 12:55:13,114 INFO org.apache.kafka.common.utils.AppInfoParser: Kafka commitId: null 2021-10-05 12:55:13,119 INFO org.apache.flume.instrumentation.MonitoredCounterGroup: Monitored counter group for type: SINK, name: DriverCarInfo_KafkaSink: Successfully registered new MBean. 2021-10-05 12:55:13,120 INFO org.apache.flume.instrumentation.MonitoredCounterGroup: Component type: SINK, name: DriverCarInfo_KafkaSink started 2021-10-05 12:55:13,191 INFO org.apache.kafka.clients.Metadata: Cluster ID: 5n3YiK4DRl-2ZKzHfFTosw tail -f /var/log/flume-ng/flume-cmf-flume-AGENT-server02.hadoop.com.log
- 해결됨15일간의 빅데이터 파일럿 프로젝트
Connection Refused Error
server01 포트 검사 $ netstat -nap | grep 8020을 수행한 결과 LISTEN으로 동작하였습니다 /user/hive/warehouse/managed_smartcar_dirve_info/biz_date=20210901 의 경로로 가서 확인한 결과 파일이 존재합니다. Connection refused 이유가 무엇인지 나름대로 찾아봤는데 발견하지 못했습니다. 어떤 원인이 있을까요?
- 미해결15일간의 빅데이터 파일럿 프로젝트
flume으로 파일이 잘 넘어갔는지 확인하는 부분에서 오류가 납니다ㅠㅠ
안녕하세요 플럼에서 자꾸 오류가 나서 문의 드립니다....
- 미해결15일간의 빅데이터 파일럿 프로젝트
CentOS 질문입니다.
안녕하세요. 직접설치를 해야 의미 있을것 같고 관심도 있어서 수업을 잘 듣고 있습니다. CentOS-6.10 live-DVD를 사용하고 계시는데, 공식 페이지에서 다운로드 할수 없어서 검색을 해보니 2020년 11월 30일부터 지원이 종료 되어 더 이상 보안 패치, 버그 수정이 지원이 되지 않습니다. 그래도 계속 사용하는 경우에는 보안 위험을 초래할 수 있다고 해서 CentOS-6.10 보다는 CentOS-7 사용하려고 합니다. 예전에 (2018년) 하둡설치 했을때 minimal.iso 사용을 했는데, 선생님께서는 live-DVD를 사용하고 계셔서 질문을 드립니다. CentOS-7을 설치 할 경우에는 DVD, 최소(minimal), 모든것(everything), LiveKDE, LiveGNOME 중에 어떤 이미지를 사용해야할지 잘 모르겠습니다. Everything 설치는 좀 무리있을것 같습니다. 파일이 너무 커서요. 우선 minimal 이미지를 다운로드 하였지만, 파일럿 프로젝트를 진행하려면 CentOS-7의 DVD를 선택해서 다시 설정을 해야할까요? 감사합니다.
- 미해결15일간의 빅데이터 파일럿 프로젝트
파일을 카피하거나 옮기면 파일이 사라집니다
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. [빅데이터 수집] 7. 수집 파일럿 실행 5단계 - 수집 기능 테스트를 진행중인데 파일을 옮기려고 하는데 파일이 사라집니다. mv /home/pilot-pjt/working/SmartCar/SmartCarStatusInfo_20160101.txt 위의 명령어를 치고 SmartCar 폴더로 가서 잘 들어갔는지 확인해보면 비어있습니다. 따로 에러가 나지도 않고 잘 옮겨진 것 같아서 cli가 아닌 gui 환경으로 변경 후 직접 복사/붙여넣기를 해서 넣어보니 넣고 나서 몇초 후에 파일이 자동으로 삭제되는 것을 확인했습니다. 혹시나 싶어서 권한도 전부 부여했습니다(chmod 777 -R working에 주고, 안 돼서 pilot-pjt에 줘서 진행) 그래도 안 돼서 그냥 뒤의 내용을 진행하니 뒤에 내용들은 잘 됩니다. 원래 사라지는 건지 에러라면 왜 그런지 알 수 있을까요?
- 미해결15일간의 빅데이터 파일럿 프로젝트
탐색4단계 -주제5 단계 질문있습니다.
주제 5 workflow를 실행했는데 진행률이 저렇게 빨간색으로 뜨네요; 일단 위와 같이 select문은 잘 실행되어서 무시하고 계속 진행했는데 위와 같이 more /home/pilot-pjt/item-buy-list/000000_0 가 실행되지 않습니다. 그럼 workflow 과정에서 문제가 있었다고 보면 될까요? 혹시 주제 2~4단계에서는 working_day=20200322 를 입력했지만, 주제 5 에서는 저걸 입력하라는 말이 없어서 안 넣었는데 그 문제일까요? 일단 쿼리들은 보시면 아시겠지만 잘 복붙했습니다!
- 미해결15일간의 빅데이터 파일럿 프로젝트
질문이 있습니다! 해쉬값을 그럼 저장을 해 두면 나중에 복호화를 할 수 있겠군요??
해쉬값을 그럼 저장을 해 두면 나중에 맵핑해서 복호화 할 수 있겠군요??
- 미해결15일간의 빅데이터 파일럿 프로젝트
파일질라에서 파일이 다른 서버로 올려집니다.
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 안녕하세요! 처음배우는 분야이지만 설명을 잘해주셔서 열심히 강의를 듣고있습니다! 강의를 듣고 실습하는 과정에서 하둡과 주키퍼 명령 강의파트에서 파일질라에서 server02에 올린 파일이 putty로 확인결과 server01로 계속 올라가고 있습니다. 원인을 찾는 도중에 server02.hadoop.com로 접속을 해도 접속돼는 아이피가 server01.hadoop.com 으로 되는 것 처럼 보이는 것을 발견했습니다. 이 부분이 문제라면 어떻게 해결해야하나요? 만약 이것이 문제가 아니라면 어느 부분을 다시 확인해야 할까요? 또한 버추얼 박스를 시작할 때 하나 이상의 디스크 이미지파일에 접근할 수 없어 접근할 수 없는 디스크는 작동할 수 없다고 경고문이 나오고 있습니다. 이것은 무시하기 눌러도 실습엔 이상이 없는건가요?
- 미해결15일간의 빅데이터 파일럿 프로젝트
혹시 라이젠 cpu로도 실습을 할 수 있나요??
램은 16 // cpu는 4750u입니다! 노트북으로 진행할 예정인데 가능할까요?
- 미해결15일간의 빅데이터 파일럿 프로젝트
클라우데라 호스트 추가
- 학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요! - 먼저 유사한 질문이 있었는지 검색해보세요. - 서로 예의를 지키며 존중하는 문화를 만들어가요. - 잠깐! 인프런 서비스 운영 관련 문의는 1:1 문의하기를 이용해주세요. 안녕하세요! 실습 잘 진행하고 있습니다! 클라우데라 호스트가 2개로 미리 등록되어 있는데 Server03을 클라우데라에 추가하려면 어떻게 해야되는지 모르겠어서 질문 남깁니다. (specify hosts 부분에서 server03이 검색은 되긴 하는데 추가하는 방법을 모르겠어요 ...)
- 미해결15일간의 빅데이터 파일럿 프로젝트
클라우데라 매니저 "알 수 없는 상태" 문의
클라우데라 매니저를 실행하면 언제부턴가 아래처럼 모두 "알 수 없는 상태"로만 나옵니다. 재시작을 해봐도 계속 그렇구요.. 일단 무시하고 계속 수업을 따라가고 있고 아직까진 별 문제는 없는 것 같은데, 왜 저렇게 나오는걸까요? 일단 위 경고를 보고 구글링해보니 sysctl -w vm.swappiness=10 을 입력하면 된다고 해서 putty에 입력했습니다. 그래도 여전히 모두 알 수 없는 상태이고 경고도 여전히 있습니다. 찾아보다 service monitor 문제인가 해서 확인해보았습니다. 상태 기록은 너무 많아서 글로 넣겠습니다(가장 위가 최신입니다.) 근데 봐도 뭘 어떻게 해야할지 모르겠네요ㅠ 뭐가 문제인걸까요? 호스트 상태 주의 The health test result for SERVICE_MONITOR_HOST_HEALTH has become concerning: The health of this role's host is concerning. The following health tests are concerning: swapping. 5이(가) 양호가 됨 1이(가) 여전히 주의 상태입니다. The health test result for SERVICE_MONITOR_ROLE_PIPELINE has become good: 0 messages dropped by the role stage in the Service Monitor Pipeline over the previous 5 minute(s). The health test result for SERVICE_MONITOR_SCM_DESCRIPTOR_FETCH has become good: The Cloudera Manager descriptor was refreshed 521 millisecond(s) ago. The health test result for SERVICE_MONITOR_METRIC_SCHEMA_FETCH has become good: The Cloudera Manager metric schema was refreshed 569 millisecond(s) ago. The health test result for SERVICE_MONITOR_UNEXPECTED_EXITS has become good: This role encountered 0 unexpected exit(s) in the previous 5 minute(s). The health test result for SERVICE_MONITOR_PAUSE_DURATION has become good: Average time spent paused was 808 millisecond(s) (1.35%) per minute over the previous 5 minute(s). 호스트 상태 양호 2이(가) 여전히 불량입니다. The health test result for SERVICE_MONITOR_HOST_HEALTH has become good: The health of this role's host is good. 프로세스 상태 양호 3이(가) 여전히 불량입니다. The health test result for SERVICE_MONITOR_SCM_HEALTH has become good: This role's status is as expected. The role is started. 프로세스 상태 불량 The health test result for SERVICE_MONITOR_SCM_HEALTH has become bad: This role's host has been out of contact with Cloudera Manager for too long. 3이(가) 불량이 됨 1이(가) 주의가 됨 8이(가) 양호가 됨 The health test result for SERVICE_MONITOR_SCM_DESCRIPTOR_FETCH has become bad: The Cloudera Manager descriptor was refreshed 28 minute(s), 38 second(s) ago. Critical threshold: 2 minute(s). The health test result for SERVICE_MONITOR_METRIC_SCHEMA_FETCH has become bad: The Cloudera Manager metric schema was refreshed 28 minute(s), 38 second(s) ago. Critical threshold: 2 minute(s). The health test result for SERVICE_MONITOR_HOST_HEALTH has become bad: The health of this role's host is bad. The following health tests are bad: agent status. The health test result for SERVICE_MONITOR_SWAP_MEMORY_USAGE has become concerning: 13.4 MiB of swap memory is being used by this role's process. Warning threshold: 200 B. The health test result for SERVICE_MONITOR_AGGREGATION_RUN_DURATION has become good: The last metrics aggregation run duration is 852 millisecond(s). The health test result for SERVICE_MONITOR_SCM_HEALTH has become good: This role's status is as expected. The role is started. The health test result for SERVICE_MONITOR_FILE_DESCRIPTOR has become good: Open file descriptors: 553. File descriptor limit: 65,536. Percentage in use: 0.84%. The health test result for SERVICE_MONITOR_LOG_DIRECTORY_FREE_SPACE has become good: This role's Log Directory (/var/log/cloudera-scm-firehose) is on a filesystem with more than 10.0 GiB of its space free. The health test result for SERVICE_MONITOR_HEAP_DUMP_DIRECTORY_FREE_SPACE has become good: This role's Heap Dump Directory (/tmp) is on a filesystem with more than 10.0 GiB of its space free. The health test result for SERVICE_MONITOR_WEB_METRIC_COLLECTION has become good: The web server of this role is responding with metrics. The most recent collection took 2.2 second(s). The health test result for SERVICE_MONITOR_HEAP_SIZE has become good: Heap used: 164M. JVM maximum available heap size: 256M. Percentage of maximum heap: 64.06%. The health test result for SERVICE_MONITOR_STORAGE_DIRECTORY_FREE_SPACE has become good: This role's Service Monitor Storage Directory (/var/lib/cloudera-service-monitor) is on a filesystem with more than 10.0 GiB of its space free. 15이(가) 알 수 없음이 됨 The health test result for SERVICE_MONITOR_ROLE_PIPELINE has become unknown: Not enough data to test: Test of whether the Service Monitor's role pipeline is dropping messages. The health test result for SERVICE_MONITOR_SCM_DESCRIPTOR_FETCH has become unknown: Not enough data to test: Test of whether the Cloudera Manager descriptor is up to date. The health test result for SERVICE_MONITOR_METRIC_SCHEMA_FETCH has become unknown: Not enough data to test: Test of whether the Cloudera Manager metric schema is up to date. The health test result for SERVICE_MONITOR_AGGREGATION_RUN_DURATION has become unknown: Not enough data to test: Test of whether the metrics aggregation takes too long. The health test result for SERVICE_MONITOR_SCM_HEALTH has become unknown: Not enough data to test: Test of whether the process state of this role is as expected. The health test result for SERVICE_MONITOR_UNEXPECTED_EXITS has become unknown: Not enough data to test: Test of whether a role has encountered unexpected exits The health test result for SERVICE_MONITOR_FILE_DESCRIPTOR has become unknown: Not enough data to test: Test of whether this role has too many open file descriptors. The health test result for SERVICE_MONITOR_SWAP_MEMORY_USAGE has become unknown: Not enough data to test: Test of whether the role is using swap memory. The health test result for SERVICE_MONITOR_LOG_DIRECTORY_FREE_SPACE has become unknown: Not enough data to test: Test of whether this role's log directory has enough free space. The health test result for SERVICE_MONITOR_HEAP_DUMP_DIRECTORY_FREE_SPACE has become unknown: Not enough data to test: Test of whether this role's heap dump directory has enough free space. The health test result for SERVICE_MONITOR_HOST_HEALTH has become unknown: Not enough data to test: Test of whether the host running this role is healthy. The health test result for SERVICE_MONITOR_WEB_METRIC_COLLECTION has become unknown: Not enough data to test: Test of whether this role's web server is responding to requests for metrics. The health test result for SERVICE_MONITOR_PAUSE_DURATION has become unknown: Not enough data to test: Test of whether this role's threads are being scheduled appropriately. The health test result for SERVICE_MONITOR_HEAP_SIZE has become unknown: Not enough data to test: Test of whether this role needs more heap The health test result for SERVICE_MONITOR_STORAGE_DIRECTORY_FREE_SPACE has become unknown: Not enough data to test: Test of whether the Service Monitor Storage Directory has enough free space.
- 미해결15일간의 빅데이터 파일럿 프로젝트
Toplogy 생성 관련 문의
이번 강의 중에는 Toplogy 생성에 대해 깊에 들어가는 부분이 아니라고 하셔서 핵심 코드를 설명을 해 주셨는데요. 배포하라고 첨부해주신 bigdata.smartcar.storm-1.0.jar 를 구조가 궁금해서 열어봤는데요 다양한 의존성 lib부터 많은 패키지 및 파일들로 구성되어 있었습니다. 이부분에서 말씀하신 핵심 로직은 어디에 위치하는것일까요? 그리고 토플로지를 생성하려면 어떤 도구나 방법 (JAVA 언어자체 외적으로 기본 의존성 라이브러리를 어떻게 세팅되는지)이 있는지 궁금합니다. 기본 핵심 로직만 설정하고 빌드 과정을 통해서 저런 의존성 java library는 같이 빌드 되는것인지 아니면 소스안에 저 모든 패키지가 토플로지 구성 시작할때 모두 다 준비되어야 하는건지 궁금합니다. 아 그리고 친철한 강의 덕분에 실시작 적재도 실습해 보았습니다. 궁금한게 지난번에 HBase에 Store 는 결국 HDFS랑 연결되어 있다고 하셨는데 실시간 적재를 계속 진행해도 하둡 유틸리티에 hdfs 사이즈 부분은 딱히 증가하지는 않던데. 일정 용량 이상 더 들어가야 hbase에서 hdfs로 데이타를 내리는 구조인가요? 궁금한게 많아서 죄송합니다.. ㅠ
- 미해결15일간의 빅데이터 파일럿 프로젝트
javac: invalid flag: 20200901 라는 에러가 뜹니다.
6. 스마트카 로그 시뮬레이터 - 설치 및 실행 강의 도중 아래와 같은 에러가 뜹니다. 오타 때문은 아닌 것 같고... 검색해보니 경로 문제라면서 "" 붙이면 된다고 해서 "20200901" 라고도 해봤는데 여전히 해결되지 않았습니다. 이 해결방법이 실습 내용이랑은 뭔가 안 맞는 것 같은데 어떻게 해결하면 좋을까요? [root@server02 working]# java -cp bigdata.smartcar.loggen-1.0.jar com.wikibook.bigdata.smartcar.loggen.DriverLogMain 20200901 10 javac: invalid flag: 20200901 Usage: javac <options> <source files> use -help for a list of possible options