인프런 영문 브랜드 로고
인프런 영문 브랜드 로고

인프런 커뮤니티 질문&답변

celestial_님의 프로필 이미지
celestial_

작성한 질문수

15일간의 빅데이터 파일럿 프로젝트

7.수집 파일럿 실행 5단계 - 수집 기능 테스트

선생님, 질문이 있습니다.

작성

·

230

0

선생님, 강의 잘 듣고 있습니다~!

다름이 아니라 제 컴퓨터 상에서

배치로그 / 실시간로그는 잘 만들어지고 있는데요

이를 kafka를 통해 실시간으로 만들어지는 것들을 

consumer에서 받아내도록 하는 과정에서 

어떠한 메세지를 받아내지 못했다고 나오고 있습니다ㅜ

'hello bigdata'는 잘 통신이 되는 것을 확인하였는데요, 

어디서 이 문제가 있는지 잘 모르겠습니다.flume에 구성 파일도 전부 예제3-4로 업데이트했는데.. 일단 관련 메세지 첨부하도록하겠습니다.

그리고 

putty를 통해 서버 접속을 하실 때 저는 매번

server02.hadoop.com을 쳐서 open을 하는데 선생님께서는 server02를 그 아래 두번째 창(우측에 load save 있는)에서 바로 여시더라구요 그거 어떻게 하신것인지 

알려주시면 감사하겠습니다!!

 kafka-console-consumer --bootstrap-server server02.hadoop.com                                                                                                             :9092 --topic SmartCar-Topic --partition 0
21/04/23 17:04:14 INFO utils.Log4jControllerRegistration$: Registered kafka:type                                                                                                             =kafka.Log4jController MBean
21/04/23 17:04:15 INFO consumer.ConsumerConfig: ConsumerConfig values:
        auto.commit.interval.ms = 5000
        auto.offset.reset = latest
        bootstrap.servers = [server02.hadoop.com:9092]
        check.crcs = true
        client.dns.lookup = default
        client.id =
        connections.max.idle.ms = 540000
        default.api.timeout.ms = 60000
        enable.auto.commit = false
        exclude.internal.topics = true
        fetch.max.bytes = 52428800
        fetch.max.wait.ms = 500
        fetch.min.bytes = 1
        group.id = console-consumer-38440
        heartbeat.interval.ms = 3000
        interceptor.classes = []
        internal.leave.group.on.close = true
        isolation.level = read_uncommitted
        key.deserializer = class org.apache.kafka.common.serialization.ByteArray                                                                                                             Deserializer
        max.partition.fetch.bytes = 1048576
        max.poll.interval.ms = 300000
        max.poll.records = 500
        metadata.max.age.ms = 300000
        metric.reporters = []
        metrics.num.samples = 2
        metrics.recording.level = INFO
        metrics.sample.window.ms = 30000
        partition.assignment.strategy = [class org.apache.kafka.clients.consumer                                                                                                             .RangeAssignor]
        receive.buffer.bytes = 65536
        reconnect.backoff.max.ms = 1000
        reconnect.backoff.ms = 50
        request.timeout.ms = 30000
        retry.backoff.ms = 100
        sasl.client.callback.handler.class = null
        sasl.jaas.config = null
        sasl.kerberos.kinit.cmd = /usr/bin/kinit
        sasl.kerberos.min.time.before.relogin = 60000
        sasl.kerberos.service.name = null
        sasl.kerberos.ticket.renew.jitter = 0.05
        sasl.kerberos.ticket.renew.window.factor = 0.8
        sasl.login.callback.handler.class = null
        sasl.login.class = null
        sasl.login.refresh.buffer.seconds = 300
        sasl.login.refresh.min.period.seconds = 60
        sasl.login.refresh.window.factor = 0.8
        sasl.login.refresh.window.jitter = 0.05
        sasl.mechanism = GSSAPI
        security.protocol = PLAINTEXT
        send.buffer.bytes = 131072
        session.timeout.ms = 10000
        ssl.cipher.suites = null
        ssl.enabled.protocols = [TLSv1.2, TLSv1.1, TLSv1]
        ssl.endpoint.identification.algorithm = null
        ssl.key.password = null
        ssl.keymanager.algorithm = SunX509
        ssl.keystore.location = null
        ssl.keystore.password = null
        ssl.keystore.type = JKS
        ssl.protocol = TLS
        ssl.provider = null
        ssl.secure.random.implementation = null
        ssl.trustmanager.algorithm = PKIX
        ssl.truststore.location = null
        ssl.truststore.password = null
        ssl.truststore.type = JKS
        value.deserializer = class org.apache.kafka.common.serialization.ByteArr                                                                                                             ayDeserializer

21/04/23 17:04:15 INFO utils.AppInfoParser: Kafka version: 2.2.1-cdh6.3.2
21/04/23 17:04:15 INFO utils.AppInfoParser: Kafka commitId: unknown
21/04/23 17:04:15 INFO consumer.KafkaConsumer: [Consumer clientId=consumer-1, gr                                                                                                             oupId=console-consumer-38440] Subscribed to partition(s): SmartCar-Topic-0
21/04/23 17:04:15 INFO clients.Metadata: Cluster ID: MR1rRIi8Sx2V4eoddfGHlQ
21/04/23 17:04:15 INFO internals.Fetcher: [Consumer clientId=consumer-1, groupId                                                                                                             =console-consumer-38440] Resetting offset for partition SmartCar-Topic-0 to offset 7.

Processed a total of 0 messages

답변 1

0

Big.D님의 프로필 이미지
Big.D
지식공유자

안녕하세요! 빅디 입니다.

보내주신 카푸카 로그상에선 특별한 문제는 없어 보입니다.
아래 사항들을 점검해 보시기 바랍니다.

1. 플럼 재기동 여부 - 설정 파일 수정후 재기동이 필요합니다.
     --> 클라우데라 매니져 홈 > 좌측 메뉴 플럼 선택 > 재시작

2. 카프카의 프로듀서 / 컨슈머의 토픽명 오타여부 확인 - "SmartCar-Topic"

3.  로그시뮬레이터 상에 오류는 없는지 확인

위 3가지 사항을 우선 체크해 보시기 바랍니다.

---------------------------------------------------------------------------

추가로 문의하신 Putty관련 사용법은 아래 강의로 추가 하였습니다.

"섹션1 - 5.빅데이터 클러스터 구성 4- Putty로 서버 환경 접속"

파일럿 프로젝트의 환경구성과 수집/적재가 초기 단계이고..
파일럿 환경에 익숙치 않아 어렵게 느껴집니다. 
포기하지 마시고 성공적으로 진행해 보시기 바랍니다.  - 빅디 올림

celestial_님의 프로필 이미지
celestial_

작성한 질문수

질문하기