묻고 답해요
130만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
미해결RDBMS Modeling 실습
테이블 설계관련 문의드려요
안녕하세요.테이블 설계하다보니 궁금증이 생겼습니다.예를들면,User ----< JoinCall >---- Call이런식으로 User, JoinCall, Call도 계속 늘어나는 상황입니다.특정 User가 참여한 Call 중에서 특정 callStatus만 찾아내려 하는데 검색 속도를 높이기 위해서는 JoinCall에도 callStatus가 들어가야 할 것 같습니다.검색속도롤 높이기 위해 이런식으로 중복 데이터가 있게 설계를 하는 경우도 있을까요?확인 부탁드립니다.감사합니다.
-
미해결데이터베이스 중급(Modeling)
사용하시는 프로그램
강사님 수업 잘듣고있습니다.감사합니다. 다름이아니라 실습하면서 강의를 들으려고하는데실습프로그램을 알수있을까요?
-
미해결처음하는 SQL과 데이터베이스(MySQL) 부트캠프 [입문부터 활용까지] (업데이트)
pandas를 활용한 매서드 기능 중 오류
pandas 라이브러리와 Pymysql - 파일로 데이터 저장 강의의5:14초 중 명령문을 실행 시키면 작동은 되나, 오류코드가 같이 나오는데 구글링을 통해 답변을 찾아봐도 해결 방법을 얻기 어려워 질문 남깁니다.
-
미해결[아파치 카프카 애플리케이션 프로그래밍] 개념부터 컨슈머, 프로듀서, 커넥트, 스트림즈까지!
SimpleProducer 실행 시 Bootstrap broker localhost:9092 (id: -1 rack: null) disconnected 오류
안녕하세요 데브 원영님!강의를 수강하며 예제를 실행 중에 오류를 마주쳤는데 구글링을 해도 해결이 되지 않아 문의 남깁니다.import java.util.Properties; public class SimpleProducer { private final static Logger logger = LoggerFactory.getLogger(SimpleProducer.class); private final static String TOPIC_NAME = "test"; private final static String BOOTSTRAP_SERVERS = "localhost:9092"; public static void main(String[] args) { Properties configs = new Properties(); configs.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, BOOTSTRAP_SERVERS); configs.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName()); configs.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName()); KafkaProducer<String, String> producer = new KafkaProducer<>(configs); String messageValue = "testMessage"; ProducerRecord<String, String> record = new ProducerRecord<>(TOPIC_NAME, messageValue); producer.send(record); logger.info("{}", record); producer.flush(); producer.close(); } }[main] INFO org.apache.kafka.clients.producer.ProducerConfig - ProducerConfig values: acks = 1 batch.size = 16384 bootstrap.servers = [localhost:9092] buffer.memory = 33554432 client.dns.lookup = default client.id = producer-1 compression.type = none connections.max.idle.ms = 540000 delivery.timeout.ms = 120000 enable.idempotence = false interceptor.classes = [] key.serializer = class org.apache.kafka.common.serialization.StringSerializer linger.ms = 0 max.block.ms = 60000 max.in.flight.requests.per.connection = 5 max.request.size = 1048576 metadata.max.age.ms = 300000 metadata.max.idle.ms = 300000 metric.reporters = [] metrics.num.samples = 2 metrics.recording.level = INFO metrics.sample.window.ms = 30000 partitioner.class = class org.apache.kafka.clients.producer.internals.DefaultPartitioner receive.buffer.bytes = 32768 reconnect.backoff.max.ms = 1000 reconnect.backoff.ms = 50 request.timeout.ms = 30000 retries = 2147483647 retry.backoff.ms = 100 sasl.client.callback.handler.class = null sasl.jaas.config = null sasl.kerberos.kinit.cmd = /usr/bin/kinit sasl.kerberos.min.time.before.relogin = 60000 sasl.kerberos.service.name = null sasl.kerberos.ticket.renew.jitter = 0.05 sasl.kerberos.ticket.renew.window.factor = 0.8 sasl.login.callback.handler.class = null sasl.login.class = null sasl.login.refresh.buffer.seconds = 300 sasl.login.refresh.min.period.seconds = 60 sasl.login.refresh.window.factor = 0.8 sasl.login.refresh.window.jitter = 0.05 sasl.mechanism = GSSAPI security.protocol = PLAINTEXT security.providers = null send.buffer.bytes = 131072 ssl.cipher.suites = null ssl.enabled.protocols = [TLSv1.2] ssl.endpoint.identification.algorithm = https ssl.key.password = null ssl.keymanager.algorithm = SunX509 ssl.keystore.location = null ssl.keystore.password = null ssl.keystore.type = JKS ssl.protocol = TLSv1.2 ssl.provider = null ssl.secure.random.implementation = null ssl.trustmanager.algorithm = PKIX ssl.truststore.location = null ssl.truststore.password = null ssl.truststore.type = JKS transaction.timeout.ms = 60000 transactional.id = null value.serializer = class org.apache.kafka.common.serialization.StringSerializer [main] INFO org.apache.kafka.common.utils.AppInfoParser - Kafka version: 2.5.0 [main] INFO org.apache.kafka.common.utils.AppInfoParser - Kafka commitId: 66563e712b0b9f84 [main] INFO org.apache.kafka.common.utils.AppInfoParser - Kafka startTimeMs: 1664022671614 [kafka-producer-network-thread | producer-1] WARN org.apache.kafka.clients.NetworkClient - [Producer clientId=producer-1] Connection to node -1 (localhost/127.0.0.1:9092) could not be established. Broker may not be available. [kafka-producer-network-thread | producer-1] WARN org.apache.kafka.clients.NetworkClient - [Producer clientId=producer-1] Bootstrap broker localhost:9092 (id: -1 rack: null) disconnected [kafka-producer-network-thread | producer-1] WARN org.apache.kafka.clients.NetworkClient - [Producer clientId=producer-1] Connection to node -1 (localhost/127.0.0.1:9092) could not be established. Broker may not be available. [kafka-producer-network-thread | producer-1] WARN org.apache.kafka.clients.NetworkClient - [Producer clientId=producer-1] Bootstrap broker localhost:9092 (id: -1 rack: null) disconnected [kafka-producer-network-thread | producer-1] WARN org.apache.kafka.clients.NetworkClient - [Producer clientId=producer-1] Connection to node -1 (localhost/127.0.0.1:9092) could not be established. Broker may not be available. [kafka-producer-network-thread | producer-1] WARN org.apache.kafka.clients.NetworkClient - [Producer clientId=producer-1] Bootstrap broker localhost:9092 (id: -1 rack: null) disconnected [kafka-producer-network-thread | producer-1] WARN org.apache.kafka.clients.NetworkClient - [Producer clientId=producer-1] Connection to node -1 (localhost/127.0.0.1:9092) could not be established. Broker may not be available. [kafka-producer-network-thread | producer-1] WARN org.apache.kafka.clients.NetworkClient - [Producer clientId=producer-1] Bootstrap broker localhost:9092 (id: -1 rack: null) disconnected [kafka-producer-network-thread | producer-1] WARN org.apache.kafka.clients.NetworkClient - [Producer clientId=producer-1] Connection to node -1 (localhost/127.0.0.1:9092) could not be established. Broker may not be available. [kafka-producer-network-thread | producer-1] WARN org.apache.kafka.clients.NetworkClient - [Producer clientId=producer-1] Bootstrap broker localhost:9092 (id: -1 rack: null) disconnected [kafka-producer-network-thread | producer-1] WARN org.apache.kafka.clients.NetworkClient - [Producer clientId=producer-1] Connection to node -1 (localhost/127.0.0.1:9092) could not be established. Broker may not be available. [kafka-producer-network-thread | producer-1] WARN org.apache.kafka.clients.NetworkClient - [Producer clientId=producer-1] Bootstrap broker localhost:9092 (id: -1 rack: null) disconnected [kafka-producer-network-thread | producer-1] WARN org.apache.kafka.clients.NetworkClient - [Producer clientId=producer-1] Connection to node -1 (localhost/127.0.0.1:9092) could not be established. Broker may not be available. [kafka-producer-network-thread | producer-1] WARN org.apache.kafka.clients.NetworkClient - [Producer clientId=producer-1] Bootstrap broker localhost:9092 (id: -1 rack: null) disconnected [kafka-producer-network-thread | producer-1] WARN org.apache.kafka.clients.NetworkClient - [Producer clientId=producer-1] Connection to node -1 (localhost/127.0.0.1:9092) could not be established. Broker may not be available. [kafka-producer-network-thread | producer-1] WARN org.apache.kafka.clients.NetworkClient - [Producer clientId=producer-1] Bootstrap broker localhost:9092 (id: -1 rack: null) disconnected [kafka-producer-network-thread | producer-1] WARN org.apache.kafka.clients.NetworkClient - [Producer clientId=producer-1] Connection to node -1 (localhost/127.0.0.1:9092) could not be established. Broker may not be available. [kafka-producer-network-thread | producer-1] WARN org.apache.kafka.clients.NetworkClient - [Producer clientId=producer-1] Bootstrap broker localhost:9092 (id: -1 rack: null) disconnected [kafka-producer-network-thread | producer-1] WARN org.apache.kafka.clients.NetworkClient - [Producer clientId=producer-1] Connection to node -1 (localhost/127.0.0.1:9092) could not be established. Broker may not be available. [kafka-producer-network-thread | producer-1] WARN org.apache.kafka.clients.NetworkClient - [Producer clientId=producer-1] Bootstrap broker localhost:9092 (id: -1 rack: null) disconnected Process finished with exit code 130 BOOTSTRAP_SERVER를 my-kafka로 실행하면 아예 오류가 떠버려서 localhost로 바꿔서 진행하였습니다.에러 내용은 다음과 같습니다.server.properites 내용은 다음과 같습니다.제가 놓치고 있는 부분이 있다면 알려주세요! 감사합니다.:)
-
미해결카프카 완벽 가이드 - 코어편
하나의 컨슈머가 서로 다른 토픽을 subscribe하면
강의 예시로 들어주신 것 처럼 하나의 컨슈머가 서로 다른 토픽을 subscribe해서 서로 다른 메시지를 취합(?)해서 새로운 데이터를 생성하여 DB에 적재하거나 다른 토픽으로 전송하신다고 하셨는데요.A 토픽에 들어오는 메시지와 B 토픽에 들어오는 메시지의 짝(?)을 어떻게 맞출 수 있나요...?예시처럼 A 토픽에서 poll한 메시지의 order-id 는 1인데, B토픽에서 poll한 메시지의 order-id는 2인 경우에는 취합할 수 없는 데이터이기 때문에, B토픽에서 poll하는 메시지의 order-id가 1이 나올 때까지 어떠한 조치를 취해야 하지 않을까라는 생각이 들었습니다.
-
해결됨따라하며 배우는 도커와 CI환경 [2023.11 업데이트]
7강 aws관련 질문입니다.
안녕하세요! 질문이 묻힌 것 같아 다시 작성하는 점 죄송합니다ㅠㅠㅠ 강사님의 답변을 보고 다시 docker-compose.yml파일과 .travis.yml파일을 살펴보았습니다. 8,9강에서 Docker-full-stack-app에서는 강사님 말씀처럼 도커허브의 Dockerfile을 이용해 만든 이미지를 사용하지만 6,7강에서는 Dockerfile.dev만 사용하고 Dockerfile을 사용하는 부분은 못찾겠더라구요ㅠㅠㅠ 조금은 지엽적인 질문일 수 있겠지만 너무 궁금합니다ㅠㅠ생소한 개념이 여러개 나와서 어렵지만 강사님 강의 여러번 돌려보면서 이해해보려 노력하고 있습니다! 오늘도 감사합니다!version: "3" services: react: build: context: . dockerfile: Dockerfile.dev ports: - "3000:3000" volumes: - /usr/src/app/node_modules - ./:/usr/src/app stdin_open: true tests: build: context: . dockerfile: Dockerfile.dev volumes: - /usr/src/app/node_modules - ./:/usr/src/app command: ["npm", "run", "test"]sudo: required language: generic services: - docker before_install: - echo "start creating an image with dockerfile" - docker build -t smileajw1004/docker-react-app -f Dockerfile.dev . script: - docker run -e CI=true smileajw1004/docker-react-app npm run test -- --coverage deploy: edge: true provider: elasticbeanstalk region: ap-northeast-2 app: docker-react-app env: DockerReactApp-env bucket_name: elasticbeanstalk-ap-northeast-2-972153559337 bucket_path: docker-react-app on: branch: master access_key_id: $AWS_ACCESS_KEY secret_access_key: $AWS_SECRET_ACCESS_KEY
-
미해결따라하며 배우는 도커와 CI환경 [2023.11 업데이트]
AWS Deploy -> Gate Error ( code : 502 ) | Elastic Beanstalk 에 Linux 2 만 존재하는 경우
React App 을 AWS EB 에 배포하는 과정에서 502 Error 가 발생합니다.아마 강의에서 말씀하신 것 처럼 Linux 버전 차이 말고는 다른점이 없기 때문에 Linux2 로 EB 를 설정해서 발생하는 Error 인 것 같습니다.하지만 현재 AWS EB 에서 제공하는 Docker platform 중에 강의에서 선택하신 Linux( version 1 ) 이존재하지 않는데 이 경우 어떻게 하면 문제를 해결할 수 있을까요?
-
미해결따라하며 배우는 도커와 CI환경 [2023.11 업데이트]
현재 Multi-container Docker 환경은 지원하지 않는데 그러면 어떤 거로 해야하나요??
강의에서처럼 Multi-container Docker를 사용하려고 하는데 이제 지원하지 않는거 같아요...그러면 그냥 Docker running on 64-bit Amazon Linux 2로 하는게 맞는 건가요??
-
미해결mongoDB 기초부터 실무까지(feat. Node.js)
질문이 있습니다
User가 작성한 Blog를 삭제하게 되면 Blog 내부에 있는 Array도 같이 삭제되지 않나요? Blog를 deleteMany를 통해서 삭제한 이후에 추가로 updateMany를 통해서 Blog에 있는 comment를 pull해주는 이유가 궁금합니다
-
해결됨다양한 사례로 익히는 SQL 데이터 분석
pandas 연계부분
안녕하세요. 현재 실습대로 판다스 연계부분을 하고 있는데 오류가 떠서 되지가 않습니다. 해결법을 모르겠습니다.
-
미해결따라하며 배우는 도커와 CI환경 [2023.11 업데이트]
Window 환경 Docker Volume 코드변경 반영 안될 때
22-07-25 기준 package.json 의 scripts 에서 start 를 위와 같이 변경하면 작동합니다.
-
미해결따라하며 배우는 도커와 CI환경 [2023.11 업데이트]
docker rm `docker ps -a -q`
docker rm `docker ps -a -q` 라고 cmd에 치면은 unknown shorthand flag: 'a' in -aSee 'docker rm --help' 나오는데요. docker rm $(docker ps -a -q) 도 해보았고 .. 흠 혹시 해결방법이 있을까요?
-
미해결Database - SQL
해당 강의 뒤쪽 부분이 조금 잘린 것 같은데
수정이나 재업로드 해주실 수 있으실까요?
-
해결됨[아파치 카프카 애플리케이션 프로그래밍] 개념부터 컨슈머, 프로듀서, 커넥트, 스트림즈까지!
Flink vs. Kafka Streams
안녕하세요. 강의를 통해서 Kafka에 대한 개념을 다 잡을 수 있었습니다.Flink와 Kafka Streams 비교를 위하여 질문 드리고자 해요.현재 업무 중 CDC를 이용하여 받아온 데이터를 Kafka에 인입하고 있고, 해당 데이터를 Flink로 가공하여 다시 Kafka Topic에 넣고 있어요.여기서 든 생각이 이럴거면 Kafka Streams를 쓰는 것이 어떨까라는 생각이 들더라구요.Kafka Streams를 Flink 대신 사용하여 얻을 수 있는 이점에 대해서 궁금합니다. 감사합니다.
-
해결됨데이터베이스 중급(Modeling)
1:M 과 M:N 선택 질문
안녕하세요. 강사님. 수업 잘 듣고 있습니다. 제가 고민하던 부분과 연결시키면서 수업 듣고 있었는데 아직 고민이 되어 의견을 여쭤보고 싶어 질문 드립니다. 상품 테이블은 이미 있고 그 상품을 검색하는 해시태그(#) 검색 기능을 추가하기 위한 테이블 추가가 필요합니다. 기능은 1) 해시태그로 해당 해시태그가 등록된 상품을 검색 가능해야 합니다. 2) 상품별 해시태그도 알 수 있어야 합니다. 테이블 구성이 1:M 과 M:N 중에 고민이 됩니다. 상품과 태그는 1:M 수업에서 예로 들어주셨던 책-목차 처럼 '상품별 태그' 로 표현 가능하고 선천적으로 부모 자식 관계 같기도 하면서, 비지니스 관계처럼 '태그로 상품을 검색한다.' 가 표현이 됩니다. 하나의 상품이 여러 해시태그를 가질 수 있고, 하나의 해시태그도 여러 상품에 해당될 수 있으니 M:N 이 더 맞다고 생각이 들고 이렇게 진행하려는데 1:M 도 가능하지 않나 라는 의문이 남아서요. 1 테이블이 상품 테이블이면 M 테이블에서 컬럼을 상품ID(FK,PK), 해시태그(PK) 두개로 하면 기능적으로 다 가능합니다. 이런 경우는 1:M, M:N 중에 어떤 것이 더 나은 방향인지를 선택하는 기준이 있을까요?
-
미해결다양한 사례로 익히는 SQL 데이터 분석
count(*)와 count(distinct order_id)의 차이점이 궁금합니다.
훌륭한 강의를 듣고 있는 와중에 궁금점이 생겼습니다. group by 를 수행한 후에 주문 건수를 집계할 때 count(*) 함수 혹은 count(distinct order_id)를 사용하시던데, 주문 번호가 중복되어있을 경우에는 distinct 함수를 통해 중복을 제거후 count() 집계를 사용해야 된다고 알고 있습니다. 그런데 order별 특정 상품 주문시 함께 가장 많이 주문된 다른 상품 추출하기 쿼리에서, select prod_01, prod_02, count(*) from temp_01 group by prod_01, prod_02 부분을 보면 count(*)를 사용한 것이 이해가 잘 가지 않습니다 ㅠㅠ 그 앞의 temp_01 절에서 ga.order_items 테이블을 사용하는 데 해당 테이블에는 order_id가 중복되어 있는 것으로 알고 있습니다. 그러면 후에 건수 집계시 count(distinct temp_01.order_id)로 해야 하는 것이 아닌가 궁금합니다. 아니면 count(*)의 의미가 애초에 주문 건수를 의미하는 것이 아닌지 궁금합니다. 늘 수고 많으십니다.
-
미해결따라하며 배우는 도커와 CI환경 [2023.11 업데이트]
컨테이너 내부에서 Dockerfile이 보이지 않습니다
안녕하세요 강사님 강의를 따라 하는 중인데요 저희가 지정한 Work directory에서 ls 명령어를 주면 저는 Dockerfile이 보이지 않습니다 ㅠㅠ 이유가 뭘까요?
-
미해결따라하며 배우는 도커와 CI환경 [2023.11 업데이트]
travis vat id등록 의무화
이제 travis 무료 플랜이 vat id 기재를 필수로 정해서 회사 소속 없는 개인은 불가능 한거 같습니다 혹시 다른 CI/CD툴로 업데이트 해주시는 건 어떻게 생각하시는지요? 항상 감사히 많이 배우고 있습니다
-
해결됨[아파치 카프카 애플리케이션 프로그래밍] 개념부터 컨슈머, 프로듀서, 커넥트, 스트림즈까지!
min.insync.replicas=2
min.insync.replicas=2의 경우 복제가 완료된 개수를 말하는 것이라고 이해했습니다. 다만 강의의 그림에서 브로커#0(리더 파티션) 1개와 브로커#1(팔로워 파티션) 1개를 합쳐 2개가 됐다는 것으로 이해하면 될까요? 브로커#0(리더 파티션) + 브로커#1(팔로워 파티션) = 2 replicas 이 경우 1개가 복제 완료되었다고 말할 수 도 있을 것 같아서 헷갈리네요. 복사본의 갯수로 이해하는 것보단 실제 데이터 세트의 개수로 이해하는 것이 더 맞을까요?
-
미해결따라하며 배우는 도커와 CI환경 [2023.11 업데이트]
맥북 docker volume이 안됩니다...
vs code상 터미널에서 zsh이 쓰이고 있는 맥북이며 docker run -dp 3000:8080 -v /usr/src/app/node_modules -v $(pwd):/usr/src/app wkdzhd2000/nodejs 라고 입력했는데 컨테이너 ID가 나오지 않고 아래와 같이 형식에 맞지 않게 입력했다고 나옵니다. docker: invalid reference format. See 'docker run --help'. 맥북이기때문에 $(pwd)가 맞다고 생각하고 다른 부분에도 잘못 쓴 것이 없어보이는데 왜 인식하지 못할까요..? 구글링하며 몇몇 글이나 공식문서도 참조하고 있는데 아직까지 원인을 찾지 못하였습니다... 윈도우는 아니지만 혹시 몰라 ${pwd}하니 작동은 했습니다. 하지만 server.js의 소스코드를 바꾼다음 컨테이너를 docker stop 했다가 다시 run 해도 소스코드 변경내용이 반영되지 않는다는 문제가 생겼습니다.. 어디가 잘못된 걸까요?? 저만 이러나요??