묻고 답해요
161만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨실리콘밸리 엔지니어와 함께하는 Apache Flink
kafka 단독 실시간 데이터 처리보다 flink를 추가로 구축하고 사용시의 장점에 대해 질문 드립니다.
안녕하세요, 강의 잘 들었습니다.아직 실무에 flink를 사용해 본 적이 없어 조금 더 구체적인 장점등을 알고 싶어 질문 드리게 되었습니다.사실 기존에는 kafka만을 사용해서 실시간 데이터 처리를 하는 사례도 많았던 것 같은데이 때 추가로 flink를 사용할 때 kafka만을 사용할 때 보다 어떤 부분이 더 나은지 등에 대해 조금 궁금해져서 질문 드립니다.
-
미해결빅데이터/텍스트마이닝 분석법 (LDA,BERTtopic,감성분석,CONCOR with ChatGPT)
심화 강의 개설 여부
안녕하세요! 강의를 계속 보다 빅데이터 분석 심화 관련 수업도 신청하고 싶은데, 혹시 향후 심화 수업도 개설할 의향이 있으신지 여쭤보고 싶습니다!
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
문자열 슬라이싱
안녕하세요?문자열 슬라이싱 실습하는데 결괏값에 작은따옴표가 나오든 안나오든 상관 없나요?
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
그룹별 개수 세기 질문
groupby()로 단순히 “그룹마다 몇 개씩 있는지”만 보고 싶을 때는 count() 말고 size()도 있던데, 두 함수의 차이가 뭔가요?
-
미해결[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
교재 연습문제
선생님, 교재 작업형1 연습문제를 풀어보려고 하는데 연습문제 파일은 어디에 있나요?
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
작업형 1,문제 7 반복문 질문드립니다.
for i in range(0, 5): list_box = [] for k in range(0, 200): ran_num = random.randint(1,200) list_box.append(ran_num) df[i+2000] = list_box df = df.T제가 이해하기로는 2000 부터 2004까지 5개의 행을 만들고각 행에 200개의 자료를 넣는데 1부터 199 까지의 정수를 넣는다.그렇다면 df.T는 어떤 의미일까요?그리고 randint 이 함수는 랜덤정수를 생성한다는 것일까요? 1부터 200 사이의 정수를랜덤으로 넣는다는 의미가 맞을까요?
-
미해결[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
강의 수강 기간 연장 문의
안녕하세요 강사님,이전에도 같은 질문을 드린 적 있으나 아직 답변을 받지 못해서 다시 한 번 질문 드리는 점 양해 부탁드립니다.제 강의 기한이 이번달 16일까지이지만.. 혹시나 가능하다면 올해 하반기 시험이 열리는 11월 29일까지 강의 기한을 연장할 수 있을지 문의드리고 싶습니다.기간 연장이 안된다면..ㅠㅠ 1.5개월 치 수강료라도 결제하고 싶습니다..ㅠㅠ메일 주소 남겨놓고 갑니다, 답변 해주시면 너무나도 감사하겠습니다!!dabin644@naver.com 감사합니다!
-
미해결[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
10회 기출문제 pdf파일
10회 기출문제 pdf 파일은 언제 올라오나요? 교제도 없는 내용이라 이 점 궁금합니다.
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
시험환경 관련 질문드려요
학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요!질문과 관련된 영상 위치를 알려주면 더 빠르게 답변할 수 있어요먼저 유사한 질문이 있었는지 검색해보세요 안녕하세요.시험시 코드 실행이 어떻게 되는지 질문드립니다!코랩에서는 셀별 실행이 가능해서 결과를 보면서 할 수 있었는데,시험장에서 '코드 라인별 실행 불가' 관련해서 제가 이해한게 맞는지 확인차 질문 남깁니다. 1. 문제당 전체 실행 결과만 볼 수 있다고 보면 될까요?최종 결과만 나오기 때문에 print로 중간중간 값을 찍어야 한다고 하신 것이라고 이해했는데 맞는지 확인부탁드립니다~ 2. 강의들으면서 colab에서 shift+enter로 실행하는 습관(?) 이들었는데 시험환경에서는 활용이 불가능한 것이겠죠? 좋은강의 감사합니다
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
데이터 불러오기
from google.colab import filesupload = files.upload() 위 명령어 실행없이 바로 데이터 불러올수없나요?퇴근후딴짓님처럼 바로 df=pd.read_csv("members.csv")로 불러오고싶은데 에러가 나네요No such file or directory:members.csv
-
미해결[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
10회 기출 강의 업데이트 문의
안녕하세요. 10회 기출에 대한 강의 업데이트가 언제 될까요??10월까지라고만 명시되어 있어서요, 대략 언제쯤 인지 궁금합니다..
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
상위 25% 데이터 구하기 및 최대값의 인덱스 구하기 질의(제13강_판다스4 - 문자열, 내장 함수 관련))
1) 해당 부분에서 비교연산자가 이상/이하가 아니고 초과/미만을 사용하고 있는데분위수값에 해당하는 값이 있으면 그 결과가 다를꺼 같아서요.25% 데이터 구하세요 하는 문제는 정의자체가 분위수값 미만의 값 이런식으로 정해진건가요? 2) 하위 25% 데이터를 구하는 함수가 있다면, 상위 25%는 ~ 를 이용해서도 함수를 쓸 수 있을까요?3) 가장 큰 값이 두개 이상인경우 더 앞선것을 불러오던데, 해결방법이 있을까요? (가장 큰 값이 동일한경우 모든 인덱스를 불러오게끔)
-
미해결[2025] SQLD 문제가 어려운 당신을 위한 노랭이 176 문제 풀이
계층형 질의 질문입니다.
다른 강의들이나 교재들 보면 prior 자식 = 부모 는 순방향 이라고 설명해 주시는데이 강의에서만 역방향이라고 설명해 주시네요.특히 노랭이 63번도 정답이 4번인 이유가 "connect by 절에만 사용 가능하다" 이 부분이 틀렸기 때문이라고 나오는데.. 보충 설명이 가능하실까요?
-
해결됨토스 개발자와 함께하는 Data Workflow Management 기반의 대용량 데이터 처리 설계 패턴
실습환경에 대해 질문이 있습니다!
안녕하세요섹션6의 강의를 듣다가 질문드릴게 있어 글을 작성하게되었습니다우선 강의를 너무 잘 듣고 있음에 감사드립니다.다만 질문이 하나있는데요섹션 6강의의 실습환경에 기반이 되어지는python과 airflow 그리고 DB는 버전에 맞게 미리 설치를 하고 강의를 들어야하는게 맞는거죠?저는 강의에서 최초 환경부터 같이 설치하는 모습을 보여주시나 했는데 없어서 여쭈어봅니다.
-
해결됨베개 투자법: 자면서 돈 버는 AI 주식 자동 매매 머신
13,14강 외부 API 설정 오류
.env 폴더에 URL 등 key를 넣었는데도 에플리케이션 스타트업 fail이 뜹니다. 뭐가 문제일까요 ㅠㅠ
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
4-1 작업형 모의문제1 질문
13:08 3번문제 풀이 중 강사님도 동일하게 입력했는데 제 데이터파일에 문제 있는건지.. 이유를 잘 모르겠어서 해결책을 찾고자 질문 남깁니다.
-
미해결[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
display
학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요!질문과 관련된 영상 위치를 알려주면 더 빠르게 답변할 수 있어요먼저 유사한 질문이 있었는지 검색해보세요안녕하세요 선생님.시험 환경에서는 display가 활성되진 않나요?코랩에서만 되는걸까요.
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
시험시 데이터 읽는법
시험에서 아래와 같은 데이터 불러오는 코드도 필요한가요?from google colab import filesupload =files.upload()df=pd.read_csv("members.csv")
-
해결됨15일간의 빅데이터 파일럿 프로젝트
클러스터 설정 오류
안녕하세요 선생님 클러스터 설정 시 오류가 발생하여 질문 드립니다. ㅜㅜ 다른 질문 글들을 참고하여Cluster 1 삭제 후 재설치도 해보았고,putty로 접속하여 rm -rf /dfs/nn 명령어로 디렉토리 삭제 후 cluster 재설치도 해보았는데계속 오류가 발생합니다. 원인과 해결 방법이 있을지 문의 드립니다.. * stderr로그 일부Caused by: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.SafeModeException): Cannot create directory /tmp. Name node is in safe mode. The reported blocks 0 has reached the threshold 0.9990 of total blocks 0. The number of live datanodes 0 needs an additional 1 live datanodes to reach the minimum number 1. Safe mode will be turned off automatically once the thresholds have been reached. NamenodeHostName:server01.hadoop.com at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.newSafemodeException(FSNamesystem.java:1448) at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkNameNodeSafeMode(FSNamesystem.java:1435) at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.mkdirs(FSNamesystem.java:3100) at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.mkdirs(NameNodeRpcServer.java:1123) at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.mkdirs(ClientNamenodeProtocolServerSideTranslatorPB.java:696) at org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$2.callBlockingMethod(ClientNamenodeProtocolProtos.java) at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:523) at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:991) at org.apache.hadoop.ipc.Server$RpcCall.run(Server.java:869) at org.apache.hadoop.ipc.Server$RpcCall.run(Server.java:815) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:422) at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1875) at org.apache.hadoop.ipc.Server$Handler.run(Server.java:2675) at org.apache.hadoop.ipc.Client.getRpcResponse(Client.java:1499) at org.apache.hadoop.ipc.Client.call(Client.java:1445) at org.apache.hadoop.ipc.Client.call(Client.java:1355) at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:228) at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:116) at com.sun.proxy.$Proxy9.mkdirs(Unknown Source) at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolTranslatorPB.mkdirs(ClientNamenodeProtocolTranslatorPB.java:640) at sun.reflect.GeneratedMethodAccessor8.invoke(Unknown Source) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:498) at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:422) at org.apache.hadoop.io.retry.RetryInvocationHandler$Call.invokeMethod(RetryInvocationHandler.java:165) at org.apache.hadoop.io.retry.RetryInvocationHandler$Call.invoke(RetryInvocationHandler.java:157) at org.apache.hadoop.io.retry.RetryInvocationHandler$Call.invokeOnce(RetryInvocationHandler.java:95) at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:359) at com.sun.proxy.$Proxy10.mkdirs(Unknown Source) at org.apache.hadoop.hdfs.DFSClient.primitiveMkdir(DFSClient.java:2339) ... 18 more
-
미해결베개 투자법: 자면서 돈 버는 AI 주식 자동 매매 머신
fastapi를 이용한 뼈대 프로그램 소스 제공 가능 여부 문의드립니다. (6강_Python FastApi 기본)
6강에서 Cursor의 AI를 이용해서 프로그램의 뼈대를 만드는 부분에서 강사님과 같은 프롬프트를 써도 미묘하게 폴더 구조가 강사님과 다르게 작성이 됩니다. 프롬프트가 같다면 무조건 결과가 같은건지 아니면 다를 수도 있는지.. 가능하다면 강의에서 구성한 뼈대 부분을 파일로 제공해 주실 수 있는지 문의드립니다. (전부 화면을 보고 다 따라치려고 해도 강의 화면만 보고는 그것도 무리인거 같습니다.) 기왕이면 이후의 남은 강의들에도 소스 코드를 제공해 주시면 좋을 것 같습니다.