묻고 답해요
158만명의 커뮤니티!! 함께 토론해봐요.
인프런 TOP Writers
-
해결됨15일간의 빅데이터 파일럿 프로젝트
버추어박스 5.0 설치
강의에서 버추어박스는 다른 것과 달리 올드버전을 해야 문제 없다고 하여 영상 그대로 5.0버전 설치했는데너무 예전 버전이라 그런지 아예 윈도우에서 실행이 안되게 되어있습니다. 이러면 아예 최신 버전으로 설치해도 무방한가요?
-
미해결데이터분석 준전문가(ADsP) 자격증 대비
과목뵬교안 자료
안녕하세요, 과목별 교안 파일을 여니 비번으로 잠겨있는데 비번은 어디서 알 수 있을까요>?
-
해결됨빅데이터분석기사 필기 올인원: 3주에 끝내는 완벽 대비
데이터곤련 직무 기출변형문제 질문
데이터 관련 직무 문제에서관계형 데이터베이스 구조를 하둡 플랫폼으로 바꾸고, 그 상태를 지속적으로 모니터링한다 --> 데이터엔지니어가 정답인 듯 한데, 데이터 아키텍트의 경우도 유사한 업무를 수행 가능한게 아닌지요?
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
실기 100점으로 합격하게 되어 감사합니다!^^
핵심포인트에 대해 알기쉽고 정확히 가르쳐 주셔서 너무 감사합니다.실습을 통해 에러코드를 두려워하지 않게 연습하였고알려주신 사항들에서 다 나와 실기 100점으로 합격하게 되었습니다^^강의 후 캐글로 마무리 하니 실전이 너무 쉬웠습니다!감사합니다!^^
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
알찬강의 감사합니다. 100점으로 합격했어요!!
학습 관련 질문을 남겨주세요. 상세히 작성하면 더 좋아요!질문과 관련된 영상 위치를 알려주면 더 빠르게 답변할 수 있어요먼저 유사한 질문이 있었는지 검색해보세요 알려주신 건 모두 머리 속에 넣으려고 노력했는데 보람이 있네요ㅎㅎ 감사합니다!
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
감사합니다 합격했어요!
필기 공부한 것 전부 까먹고, 통계지식이 너무 부족해서마지막 문제에서 r^2 값을 물어보는 건데 결정계수라고 물어보니 어떤건지 기억이 안 나서; 틀려버렸습니다...그래도 다른 문제를 선생님 덕에 잘 봐서 무사히 붙었습니다. 감사합니다!
-
미해결[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
합격했어요!!!
감사합니다!!! 90점 합격했습니다비전공으로 파이썬을 한번도 사용해본적이 없었는데 딴짓님 덕분에 고득점합격했습니다!! 강의도 너무 쉽게 설명해주시고 질문올리면 거의 실시간으로 답변해주시고~ 정말 도움이 많이 되었어요~
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
선생님 덕분에 합격했습니다~
8회차 시험을 아주 보기좋게 떨어졌었는데 이번에 퇴근후 딴짓 강의를 열심히 수강하고 붙었습니다^^ 수시로 올린 질문글에 달아주신 댓글 덕분에 모르는걸 바로바로 해결할 수 있었고강의도 잘 이해되도록 세세하게 해주셔서 귀에 쏙쏙 들어왔습니다~ 성의껏 만들어주신 마인드맵 자료도 시험 당일 아주 유용했었습니다! 이렇게 합격소식 전하는 날이 와서 너무 감사하고 기쁩니다~잊지 않겠습니다~!
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
선생님 감사합니다!!!!!
실기 결과 나왔는데 선생님 덕분에 100점 맞았습니다 아예 노베이스라 너무 걱정했었는데 덕분입니다 정말 감사합니다!!!
-
미해결로그프레소 엔터프라이즈 - 데이터 수집과 파싱
포트 관리 질의
안녕하세요, 영상 시청하며, 학습 중, 영상 내용 과, 초기 셋팅된 환경 설정 값이 상의 해 질의 남깁니다. SYSLOG 신규 생성 시, IP 주소 0.0.0.0 으로 생성 하면, 오류! 이름 또는 주소가 충돌 하였습니다 문구가 호출하는데 이 경우 어떻게 처리하면 될까요.
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
책의 작업형 연습문제 파일
책의 작업형1 연습문제 p164 에 있는 파일이 본 강의 모의고사 파일과 같은건가요?
-
해결됨[2025]비전공자도 한 번에 합격하는 SQLD Part2
도커 기반 설치 중 DBeaver 연결 설정시 오류 관련 문의
안녕하세요. 열심히 강의 듣고 있는 수강생 입니다. part1에 이어 part2 수강 중인데 동영상과 올려주신 책자 참고해서 도커설치 오라클 설치를 완료하고 DBeaver 연결을 하는데 다음과 같이 오류 메세지가 나와서 문의 드립니다.새데이터베이스 연결 에 정보를 입력하고 완료를 누르면 아래와 같은 오류 메세지가 뜹니다.ORA-12541: 데이터베이스에 접속할 수 없습니다. %s에 리스너가 없습니다. (CONNECTION_ID=f7QamODkSR2oA/kGFTXp/Q==)2~3번 반복해서 진행해 봤는데 같은 오류가 나오네요. 혹시 제가 설치 및 연결시 잘못한게 있을까요??
-
미해결15일간의 빅데이터 파일럿 프로젝트
워크플로우 예약 실행시 테이블은 생성되는데 데이터가 들어가지지 않습니다.
주제 1,2에선 문제 없이 됐었는데 주제 3에서 예약을 실행하니 테이블은 생성 되는데 그 이후 데이터 삽입이 안됩니다. chat gpt 통해 여러가지 시도 해봤는데 해결이 안되네요. 어떻게 해결 가능할까요?하이브 쿼리는 강사님 쿼리 복붙 했습니다.jar 파일 돌렸을 때 날짜는 20250625였고 강의 내용대로 20200322을 다 넣었었습니다. 워크플로우 매개변수 설정도 즉시실행으로 20200322 값을 넣었습니다.JOB - 예약 - LOG2025-07-01 08:19:11,671 INFO org.apache.oozie.command.coord.CoordActionInputCheckXCommand: SERVER[server02.hadoop.com] USER[admin] GROUP[-] TOKEN[] APP[Subject 3 - 예약] JOB[0000141-250701040825040-oozie-oozi-C] ACTION[0000141-250701040825040-oozie-oozi-C@131] [0000141-250701040825040-oozie-oozi-C@131]::CoordActionInputCheck:: Missing deps: 2025-07-01 08:19:11,673 WARN org.apache.oozie.util.DateUtils: SERVER[server02.hadoop.com] USER[admin] GROUP[-] TOKEN[] APP[Subject 3 - 예약] JOB[0000141-250701040825040-oozie-oozi-C] ACTION[0000141-250701040825040-oozie-oozi-C@131] GMT, UTC or Region/City Timezone formats are preferred instead of Asia/Seoul 2025-07-01 08:19:11,673 WARN org.apache.oozie.util.DateUtils: SERVER[server02.hadoop.com] USER[admin] GROUP[-] TOKEN[] APP[Subject 3 - 예약] JOB[0000141-250701040825040-oozie-oozi-C] ACTION[0000141-250701040825040-oozie-oozi-C@131] GMT, UTC or Region/City Timezone formats are preferred instead of Asia/Seoul 2025-07-01 08:19:11,678 INFO org.apache.oozie.command.coord.CoordActionReadyXCommand: SERVER[server02.hadoop.com] USER[admin] GROUP[-] TOKEN[] APP[Subject 3 - 예약] JOB[0000141-250701040825040-oozie-oozi-C] ACTION[] Not starting any additional actions because max concurrency [1] for coordinator [0000141-250701040825040-oozie-oozi-C] has been reached. 2025-07-01 08:19:11,790 INFO org.apache.oozie.command.coord.CoordActionInputCheckXCommand: SERVER[server02.hadoop.com] USER[admin] GROUP[-] TOKEN[] APP[Subject 3 - 예약] JOB[0000141-250701040825040-oozie-oozi-C] ACTION[0000141-250701040825040-oozie-oozi-C@132] [0000141-250701040825040-oozie-oozi-C@132]::CoordActionInputCheck:: Missing deps: 2025-07-01 08:19:11,792 WARN org.apache.oozie.util.DateUtils: SERVER[server02.hadoop.com] USER[admin] GROUP[-] TOKEN[] APP[Subject 3 - 예약] JOB[0000141-250701040825040-oozie-oozi-C] ACTION[0000141-250701040825040-oozie-oozi-C@132] GMT, UTC or Region/City Timezone formats are preferred instead of Asia/Seoul 2025-07-01 08:19:11,792 WARN org.apache.oozie.util.DateUtils: SERVER[server02.hadoop.com] USER[admin] GROUP[-] TOKEN[] APP[Subject 3 - 예약] JOB[0000141-250701040825040-oozie-oozi-C] ACTION[0000141-250701040825040-oozie-oozi-C@132] GMT, UTC or Region/City Timezone formats are preferred instead of Asia/Seoul 2025-07-01 08:19:11,796 INFO org.apache.oozie.command.coord.CoordActionReadyXCommand: SERVER[server02.hadoop.com] USER[admin] GROUP[-] TOKEN[] APP[Subject 3 - 예약] JOB[0000141-250701040825040-oozie-oozi-C] ACTION[] Not starting any additional actions because max concurrency [1] for coordinator [0000141-250701040825040-oozie-oozi-C] has been reached. 2025-07-01 08:19:18,058 INFO org.apache.oozie.command.coord.CoordActionReadyXCommand: SERVER[server02.hadoop.com] USER[admin] GROUP[-] TOKEN[] APP[Subject 3 - 예약] JOB[0000141-250701040825040-oozie-oozi-C] ACTION[] Not starting any additional actions because max concurrency [1] for coordinator [0000141-250701040825040-oozie-oozi-C] has been reached. 2025-07-01 08:19:30,847 INFO org.apache.oozie.service.StatusTransitService$StatusTransitRunnable: SERVER[server02.hadoop.com] USER[admin] GROUP[-] TOKEN[] APP[Subject 3 - 예약] JOB[0000141-250701040825040-oozie-oozi-C] ACTION[-] Running bundle status service from last instance time = 2025-06-30T23:18Z 2025-07-01 08:19:30,848 INFO org.apache.oozie.service.StatusTransitService$StatusTransitRunnable: SERVER[server02.hadoop.com] USER[admin] GROUP[-] TOKEN[] APP[Subject 3 - 예약] JOB[0000141-250701040825040-oozie-oozi-C] ACTION[-] Released lock for [org.apache.oozie.service.StatusTransitService] 2025-07-01 08:20:18,064 INFO org.apache.oozie.command.coord.CoordActionReadyXCommand: SERVER[server02.hadoop.com] USER[admin] GROUP[-] TOKEN[] APP[Subject 3 - 예약] JOB[0000141-250701040825040-oozie-oozi-C] ACTION[] Not starting any additional actions because max concurrency [1] for coordinator [0000141-250701040825040-oozie-oozi-C] has been reached.JOB - 워크플로우 - LOG2025-07-01 08:12:00,094 INFO org.apache.oozie.action.hadoop.Hive2ActionExecutor: SERVER[server02.hadoop.com] USER[admin] GROUP[-] TOKEN[] APP[Subject 3 - Workflow] JOB[0000143-250701040825040-oozie-oozi-W] ACTION[0000143-250701040825040-oozie-oozi-W@hive-6885] Starting action. Getting Action File System 2025-07-01 08:12:02,264 WARN org.apache.oozie.action.hadoop.Hive2ActionExecutor: SERVER[server02.hadoop.com] USER[admin] GROUP[-] TOKEN[] APP[Subject 3 - Workflow] JOB[0000143-250701040825040-oozie-oozi-W] ACTION[0000143-250701040825040-oozie-oozi-W@hive-6885] Invalid configuration value [null] defined for launcher max attempts count, using default [2]. 2025-07-01 08:12:02,264 INFO org.apache.oozie.action.hadoop.YarnACLHandler: SERVER[server02.hadoop.com] USER[admin] GROUP[-] TOKEN[] APP[Subject 3 - Workflow] JOB[0000143-250701040825040-oozie-oozi-W] ACTION[0000143-250701040825040-oozie-oozi-W@hive-6885] Not setting ACLs because mapreduce.cluster.acls.enabled is set to false 2025-07-01 08:12:02,911 INFO org.apache.oozie.action.hadoop.Hive2ActionExecutor: SERVER[server02.hadoop.com] USER[admin] GROUP[-] TOKEN[] APP[Subject 3 - Workflow] JOB[0000143-250701040825040-oozie-oozi-W] ACTION[0000143-250701040825040-oozie-oozi-W@hive-6885] checking action, hadoop job ID [application_1751310527212_0157] status [RUNNING] 2025-07-01 08:12:02,914 INFO org.apache.oozie.command.wf.ActionStartXCommand: SERVER[server02.hadoop.com] USER[admin] GROUP[-] TOKEN[] APP[Subject 3 - Workflow] JOB[0000143-250701040825040-oozie-oozi-W] ACTION[0000143-250701040825040-oozie-oozi-W@hive-6885] [***0000143-250701040825040-oozie-oozi-W@hive-6885***]Action status=RUNNING 2025-07-01 08:12:02,914 INFO org.apache.oozie.command.wf.ActionStartXCommand: SERVER[server02.hadoop.com] USER[admin] GROUP[-] TOKEN[] APP[Subject 3 - Workflow] JOB[0000143-250701040825040-oozie-oozi-W] ACTION[0000143-250701040825040-oozie-oozi-W@hive-6885] [***0000143-250701040825040-oozie-oozi-W@hive-6885***]Action updated in DB! 2025-07-01 08:12:02,917 INFO org.apache.oozie.command.wf.WorkflowNotificationXCommand: SERVER[server02.hadoop.com] USER[-] GROUP[-] TOKEN[-] APP[-] JOB[0000143-250701040825040-oozie-oozi-W] ACTION[0000143-250701040825040-oozie-oozi-W@hive-6885] No Notification URL is defined. Therefore nothing to notify for job 0000143-250701040825040-oozie-oozi-W@hive-6885 2025-07-01 08:22:13,932 INFO org.apache.oozie.action.hadoop.Hive2ActionExecutor: SERVER[server02.hadoop.com] USER[admin] GROUP[-] TOKEN[] APP[Subject 3 - Workflow] JOB[0000143-250701040825040-oozie-oozi-W] ACTION[0000143-250701040825040-oozie-oozi-W@hive-6885] checking action, hadoop job ID [application_1751310527212_0157] status [RUNNING]용량CM 상태
-
미해결[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
작업형 2유형 라벨인코더 사용시 점수 깎일까요?
안녕하세요!10회 시험치고 난 후 복기하여 혹시 여기서 감점사항이 있을지 여쭤보고 싶습니다!! 제가 작성한 코드는 배운내용중 레이블 인코더를 작성한후 제출하였으며, rmse값은 500후반대가 나왔습니다!(lightbgm으로 했을때 수치가 600대 이상으로 높게 나와서 최종적으론 randomforest로 제출) 코드는 아래와 같은데.. 고견 남겨주심 감사하겠습니다!!(복기코드내용중 혹시 오타가 있다면 실제 시험에서는 없다고 가정) import pandas as pdtrain = pd.read_csv("train.csv")test = pd.read_csv("test.csv")print("\n ===데이터크기===")print("Train shape:", train.shape)print("Test shape:", test.shape)print( "\n ===데이터자료형===")print(train.info())print("\n ===결측치수===")print(train.isnull().sum())print(test.isnull().sum())#train['GAS_TOTL'].nunique()print("\n ===target기술통계===")print(train['GAS_TOTL'].describe())target = train.pop('GAS_TOTL')from sklearn.preprocessing import LabelEncodercols = train.select_dtypes(include='object').columnsfor col in cols:le = LabelEncoder()train[col] = le.fit_transform(train[col])test[col] = le.transform(test[col])from sklearn.model_selection import train_test_splitX_tr, X_val, y_tr, y_val = train_test_split(train, target, test_size=0.2, random_state=0)from sklearn.ensemble import RandomForestRegressorrf = RandomForestRegressor(random_state=0)rf.fit(X_tr, y_tr)pred = rf.predict(X_val)#import lightgbm as lgb#lg = lgb.LGBMRegressor(random_state=0, verbose=-1)#lg.fit(X_tr, y_tr)#pred = lg.predict(X_val)#print(mean_squared_error(y_val, pred)from sklearn.metrics import mean_squared_errorrmse=mean_squared_error(y_val, pred)**0.5print(rmse) pred = rf.predict(test)result = pd.DataFrame({'pred': pred})result.to_csv("result.csv", index=False)print(pred.shape)print(pd.read_csv("result.csv").head())
-
미해결베개 투자법: 자면서 돈 버는 AI 주식 자동 매매 머신
강의 자료 어디에 있는지 알고 싶습니다
안녕하세요 강의 자료를 못 찾겠어서 어디에 있는지 알고 싶습니다다른 비슷한 질문들을 봤는데 동영상 들어가서 스크롤를 내려도 수업자료가 보이지 않습니다. 따로 강의자료 링크도 못 찾겠어서 강의 자료 어디 있는지 다시 설명 부탁드립니다
-
미해결dbt, 데이터 분석 엔지니어링의 새로운 표준
data 라는 폴더가 없습니다.
(질문전 반드시 AI-assitant와 먼저 해결해보세요!)1. 이 문제를 해결해보기 위해 어떤 시도를 해보셨나요?모든 폴더 탐색(seeds를 이용하려고 하지만 일부 컬럼차이발생) 2. 질문 내용만 보았을 때, 답변자가 질문의 의도를 쉽게 이해할 수 있는 컨텍스트가 다 들어있나요? (영상 xx:yy ~ zz:aa 부분, 시도해본 작동하는 전체 코드 등)
-
해결됨[퇴근후딴짓] 빅데이터 분석기사 실기 (작업형1,2,3)
문의사항 송부
안녕하세요 강사님, 다름아니라 문의메일을 gmail로 드렸는데, 확인해주실 수 있으실까요?! 감사합니다
-
미해결15일간의 빅데이터 파일럿 프로젝트
Hue 500 Error 어떻게 해결할 수 있나요?
select car_number, avg(battery) as battery_avgfrom SmartCar_Status_Infowhere battery < 60group by car_number;Hue에서 이 쿼리 돌리면 아래 에러가 뜹니다..chat gpt 통해서 hue_safety_valve.ini에 대한 Hue 서비스 고급 구성 스니펫에 아래 내용도 추가했는데 해결이 안됩니다. 이것 때문에 더이상 진도를 못 나가고 있어서 도움 부탁드려요. [yarn_clusters] [[default]] log_url_template=http://server02.hadoop.com:8042/node/containerlogs/${container_id}/${user}500 Server Error: Server Error for url: http://server02.hadoop.com:8042/node/containerlogs/admin?doAs=admin Error 500 Server Error HTTP ERROR 500 Problem accessing /node/containerlogs/admin. Reason: Server ErrorCaused by:java.lang.ArrayIndexOutOfBoundsException: 4 at org.apache.hadoop.yarn.server.nodemanager.webapp.NMWebAppFilter.containerLogPageRedirectPath(NMWebAppFilter.java:81) at org.apache.hadoop.yarn.server.nodemanager.webapp.NMWebAppFilter.doFilter(NMWebAppFilter.java:62) at com.sun.jersey.spi.container.servlet.ServletContainer.doFilter(ServletContainer.java:829) at com.google.inject.servlet.ManagedFilterPipeline.dispatch(ManagedFilterPipeline.java:119) at com.google.inject.servlet.GuiceFilter$1.call(GuiceFilter.java:133) at com.google.inject.servlet.GuiceFilter$1.call(GuiceFilter.java:130) at com.google.inject.servlet.GuiceFilter$Context.call(GuiceFilter.java:203) at com.google.inject.servlet.GuiceFilter.doFilter(GuiceFilter.java:130) at org.eclipse.jetty.servlet.ServletHandler$CachedChain.doFilter(ServletHandler.java:1767) at org.apache.hadoop.security.http.XFrameOptionsFilter.doFilter(XFrameOptionsFilter.java:57) at org.eclipse.jetty.servlet.ServletHandler$CachedChain.doFilter(ServletHandler.java:1767) at org.apache.hadoop.security.authentication.server.AuthenticationFilter.doFilter(AuthenticationFilter.java:644) at org.apache.hadoop.security.authentication.server.AuthenticationFilter.doFilter(AuthenticationFilter.java:592) at org.eclipse.jetty.servlet.ServletHandler$CachedChain.doFilter(ServletHandler.java:1767) at org.apache.hadoop.http.lib.StaticUserWebFilter$StaticUserFilter.doFilter(StaticUserWebFilter.java:110) at org.eclipse.jetty.servlet.ServletHandler$CachedChain.doFilter(ServletHandler.java:1767) at org.apache.hadoop.http.HttpServer2$QuotingInputFilter.doFilter(HttpServer2.java:1553) at org.eclipse.jetty.servlet.ServletHandler$CachedChain.doFilter(ServletHandler.java:1767) at org.apache.hadoop.http.NoCacheFilter.doFilter(NoCacheFilter.java:45) at org.eclipse.jetty.servlet.ServletHandler$CachedChain.doFilter(ServletHandler.java:1767) at org.eclipse.jetty.servlet.ServletHandler.doHandle(ServletHandler.java:583) at org.eclipse.jetty.server.handler.ScopedHandler.handle(ScopedHandler.java:143) at org.eclipse.jetty.security.SecurityHandler.handle(SecurityHandler.java:548) at org.eclipse.jetty.server.session.SessionHandler.doHandle(SessionHandler.java:226) at org.eclipse.jetty.server.handler.ContextHandler.doHandle(ContextHandler.java:1180) at org.eclipse.jetty.servlet.ServletHandler.doScope(ServletHandler.java:513) at org.eclipse.jetty.server.session.SessionHandler.doScope(SessionHandler.java:185) at org.eclipse.jetty.server.handler.ContextHandler.doScope(ContextHandler.java:1112) at org.eclipse.jetty.server.handler.ScopedHandler.handle(ScopedHandler.java:141) at org.eclipse.jetty.server.handler.HandlerCollection.handle(HandlerCollection.java:119) at org.eclipse.jetty.server.handler.HandlerWrapper.handle(HandlerWrapper.java:134) at org.eclipse.jetty.server.Server.handle(Server.java:539) at org.eclipse.jetty.server.HttpChannel.handle(HttpChannel.java:333) at org.eclipse.jetty.server.HttpConnection.onFillable(HttpConnection.java:251) at org.eclipse.jetty.io.AbstractConnection$ReadCallback.succeeded(AbstractConnection.java:283) at org.eclipse.jetty.io.FillInterest.fillable(FillInterest.java:108) at org.eclipse.jetty.io.SelectChannelEndPoint$2.run(SelectChannelEndPoint.java:93) at org.eclipse.jetty.util.thread.strategy.ExecuteProduceConsume.executeProduceConsume(ExecuteProduceConsume.java:303) at org.eclipse.jetty.util.thread.strategy.ExecuteProduceConsume.produceConsume(ExecuteProduceConsume.java:148) at org.eclipse.jetty.util.thread.strategy.ExecuteProduceConsume.run(ExecuteProduceConsume.java:136) at org.eclipse.jetty.util.thread.QueuedThreadPool.runJob(QueuedThreadPool.java:671) at org.eclipse.jetty.util.thread.QueuedThreadPool$2.run(QueuedThreadPool.java:589) at java.lang.Thread.run(Thread.java:748) (error 500)
-
미해결베개 투자법: 자면서 돈 버는 AI 주식 자동 매매 머신
쓰레드, 외화 예수금 등 확인 부탁드립니다.
현재 코드를 동작을 해보면 이런식으로 두번 로그가 출력되고 있습니다. 로그 문제인가 싶어서 logger.propagate 옵션을 주어 로그 전파 방지도 해보고, 그냥 print로 출력 해도 콘솔 출력이 두개씩 나오는게 동일하네요 확인이 좀 필요할 것 같습니다.물론, 작업관리자에서 중복동작하는지는 확인 해보았으나 하나만 동작하고 있었습니다. /balance api도 해외 주식 잔고가 아니라 국내주식 잔고 같은데 swagger문서에는 해외 주식잔고로 되어있어서 확인이 필요할 것 같구요 작일(2025-06-25)기준 cursor mcp서버 등록 화면이 좀 바뀌었습니다. fileSystem mcp 서버 등록 json 설정방도 바뀌었더라구요. 그리고 잔고 기준 5%나, 이런식으로 매수를 하라고 말씀하셨었는데 한국투자증권 모의투자는 해외 예수금 잔고 조회가 안되는 것 같은데 이부분도 확인 부탁드리겠습니다.
-
해결됨[2025] 비전공자도 한 번에 합격하는 SQLD 올인원
제 ER 관계선 모양이 강의 샘 것과 다릅니다.
환경설정에서 바꾸는 건가 해서 찾아보는데, 못 찾았어요.