멀티코어
@multicoreit
Lead 레벨·
데이터 사이언티스트
multicore.it
수강생
904
수강평
59
강의 평점
4.7
멘토링 신청
-
멘토링 리뷰
-
멘토링 평점
-
게시글
질문&답변
마르코프 결정과정 질문
1. 상태가치함수 vs 행동가치함수이해하신 맥락이 기본적으로 맞습니다. 두 함수의 차이는 '지금 당장 어떤 행동을 할 것인가'에 대한 결정권이 누구에게 있느냐의 차이입니다.상태가치함수 (State Value Function, V(s)): 특정 상태 s에 있을 때, 이미 정해진 정책 p를 끝까지 따랐을 경우 기대되는 보상의 총합(Return)입니다. 즉, "이 상태 자체가 얼마나 좋은가?"를 나타냅니다.행동가치함수 (Action Value Function, Q(s, a)): 상태 s에서 특정 행동 a를 일단 수행한 후, 그다음부터 정책 pi를 따랐을 경우의 기대 보상입니다. 즉, "이 상태에서 이 행동을 하는 것이 얼마나 좋은가?"를 나타냅니다.[핵심 차이] 질문하신 "즉시 보상을 얻는 것"이라는 표현은 Q(s, a)의 시작점인 행동 a에 집중하신 것으로 보입니다. 정확히는 '즉시 보상 + 그다음 상태부터의 가치'를 합산한 것이 Q함수입니다. 2. 최적 정책과 최적 가치함수의 관계이 부분 역시 완벽하게 이해하고 계십니다. 이를 강화학습의 벨만 최적 방정식(Bellman Optimality Equation) 관점에서 요약하면 다음과 같습니다.최적 정책(p*)의 목표: 모든 상태에서 상태 가치(V)를 최대화하는 행동을 선택하는 것입니다.결정적 최적 정책 (Deterministic Optimal Policy): 각 상태에서 여러 행동 중 최적 행동가치함수 Q*(s, a) 값이 가장 큰 행동을 1의 확률로 선택하는 것입니다.
- 0
- 2
- 20
질문&답변
stable_baseline3 설치 안됨
안녕하세요! 해당 오류는 PyTorch의 핵심 파일인 c10.dll이 시스템의 그래픽 드라이버나 런타임 라이브러리와 충돌할 때 발생합니다. 다음 세 가지를 확인해 보세요.그래픽 설정: 노트북을 사용 중이라면 'NVIDIA 제어판'에서 기본 그래픽을 '고성능 NVIDIA 프로세서'로 고정해 보세요. 런타임 설치: Microsoft Visual C++ Redistributable 최신 버전을 설치해 보세요. 재설치: PyTorch를 삭제 후, 본인의 CUDA 버전에 맞는 명령어로 재설치해 보시기 바랍니다.여전히 안 된다면 pip list 결과와 함께 노트북 모델명을 알려주세요!
- 0
- 2
- 60
질문&답변
강의자료에 있는 데이터들의 출처가 궁금합니다
안녕하세요, 건영님! 제 강의를 수강해 주셔서 진심으로 감사드립니다.질문 주신 데이터는 모두 LLM(거대언어모델)을 활용하여 생성한 결과물입니다. 건영님께서도 원하시는 데이터의 조건이나 특성을 상세히 입력하여 LLM에 요청해 보시면, 기대보다 훨씬 훌륭한 데이터를 얻으실 수 있을 거예요.실습하시면서 궁금한 점이 생기면 언제든 편하게 질문해 주세요. 건영님의 학습 여정을 응원합니다!감사합니다.
- 0
- 2
- 32
질문&답변
dify앱 배포 방식에 대해서 궁금합니다.
안녕하세요. 강의를 수강해주셔서 감사합니다.문의하신 두 가지 질문에 대해 답변드리겠습니다. 1. 다른 도메인 웹 페이지에 Dify 앱을 임베드(Embed)하는 문제도메인이 같아야만 임베드가 가능합니다.이는 브라우저의 보안 정책(특히 동일 출처 정책, Same-Origin Policy) 때문에 발생하는 제약입니다. 예를 들어, 귀하의 웹페이지 도메인이 www.naver.com이고, Dify 앱의 배포 도메인이 dify.naver.com과 같이 동일한 최상위 도메인을 사용한다면 임베드가 가능합니다.하지만 웹페이지 도메인과 Dify 앱의 도메인이 dify.daum.net처럼 서로 다를 경우에는 임베드(Iframe)가 불가능합니다. 2. RAG/TAG 데이터베이스를 노출시키지 않고 Dify 앱을 배포하는 문제네, 이 부분은 가능합니다.귀하께서 구축하신 RAG/TAG 지식 기반은 외부에 노출시키지 않으면서, Dify 앱의 핵심 기능만 다른 서비스에서 활용할 수 있습니다.Dify 앱을 Rest API 방식으로 배포하여 다른 프로그램에서 호출할 수 있기 때문입니다. 앱 관리 정보 내 "API 액세스" 메뉴에서 필요한 정보를 확인하실 수 있으며, 다른 일반적인 서비스 호출 방식과 동일하게 Dify API Key를 발급받아 보안된 상태에서 앱을 사용할 수 있습니다.(사진)
- 0
- 2
- 79
질문&답변
자산배분비율 변경 백테스트와 어떻게 다르죠?
안녕하세요 poiuy1709님. 강의를 수강해주셔서 감사합니다. 그리드 서치(Grid Search)와 강화학습(Reinforcement Learning)은 모두 최적의 자산배분 전략을 찾는 데 사용될 수 있지만, 근본적인 접근 방식과 의사결정 과정에서 큰 차이를 보입니다.그리드 서치 방식그리드 서치는 미리 정해진 특정 기간 동안의 자산배분 비율을 고정해두고, 이 비율들을 조합하여 백테스트를 수행합니다. 예를 들어, 주식 50%, 채권 50%의 비율부터 주식 60%, 채권 40% 등 여러 비율을 시뮬레이션해본 뒤, 특정 지표(예: 수익률, 샤프 비율 등)가 가장 높은 조합을 찾아냅니다.강화학습 방식강화학습은 환경(주식, 채권 시장 등)과 상호작용하며 보상(Reward)을 극대화하는 행동(자산배분 비율 조정)을 학습하는 방식입니다. 여기서 핵심은 다음과 같습니다.동적인 의사결정: 그리드 서치처럼 미리 정해진 고정 비율을 찾는 것이 아니라, 시장 상황의 변화에 따라 실시간으로 최적의 자산배분 비율을 결정합니다. 에이전트(Agent)는 매 리밸런싱 시점마다 현재 시장의 상태(State)를 관찰하고, 과거의 경험을 바탕으로 다음 행동(Action)을 결정합니다.보상 기반 학습: 에이전트는 특정 행동을 취했을 때 얻는 보상을 통해 학습합니다. 예를 들어, 시장 상승기에 주식 비중을 늘리는 행동이 높은 수익률(긍정적 보상)로 이어진다면, 에이전트는 그러한 행동을 반복하게 됩니다. 반대로 손실이 발생하면(부정적 보상), 그러한 행동을 피하는 방향으로 학습이 이루어집니다.장기적 목표: 강화학습은 당장의 수익률뿐만 아니라, 장기적인 누적 보상을 최대화하는 것을 목표로 합니다. 따라서 단기적인 변동성에 휘둘리지 않고, 시장의 장기적인 추세나 경향을 고려하여 리밸런싱 비율을 결정하는 경향이 있습니다.강화학습이 가진 의미말씀하신 대로, 강화학습은 리밸런싱 시기마다 자산 등락 경향을 참고하여 다음 최적의 리밸런싱 비율을 구하는 것이 맞습니다. 예를 들어, 강화학습 모델은 과거 데이터를 통해 시장 하락기에 채권 비중을 늘리고, 상승기에 주식 비중을 늘리는 패턴을 스스로 학습할 수 있습니다.요약하면, 그리드 서치가 과거의 정적인 최적값을 찾는다면, 강화학습은 변화하는 시장 상황에 능동적으로 반응하며 실시간으로 최적의 의사결정을 내리는 방법을 학습합니다. 즉, 강화학습 모델은 단순히 과거의 패턴을 찾는 것을 넘어, 시장의 동적인 변화에 적응하는 자율적인 투자 전략을 만들어낼 수 있다는 점에서 큰 의미를 가집니다.감사합니다.
- 0
- 2
- 62
질문&답변
명령프롬프트에서 주피터가 실행이 안 됩니다.
안녕하세요, f10ryu님.강의를 수강해주셔서 진심으로 감사합니다.제공해주신 화면 이미지와 오류 메시지를 살펴보니, 현재 발생하고 있는 문제는 Jupyter Notebook 프로그램이 제대로 설치되지 않았거나, 시스템의 환경 설정에 문제가 있을 가능성이 높습니다.우선, 다시 한번 "섹션5. 개발 환경 설정과 기본 개념 -> 9. 개발 환경 설정하기" 강의를 꼼꼼히 살펴보시면서 개발 환경 설정 단계를 다시 진행해 보시는 것을 권해 드립니다.만약 위 강의 내용을 다시 확인하고 진행하셨음에도 문제가 해결되지 않으신다면, 다음 두 가지 명령어를 명령 프롬프트(터미널)에 각각 입력하신 후 나오는 결과 화면을 저에게 보내주시기 바랍니다. 해당 정보를 통해 보다 정확한 원인을 파악하고 해결 방법을 안내해 드릴 수 있을 것 같습니다.python --versionpip list감사합니다.
- 0
- 1
- 83
질문&답변
실습강의 소스코드
안녕하세요 Yoonsang Lee님.강의를 수강해주셔서 감사합니다.소스코드 다음 사이트에서 다운로드 받을 수 있습니다.https://github.com/multicore-it/rl감사합니다.
- 0
- 2
- 51
질문&답변
소스코드 없어요
안녕하세요, 정법진님.강의를 수강해주셔서 감사합니다.문의하신 코드는 GitHub(https://github.com/multicore-it/RL2/tree/main/%EA%B8%B0%EB%B3%B8%EC%9D%B4%EB%A1%A0) 에 모두 올라와 있는 것을 확인했습니다.혹시 제가 잘못 이해한 부분이 있다면, 다시 질문해주시면 감사하겠습니다.(사진)
- 0
- 2
- 74
질문&답변
강화학습, 머신러닝에 관심 있는 웹 개발자입니다. 수학적 난이도 때문에 실무 활용이 고민됩니다.
안녕하세요. 개foot님.강의를 수강해주셔서 감사합니다.강화학습과 수학의 관계에 대해 질문 주시는 개발자분들이 많아, 실무자 관점에서 효과적인 접근법을 정리해 드립니다.1. 수학적 깊이보다 '개념의 이해'가 중요합니다.수학적 이론을 완벽히 증명하는 것보다, 각 요소가 왜 필요하고 어떻게 동작하는지 직관적으로 이해하는 것이 실무에서는 더 중요합니다.개념과 직관 중심의 학습: 수식 자체에 매몰되기보다, '이 개념이 어떤 문제를 해결하는가?'에 집중하는 것이 효과적입니다.프레임워크 활용: 복잡한 미분이나 행렬 연산은 TensorFlow, PyTorch와 같은 프레임워크가 대부분 자동으로 처리해 줍니다.데이터 시각화 및 해석: 수식의 결과가 만들어 내는 그래프의 모양과 그 의미를 읽어내는 능력이 핵심 역량입니다.실험을 통한 감각 습득: 때로는 이론적 배경이 부족하더라도, 주요 파라미터를 직접 바꿔보며 결과의 차이를 몸으로 체득하는 것이 훌륭한 튜닝 전략이 될 수 있습니다.2. 효과적인 학습 전략 및 접근법수학적 개념이 막힐 때는 다음과 같은 방법으로 접근해 보시는 것을 추천합니다.구조적 이해 선행: 텍스트나 수식보다, 전체 시스템의 구조와 데이터 흐름을 도표나 그림으로 먼저 파악하면 큰 도움이 됩니다.이론과 코드의 병행: 이론을 학습한 직후, 반드시 코드로 직접 구현해 보세요. 눈으로 확인하는 것이 가장 빠른 학습법입니다.3. 학습 성취도를 확인하는 방법 (메타인지)본인의 이해도를 확인하고 싶다면, 아래 3가지 기준을 점검해 보세요.전체 프로세스 구현 능력: '환경 설계 → 에이전트 학습 → 전략 튜닝 → 결과 평가'에 이르는 전 과정을 처음부터 끝까지 혼자 힘으로 구현할 수 있는가?결과 분석 및 설명 능력: 학습 과정에서 나온 성능 그래프를 보고, "왜 특정 구간에서 성능이 오르거나 떨어졌는지" 그 원인을 논리적으로 분석하고 설명할 수 있는가?지식의 응용 및 확장 능력: 배운 강화학습 기술을 현재 업무나 전혀 다른 분야(예: 재고관리, 인력 스케줄링 등)의 문제에 적용할 아이디어를 구체적으로 제시할 수 있는가?위와 같은 방법으로 접근하신다면, 수학에 대한 부담을 덜고 강화학습을 실무에 성공적으로 적용하실 수 있을 것입니다.감사합니다.
- 0
- 1
- 127
질문&답변
환경구축에 대해서
안녕하세요 안정필님 강의를 수강해주셔서 감사합니다. 아나콘다에서도 별도의 환경을 만들어서 실행이 가능합니다.감사합니다.
- 0
- 2
- 51




