multicoreit
@multicoreit
Học viên
994
Đánh giá khóa học
65
Đánh giá khóa học
4.8
멀티코어는 프로그래머이자 인공지능 전문가입니다. 프로그래머로서 다양한 분야에서 활동했으며 현재는 기업에서 데이터분석과 강화학습을 활용한 비즈니스 환경 개선 업무를 담당하고 있습니다. 인공지능이 학위를 받은 소수의 전문가만을 위한 영역이 아니라 프로그래머도 충분히 도전할 수 있음을 후배들에게 보여주기 위해 부단히 노력하고 있습니다.
○ 집필
ㆍ코딩 없이 AI 앱 만들기: Dify 노코드 완전 정복 / 2025.12 / 프리렉
ㆍ개발자답게 코드로 익히는 강화학습 집필 / 2025.08 / 프리렉
ㆍ비트코인 선물 자동매매시스템 집필 / 2022.12 / 프리렉
ㆍ프로그래머를 위한 강화학습 집필 / 2021.03 / 프리렉
○ 자격증
ㆍ컴퓨터시스템응용기술사
ㆍ정보시스템 수석감리원
ㆍ증권투자상담사
○ 주요활동
ㆍ울산정보산업진흥원 AI인재양성단 전문강사
ㆍ한국기술교육대학교 산학협력단 AI교육 전문강사
ㆍNCS 확인강사
○ 강의
ㆍ한국기술교육대학교 산학협력단 / 인공지능 파이썬 / 2026.03
ㆍ동국대학교 국제정보보호대학원 / 노코드 인공지능 / 2025~2026
ㆍICT 이노베이션 / Dify & n8n을 활용한 업무자동화 / 2025.11
ㆍ포스코 DX / AI Spark 노코드 AI / 2025.09
ㆍ인프런 / 강화학습 올인원 인프런 강의 / 2025~현재
ㆍ인프런 / 코딩 없이 AI 앱 만들기: Dify 노코드 완전 정복 / 2025~현재
ㆍ인프런 / 비트코인 선물거래 자동매매 시스템 만들기 강의 / 2022~현재
ㆍ인프런 / 비트코인 알고리즘 트레이딩 봇 만들기 강의 / 2022~현재
ㆍ인프런 / 프로그래머를 위한 강화학습 강의 / 2021~2025
ㆍ글로벌사이버대학교 인공지능학과 / 딥러닝 / 2021
ㆍ글로벌사이버대학교 인공지능학과 / 머신러닝 / 2020
○ 강연
ㆍ산하에코종합건설 / AI를 활용한 업무생산성 향상 / 2026.03
ㆍ연암공과대학교 / AI시대 미래인재 준비 전략 / 2026.01
ㆍ뉴그린창신 / 생성형AI와 ChatGPT 활용전략 / 2026.01
ㆍ휴넷북러닝 / Dify와 RAG가 만드는 노코드 AI 혁명 / 2026.01
ㆍ메이커 북페스티벌 / AI시대 우리는 어떻게 살아가야할까 / 2025.12
ㆍ건강보험심사평가원 / Dify & n8n 업무자동화 / 2025.11
ㆍ경희대학교 / 프롬프트기초이론 / 2025.11
기업 및 개인 강의 문의 : multicore.it@gmail.com
강의 가능 분야: 인공지능 에이전트(dify, n8n), 인공지능을 위한 파이썬, 머신러닝, 강화학습, 파이썬 자동매매
Khóa học
Đánh giá khóa học
- Tạo ứng dụng AI không cần lập trình: Chinh phục hoàn toàn Dify nocode
- Tạo ứng dụng AI không cần lập trình: Chinh phục hoàn toàn Dify nocode
- Tạo ứng dụng AI không cần lập trình: Chinh phục hoàn toàn Dify nocode
- Tạo ứng dụng AI không cần lập trình: Chinh phục hoàn toàn Dify nocode
- Học tăng cường tất cả trong một: từ cơ bản, thuật toán mới nhất, đến ứng dụng thực tế
Bài viết
Hỏi & Đáp
강의 잘듣고 잇습니다 ㅎㅎㅎ
안녕하세요, anycad11님. 강의를 수강해 주셔서 감사합니다.문의하신 강화학습 기반 배터리 제어 로직에 대해, 핵심 내용을 정리하여 답변드립니다. 강화학습을 통한 배터리 최적화는 충분히 가능하며, 핵심은 '안전한 범위 안에서 잠재력을 100% 끌어내는 것'에 있습니다.1. 전제 조건: 시뮬레이터 확보강화학습은 수만 번의 시행착오가 필요하므로, 실제 차량 대신 배터리의 물리적 특성을 완벽히 구현한 가상 환경(시뮬레이터)이 반드시 선행되어야 합니다.2. 왜 강화학습(PPO)인가?기존(Rule-based): "온도가 높으면 무조건 중단" 식의 단순 매뉴얼입니다. 안전하지만 에너지를 보수적으로만 사용하여 낭비가 발생합니다.강화학습: 전압·전류·온도의 복잡한 관계를 실시간 분석하여, 배터리에 무리를 주지 않으면서도 에너지를 1% 더 짜낼 수 있는 '미세한 최적 구간'을 스스로 찾아냅니다.3. AI는 무엇을 보고 판단하는가? (인지)단순한 숫자가 아닌 데이터의 '맥락'을 읽습니다.현재 상태: 실시간 전압, 전류, 온도 데이터.내부 역량: 현재 잔량과 건강도를 기반으로 가동 범위 결정.환경과 의도: 외부 기온과 운전자의 급가속 의도 파악.핵심 포인트: 데이터의 실시간 '흐름(추세)'을 읽어 곧 벌어질 변화를 선제적으로 예측합니다.4. 어떻게 학습하는가? (보상)'당근과 채찍'을 통해 최적의 전략을 스스로 수립합니다.칭찬(보상): 운전자의 요구 출력을 안정적으로 공급하거나 회생 제동 에너지를 효율적으로 회수할 때.벌칙(페널티): 온도가 급등하거나 수명을 갉아먹는 무리한 전류 사용, 안전 범위를 벗어날 때.5. 결론: 전략적 우위기존 방식이 사고를 막기 위한 '방어적 수비'라면, 강화학습은 컨디션에 맞춰 성능과 수명을 모두 잡는 '스마트한 전술'입니다. 이는 배터리 업체의 기술적 격차를 만드는 강력한 무기가 될 것입니다.도움이 되셨길 바랍니다. 추가로 궁금하신 점이나 구체적인 구현 방안이 필요하시면 언제든 말씀해 주세요.
- 0
- 2
- 13
Hỏi & Đáp
마르코프 결정과정 질문
1. 상태가치함수 vs 행동가치함수이해하신 맥락이 기본적으로 맞습니다. 두 함수의 차이는 '지금 당장 어떤 행동을 할 것인가'에 대한 결정권이 누구에게 있느냐의 차이입니다.상태가치함수 (State Value Function, V(s)): 특정 상태 s에 있을 때, 이미 정해진 정책 p를 끝까지 따랐을 경우 기대되는 보상의 총합(Return)입니다. 즉, "이 상태 자체가 얼마나 좋은가?"를 나타냅니다.행동가치함수 (Action Value Function, Q(s, a)): 상태 s에서 특정 행동 a를 일단 수행한 후, 그다음부터 정책 pi를 따랐을 경우의 기대 보상입니다. 즉, "이 상태에서 이 행동을 하는 것이 얼마나 좋은가?"를 나타냅니다.[핵심 차이] 질문하신 "즉시 보상을 얻는 것"이라는 표현은 Q(s, a)의 시작점인 행동 a에 집중하신 것으로 보입니다. 정확히는 '즉시 보상 + 그다음 상태부터의 가치'를 합산한 것이 Q함수입니다. 2. 최적 정책과 최적 가치함수의 관계이 부분 역시 완벽하게 이해하고 계십니다. 이를 강화학습의 벨만 최적 방정식(Bellman Optimality Equation) 관점에서 요약하면 다음과 같습니다.최적 정책(p*)의 목표: 모든 상태에서 상태 가치(V)를 최대화하는 행동을 선택하는 것입니다.결정적 최적 정책 (Deterministic Optimal Policy): 각 상태에서 여러 행동 중 최적 행동가치함수 Q*(s, a) 값이 가장 큰 행동을 1의 확률로 선택하는 것입니다.
- 0
- 2
- 56
Hỏi & Đáp
stable_baseline3 설치 안됨
안녕하세요! 해당 오류는 PyTorch의 핵심 파일인 c10.dll이 시스템의 그래픽 드라이버나 런타임 라이브러리와 충돌할 때 발생합니다. 다음 세 가지를 확인해 보세요.그래픽 설정: 노트북을 사용 중이라면 'NVIDIA 제어판'에서 기본 그래픽을 '고성능 NVIDIA 프로세서'로 고정해 보세요. 런타임 설치: Microsoft Visual C++ Redistributable 최신 버전을 설치해 보세요. 재설치: PyTorch를 삭제 후, 본인의 CUDA 버전에 맞는 명령어로 재설치해 보시기 바랍니다.여전히 안 된다면 pip list 결과와 함께 노트북 모델명을 알려주세요!
- 0
- 2
- 182
Hỏi & Đáp
강의자료에 있는 데이터들의 출처가 궁금합니다
안녕하세요, 건영님! 제 강의를 수강해 주셔서 진심으로 감사드립니다.질문 주신 데이터는 모두 LLM(거대언어모델)을 활용하여 생성한 결과물입니다. 건영님께서도 원하시는 데이터의 조건이나 특성을 상세히 입력하여 LLM에 요청해 보시면, 기대보다 훨씬 훌륭한 데이터를 얻으실 수 있을 거예요.실습하시면서 궁금한 점이 생기면 언제든 편하게 질문해 주세요. 건영님의 학습 여정을 응원합니다!감사합니다.
- 0
- 2
- 60
Hỏi & Đáp
dify앱 배포 방식에 대해서 궁금합니다.
안녕하세요. 강의를 수강해주셔서 감사합니다.문의하신 두 가지 질문에 대해 답변드리겠습니다. 1. 다른 도메인 웹 페이지에 Dify 앱을 임베드(Embed)하는 문제도메인이 같아야만 임베드가 가능합니다.이는 브라우저의 보안 정책(특히 동일 출처 정책, Same-Origin Policy) 때문에 발생하는 제약입니다. 예를 들어, 귀하의 웹페이지 도메인이 www.naver.com이고, Dify 앱의 배포 도메인이 dify.naver.com과 같이 동일한 최상위 도메인을 사용한다면 임베드가 가능합니다.하지만 웹페이지 도메인과 Dify 앱의 도메인이 dify.daum.net처럼 서로 다를 경우에는 임베드(Iframe)가 불가능합니다. 2. RAG/TAG 데이터베이스를 노출시키지 않고 Dify 앱을 배포하는 문제네, 이 부분은 가능합니다.귀하께서 구축하신 RAG/TAG 지식 기반은 외부에 노출시키지 않으면서, Dify 앱의 핵심 기능만 다른 서비스에서 활용할 수 있습니다.Dify 앱을 Rest API 방식으로 배포하여 다른 프로그램에서 호출할 수 있기 때문입니다. 앱 관리 정보 내 "API 액세스" 메뉴에서 필요한 정보를 확인하실 수 있으며, 다른 일반적인 서비스 호출 방식과 동일하게 Dify API Key를 발급받아 보안된 상태에서 앱을 사용할 수 있습니다.(사진)
- 0
- 2
- 118
Hỏi & Đáp
자산배분비율 변경 백테스트와 어떻게 다르죠?
안녕하세요 poiuy1709님. 강의를 수강해주셔서 감사합니다. 그리드 서치(Grid Search)와 강화학습(Reinforcement Learning)은 모두 최적의 자산배분 전략을 찾는 데 사용될 수 있지만, 근본적인 접근 방식과 의사결정 과정에서 큰 차이를 보입니다.그리드 서치 방식그리드 서치는 미리 정해진 특정 기간 동안의 자산배분 비율을 고정해두고, 이 비율들을 조합하여 백테스트를 수행합니다. 예를 들어, 주식 50%, 채권 50%의 비율부터 주식 60%, 채권 40% 등 여러 비율을 시뮬레이션해본 뒤, 특정 지표(예: 수익률, 샤프 비율 등)가 가장 높은 조합을 찾아냅니다.강화학습 방식강화학습은 환경(주식, 채권 시장 등)과 상호작용하며 보상(Reward)을 극대화하는 행동(자산배분 비율 조정)을 학습하는 방식입니다. 여기서 핵심은 다음과 같습니다.동적인 의사결정: 그리드 서치처럼 미리 정해진 고정 비율을 찾는 것이 아니라, 시장 상황의 변화에 따라 실시간으로 최적의 자산배분 비율을 결정합니다. 에이전트(Agent)는 매 리밸런싱 시점마다 현재 시장의 상태(State)를 관찰하고, 과거의 경험을 바탕으로 다음 행동(Action)을 결정합니다.보상 기반 학습: 에이전트는 특정 행동을 취했을 때 얻는 보상을 통해 학습합니다. 예를 들어, 시장 상승기에 주식 비중을 늘리는 행동이 높은 수익률(긍정적 보상)로 이어진다면, 에이전트는 그러한 행동을 반복하게 됩니다. 반대로 손실이 발생하면(부정적 보상), 그러한 행동을 피하는 방향으로 학습이 이루어집니다.장기적 목표: 강화학습은 당장의 수익률뿐만 아니라, 장기적인 누적 보상을 최대화하는 것을 목표로 합니다. 따라서 단기적인 변동성에 휘둘리지 않고, 시장의 장기적인 추세나 경향을 고려하여 리밸런싱 비율을 결정하는 경향이 있습니다.강화학습이 가진 의미말씀하신 대로, 강화학습은 리밸런싱 시기마다 자산 등락 경향을 참고하여 다음 최적의 리밸런싱 비율을 구하는 것이 맞습니다. 예를 들어, 강화학습 모델은 과거 데이터를 통해 시장 하락기에 채권 비중을 늘리고, 상승기에 주식 비중을 늘리는 패턴을 스스로 학습할 수 있습니다.요약하면, 그리드 서치가 과거의 정적인 최적값을 찾는다면, 강화학습은 변화하는 시장 상황에 능동적으로 반응하며 실시간으로 최적의 의사결정을 내리는 방법을 학습합니다. 즉, 강화학습 모델은 단순히 과거의 패턴을 찾는 것을 넘어, 시장의 동적인 변화에 적응하는 자율적인 투자 전략을 만들어낼 수 있다는 점에서 큰 의미를 가집니다.감사합니다.
- 0
- 2
- 91
Hỏi & Đáp
명령프롬프트에서 주피터가 실행이 안 됩니다.
안녕하세요, f10ryu님.강의를 수강해주셔서 진심으로 감사합니다.제공해주신 화면 이미지와 오류 메시지를 살펴보니, 현재 발생하고 있는 문제는 Jupyter Notebook 프로그램이 제대로 설치되지 않았거나, 시스템의 환경 설정에 문제가 있을 가능성이 높습니다.우선, 다시 한번 "섹션5. 개발 환경 설정과 기본 개념 -> 9. 개발 환경 설정하기" 강의를 꼼꼼히 살펴보시면서 개발 환경 설정 단계를 다시 진행해 보시는 것을 권해 드립니다.만약 위 강의 내용을 다시 확인하고 진행하셨음에도 문제가 해결되지 않으신다면, 다음 두 가지 명령어를 명령 프롬프트(터미널)에 각각 입력하신 후 나오는 결과 화면을 저에게 보내주시기 바랍니다. 해당 정보를 통해 보다 정확한 원인을 파악하고 해결 방법을 안내해 드릴 수 있을 것 같습니다.python --versionpip list감사합니다.
- 0
- 1
- 110
Hỏi & Đáp
실습강의 소스코드
안녕하세요 Yoonsang Lee님.강의를 수강해주셔서 감사합니다.소스코드 다음 사이트에서 다운로드 받을 수 있습니다.https://github.com/multicore-it/rl감사합니다.
- 0
- 2
- 69
Hỏi & Đáp
소스코드 없어요
안녕하세요, 정법진님.강의를 수강해주셔서 감사합니다.문의하신 코드는 GitHub(https://github.com/multicore-it/RL2/tree/main/%EA%B8%B0%EB%B3%B8%EC%9D%B4%EB%A1%A0) 에 모두 올라와 있는 것을 확인했습니다.혹시 제가 잘못 이해한 부분이 있다면, 다시 질문해주시면 감사하겠습니다.(사진)
- 0
- 2
- 105
Hỏi & Đáp
강화학습, 머신러닝에 관심 있는 웹 개발자입니다. 수학적 난이도 때문에 실무 활용이 고민됩니다.
안녕하세요. 개foot님.강의를 수강해주셔서 감사합니다.강화학습과 수학의 관계에 대해 질문 주시는 개발자분들이 많아, 실무자 관점에서 효과적인 접근법을 정리해 드립니다.1. 수학적 깊이보다 '개념의 이해'가 중요합니다.수학적 이론을 완벽히 증명하는 것보다, 각 요소가 왜 필요하고 어떻게 동작하는지 직관적으로 이해하는 것이 실무에서는 더 중요합니다.개념과 직관 중심의 학습: 수식 자체에 매몰되기보다, '이 개념이 어떤 문제를 해결하는가?'에 집중하는 것이 효과적입니다.프레임워크 활용: 복잡한 미분이나 행렬 연산은 TensorFlow, PyTorch와 같은 프레임워크가 대부분 자동으로 처리해 줍니다.데이터 시각화 및 해석: 수식의 결과가 만들어 내는 그래프의 모양과 그 의미를 읽어내는 능력이 핵심 역량입니다.실험을 통한 감각 습득: 때로는 이론적 배경이 부족하더라도, 주요 파라미터를 직접 바꿔보며 결과의 차이를 몸으로 체득하는 것이 훌륭한 튜닝 전략이 될 수 있습니다.2. 효과적인 학습 전략 및 접근법수학적 개념이 막힐 때는 다음과 같은 방법으로 접근해 보시는 것을 추천합니다.구조적 이해 선행: 텍스트나 수식보다, 전체 시스템의 구조와 데이터 흐름을 도표나 그림으로 먼저 파악하면 큰 도움이 됩니다.이론과 코드의 병행: 이론을 학습한 직후, 반드시 코드로 직접 구현해 보세요. 눈으로 확인하는 것이 가장 빠른 학습법입니다.3. 학습 성취도를 확인하는 방법 (메타인지)본인의 이해도를 확인하고 싶다면, 아래 3가지 기준을 점검해 보세요.전체 프로세스 구현 능력: '환경 설계 → 에이전트 학습 → 전략 튜닝 → 결과 평가'에 이르는 전 과정을 처음부터 끝까지 혼자 힘으로 구현할 수 있는가?결과 분석 및 설명 능력: 학습 과정에서 나온 성능 그래프를 보고, "왜 특정 구간에서 성능이 오르거나 떨어졌는지" 그 원인을 논리적으로 분석하고 설명할 수 있는가?지식의 응용 및 확장 능력: 배운 강화학습 기술을 현재 업무나 전혀 다른 분야(예: 재고관리, 인력 스케줄링 등)의 문제에 적용할 아이디어를 구체적으로 제시할 수 있는가?위와 같은 방법으로 접근하신다면, 수학에 대한 부담을 덜고 강화학습을 실무에 성공적으로 적용하실 수 있을 것입니다.감사합니다.
- 0
- 1
- 161




