채널톡 아이콘

(v501) The Heart of AI: AI Foundation Models and the Mechanics of Intelligence

[AI Foundation Model과 작동 원리에 대한 이해 : 공학적 통제와 시스템 아키텍처, 인공지능의 불확실성 해소 및 공학적 자산화를 위한 실전 방법론] 1. 서론: 지능의 공학적 제어 필요성 (Engineering Control vs. Systemic Chaos) 산업 현장에서의 장기적인 실무적 통찰에 기반하여 도출된 핵심적 결론은, 적절히 통제되지 않는 동력은 자산이 아닌 잠재적 부채로 작용한다는 점입니다. 고성능 엔진이라 할지라도 정교한 연소 로직과 마이크로초 단위의 제어 시스템이 결여된다면, 이는 동력원이 아닌 불안정한 물리적 질량에 불과합니다. 현재 생성형 AI 도입 과정에서 나타나는 조직적 혼란은 이러한 제어 원리에 대한 이해 부족과 기술적 블랙박스에 대한 맹신에서 기인하는 것으로 판단됩니다. 본 마스터클래스는 인공지능을 신비로운 확률적 현상이 아닌 모델 기반 엔지니어링(Model-Based Engineering, MBE)의 관점에서 재정의합니다. 지능이라는 불확실한 영역을 예측 가능하고 신뢰할 수 있는 공학적 체계로 전환함으로써, 조직이 기술적 흐름에 종속되지 않고 시스템 전반에 걸친 강력한 주도권을 확보할 수 있는 전략적 방법론을 제시하고자 합니다. 2. 핵심 난제 해결을 위한 4대 공학적 프레임워크 (The 4 Pillars) ① 인식론적 패러다임의 전이: 블랙박스의 가시화 및 기술 부채의 자산화 많은 기업이 내부 구조를 명확히 파악하지 못한 채 AI 모델을 도입함으로써 보안 취약점 노출과 유지관리 비용의 기하급수적 증가라는 '기술적 부채'에 직면하고 있습니다. 본 과정에서는 다음과 같은 접근을 통해 이를 자산화합니다. 메커니즘의 분해: 트랜스포머(Transformer) 아키텍처의 핵심인 셀프 어텐션(Self-Attention) 메커니즘을 수치적 가중치 분석 관점에서 공학적으로 해체합니다. 정보의 우선순위가 결정되는 수치적 기제를 이해함으로써 모델의 판단 근거를 가시화합니다. ID 형성 과정의 분석: '사전학습(Pre-training) - 미세조정(SFT) - 인간 피드백 기반 강화학습(RLHF)'으로 이어지는 일련의 파이프라인이 모델의 기술적 정체성과 윤리적 가이드라인을 형성하는 과정을 투명하게 추적합니다. 이를 통해 보이지 않는 위협을 통제 가능한 시스템 파라미터로 전환합니다. ② 확정적 신뢰성 확보: 확률적 한계 극복을 위한 환각 제어 전략 거대 언어 모델(LLM)은 진실을 추론하는 것이 아니라 확률적으로 가장 적절한 다음 토큰을 생성하는 시스템입니다. 이러한 본질적 특성에서 기인하는 환각(Hallucination) 현상은 신뢰성이 생명인 엔지니어링 현장에서 치명적인 결함이 됩니다. 검색 증강 생성(RAG)의 구속 조건: 모델 내부의 고정된 기억(Internal Weight)에만 의존하는 폐쇄형 구조에서 탈피합니다. 신뢰할 수 있는 외부 지식 베이스를 실시간으로 참조하게 함으로써, 생성 결과에 대한 명확한 근거(Grounding)를 부여하는 '오픈북 전략'을 수립합니다. 하이브리드 모델 아키텍처: 전사적 지식이 필요한 영역에는 대형 모델을, 보안과 실시간 응답이 필수적인 특정 도메인에는 최적화된 소형 모델(SLM)을 배치하여 정확도와 운영 효율을 동시에 달성하는 이중화 전략을 설계합니다. ③ 컴퓨팅 아키텍처 최적화: 물리적 병목 현상(Memory Wall)의 극복 지능은 소프트웨어에서 구현되지만, 그 성능과 경제적 지속 가능성은 하드웨어의 물리적 한계에 의해 규정됩니다. 물리적 제약 분석: 연산 장치의 처리 속도를 데이터 전송 속도가 따라가지 못하는 '메모리 장벽' 문제와 고집적 연산에 따른 열 발생 문제를 공학적 관점에서 진단합니다. 인프라 설계 역량: 고대역폭 메모리(HBM)의 적층 구조와 2.5D/3D 첨단 패키징 기술이 추론 효율에 미치는 물리적 영향력을 정밀하게 분석합니다. 하드웨어의 한계를 소프트웨어 아키텍처로 보완하는 풀스택(Full-Stack) 통합 인사이트를 통해 총 소유 비용(TCO)을 최적화하는 설계 능력을 함양합니다. ④ 기능적 확장의 가속화: 수동적 도구에서 자율 에이전트 체계로의 전이 현재의 AI는 단순 질의응답 수준에 머물러 있어 실질적인 업무 자동화의 부가가치를 창출하지 못하고 있습니다. 본 과정은 AI를 스스로 판단하고 실행하는 능동적 주체로 진화시킵니다. 과업 분해(Decomposition): 복합적인 목표를 수신했을 때 이를 달성 가능한 하위 과업으로 스스로 분해하고 실행 순서를 논리적으로 구성하는 기법을 학습합니다. 디지털 노동력(Digital Workforce) 배치: 기업 내부 ERP, 브라우저, 외부 API 등을 자율적으로 호출하여 실질적인 비즈니스 로직을 완수하고 결과에 대해 피드백을 수용하는 '능동적 에이전트' 체계를 현장에 적용하는 프로세스를 정의합니다. 3. 핵심 아키텍처: 폐쇄 루프 제어 시스템 (Closed-loop Control) AI 에이전트가 지능을 발현하고 복잡한 과업을 수행하는 방식은 자동차의 핵심 두뇌인 ECU(Electronic Control Unit)가 수행하는 폐쇄 루프(Closed-loop) 제어 시스템과 그 논리적 구조가 이론적으로 완전히 일치합니다. 본 과정에서는 이를 ReAct(Reasoning and Acting) 프레임워크 관점에서 상세히 분석합니다. 첫째, 시스템의 시작은 사용자의 모호하고 복합적인 요청을 수신하는 입력 단계(Input)에서 비롯됩니다. 이는 제어 공학에서 센서가 외부 환경의 물리적 데이터를 수집하여 시스템으로 전달하는 과정과 동일한 역할을 수행하며, 에이전트가 당면한 과업의 초기 상태를 정의하는 기준이 됩니다. 둘째, 수신된 데이터를 바탕으로 LLM 아키텍처 내에서 논리적 추론을 거쳐 계획을 수립하는 추론 단계(Thought)가 진행됩니다. 이는 ECU 내의 제어 알고리즘이 입력된 센서 데이터를 연산하여 최적의 제어 값을 산출하는 과정과 맥을 같이 합니다. 에이전트는 이 단계에서 목표 달성을 위한 최적의 경로를 설정하며 시스템의 논리적 엄밀성을 확보합니다. 셋째, 수립된 계획에 따라 외부 도구나 API를 호출하여 작업을 완수하는 실행 단계(Action)가 이어집니다. 이는 제어 시스템의 연산 결과가 액추에이터(Actuator)를 통해 물리적 동력으로 변환되어 명령을 집행하는 메커니즘과 논리적으로 일치합니다. 이를 통해 지능은 추상을 넘어 실질적인 물리적·디지털적 영향력을 행사하게 됩니다. 마지막으로, 실행 결과를 분석하여 초기 목표와의 오차를 수정하는 관찰 및 보정 단계(Observation)가 수행됩니다. 이는 피드백 루프를 통해 시스템의 편차를 줄여나가는 제어 공학의 핵심 원리와 동일합니다. 에이전트는 실행 결과가 목표에 부합하는지 스스로 검증하고, 발생한 오류를 차기 행동 계획에 반영함으로써 지속적으로 성능을 고도화합니다. 이러한 폐쇄 루프 구조를 갖춘 인공지능은 더 이상 확률에 의존하는 불완전한 시스템이 아닙니다. 실행 결과를 스스로 검증하고 오류를 수정하는 공학적 엄밀함을 확보함으로써, 비즈니스 크리티컬한 업무를 수행할 수 있는 신뢰 기반의 파트너로 기능하게 됩니다. 4. 실전 적용 및 확장: 소프트웨어 중심 시스템(SDV)과 Physical AI AI 아키텍처의 최종 지향점은 물리적 제약을 소프트웨어적 지능으로 극복하고 진화시키는 소프트웨어 중심 자동차(SDV) 및 Physical AI의 전 산업 확산에 있습니다. 이는 제조 및 서비스업 전반에 걸친 미래 시스템 통합(SI)의 표준 모델입니다. 엣지 지능 및 데이터 주권 확보: 차량이나 설비 내부(On-device)에 탑재된 소형 모델(SLM)이 현장의 실시간 데이터를 즉각적으로 학습합니다. 이는 클라우드 의존도를 최소화하여 기업의 핵심 자산인 데이터 주권을 완벽히 보호하며, 초저지연성을 바탕으로 한 정밀 서비스를 가능케 합니다. 하드웨어 최적화 및 경량화 엔지니어링: 한정된 전력량과 연산 자원 내에서 최상의 지능을 구현하기 위해 양자화(Quantization), 가지치기(Pruning), 지식 증류(Distillation)와 같은 모델 경량화 기술을 적극 도입합니다. 하드웨어의 대역폭을 고려한 모델 배치는 시스템의 응답 속도와 사용자 경험을 결정짓는 핵심 역량이 됩니다. 하이브리드 오케스트레이션: 광범위한 일반 지식을 보유한 '클라우드 LLM'과 특정 물리 제어 및 보안에 특화된 '엣지 SLM'을 유기적으로 연결하는 통합 아키텍처를 설계합니다. 실리콘 칩셋부터 소프트웨어 스택까지 관통하는 풀스택 관점에서의 통합은 시스템 전체를 소프트웨어 업데이트만으로 진화시키는 강력한 경쟁 우위를 제공합니다. 5. 결론: AI 아키텍트의 역할과 비전 본 마스터클래스의 궁극적인 목표는 수강생을 기술에 수동적으로 의존하며 요행을 바라는 사용자(User)의 위치에서, 시스템의 물리적 한계부터 소프트웨어 아키텍처의 심부까지 완벽히 장악하고 조율하는 전문 AI 아키텍트(Architect)로 격상시키는 데 있습니다. 지능이라는 현상은 소프트웨어적 논리에서 발현되나, 그 지능의 물리적 한계를 규정하는 것은 실리콘(하드웨어)이며, 그 한계를 극복하여 실질적인 비즈니스 가치를 완성하는 것은 오직 정교한 엔지니어링뿐입니다. "지능은 확률의 영역에 머물 수 있으나, 그 지능을 가두고 목적에 맞게 작동시키는 그릇은 오직 엄밀하고 정교한 공학의 영역이어야 합니다."

1명 이 수강하고 있어요.

난이도 중급이상

수강기한 무제한

모델기반엔지니어링
모델기반엔지니어링
에이전트ai
에이전트ai
메모리월
메모리월
학습파이프라인
학습파이프라인
rag와slm
rag와slm
모델기반엔지니어링
모델기반엔지니어링
에이전트ai
에이전트ai
메모리월
메모리월
학습파이프라인
학습파이프라인
rag와slm
rag와slm

수강 후 이런걸 얻을 수 있어요

  • 최적 AI 기술 선정 매트릭스와 차세대 R&D 시스템 설계도를 완성하여 비즈니스 목적에 맞는 전략적 기술 로드맵을 확보합니다

  • SW와 HW 융합을 최적화한 MBE 프레임워크와 자율 에이전트 지휘 체계를 통해 시스템 통합 및 오케스트레이션 역량을 극대화합니다.

  • AI 학습 메커니즘을 정교하게 제어하고 실시간 지식을 참조하는 RAG 기반 신뢰성 검증 파이프라인을 구축하여 모델의 한계를 돌파합니다.

  • 반도체의 물리적 제약과 비즈니스 ROI를 결합한 하드웨어 최적화 안목을 갖추고 차세대 기술 경영을 위한 엔지니어링 리더십을 체득합니다.


📘AI의 심장 파운데이션 모델과 지능의 작동원리를 설명합니다. AI는 단순한 블랙박스나 도구(Tool)가 아닌, 정교한 공학적 시스템으로 해부하고 통제하는 기초와 응용 지식을 소개합니다.


📘 [Section 1] AI의 심장: 파운데이션 모델과 지능의 작동 원리

(The Heart of AI: Foundation Models and the Mechanics of Intelligence)

본문 1은 AI 기술이 단순한 '생성(Generative)'을 넘어 스스로 계획하고 행동하는 '자율 에이전트(Agentic AI)'로 진화하는 패러다임 시프트를 다룹니다.

  • 철학적 단절 (Tool에서 Teammate로): 사용자가 구체적으로 지시해야만 답을 하는 수동적 챗봇에서 벗어나, 목표만 제시하면 AI가 스스로 방법을 계획하고 외부 도구를 사용하는 '능동적 팀원'으로의 진화 과정을 분석합니다.

  • 인지 엔진의 메커니즘: 현대 AI의 핵심인 '트랜스포머(Transformer)'와 '셀프 어텐션(Self-Attention)' 메커니즘을 도서관 검색 시스템에 비유하여, 어떻게 병렬 처리를 통해 문맥을 깊이 이해하는지 공학적으로 해부합니다.

  • 정신의 탄생과 사고 구조: 사전 학습(Pre-training)부터 SFT, RLHF로 이어지는 LLM의 3단계 학습 파이프라인을 학습합니다. 또한, AI가 추론(Reason)과 행동(Act)을 반복하는 ReAct 프레임워크와, 복잡한 문제를 비선형적으로 탐색하는 생각의 나무(ToT) 등 '시스템 2' 사고를 구현하는 구조를 익힙니다.


📘 [Section 2] AI 시스템 리터러시: 모델 구조와 작동 원리

(Foundation Models & Mechanics)

본문 2는 트랜스포머 아키텍처의 재해석부터 모델의 한계를 극복하는 SLM 효율화 기술까지, 거대 언어 모델의 '내부 해부학'을 깊이 있게 다룹니다.

  • LLM 아키텍처의 3대 패러다임: 비즈니스 목적에 맞춰 양방향 문맥을 이해하는 인코더(Encoder, 예: BERT), 텍스트 생성에 강한 디코더(Decoder, 예: GPT), 그리고 번역/요약에 특화된 인코더-디코더(예: T5)의 차이와 적정 토폴로지를 배웁니다.

  • 거거익선의 한계와 모델 붕괴: 모델의 크기가 커질수록 성능이 향상되는 스케일링 법칙과 함께, 데이터 고갈(Data Wall) 및 합성 데이터 재학습으로 인한 '모델 붕괴(Model Collapse)' 리스크를 직시합니다.

  • 효율성 혁명, 소형 언어 모델(SLM): 거대 모델(LLM)의 높은 비용과 지연 시간(Latency) 문제를 해결하기 위해, 엣지 디바이스 구동 및 특정 도메인에 최적화된 SLM의 부상을 다룹니다. 나아가 거인의 지식을 압축하는 지식 증류(Knowledge Distillation)양자화/프루닝 기술을 통해 모델의 실용성을 극대화하는 방법을 배웁니다.


📘 [Section 3] 생성과 확장의 시대: 생성형 AI와 멀티모달의 본질

(Generative Systems Architecture)

본문 3은 판별(Discriminative)에서 생성(Generative)으로 넘어가는 확률 분포의 혁명과, 환각(Hallucination) 리스크를 통제하는 RAG 아키텍처를 분석합니다.

  • 생성 모델(GAN, VAE, Diffusion) 비교 분석: 희귀 데이터를 생성하는 GAN, 디자인 탐색에 쓰이는 VAE, 고품질 이미지를 복원하는 Diffusion 등 각 모델의 트레이드오프(속도 vs 품질 vs 다양성)를 이해하고, 산업 현장의 목적에 맞는 엔지니어링 선택 가이드를 제공합니다.

  • 멀티모달과 제로샷(Zero-Shot) 학습: 텍스트와 이미지를 하나의 수학적 공간에 맵핑하는 CLIP 아키텍처를 통해, 별도의 학습 없이도 제조업의 불량을 분류해 내는 제로샷 혁명을 확인합니다.

  • 환각 제어와 RAG (검색 증강 생성): LLM이 가진 최신 정보 부재와 환각이라는 구조적 리스크(확률적 앵무새)를 통제하기 위해, 벡터 데이터베이스를 활용한 '오픈북 시험' 전략인 RAG 파이프라인을 구축하고 파인튜닝(Fine-Tuning)과 비교 분석합니다.


📘 [Section 4] Agentic AI의 기술 스택: 반도체 전쟁에서 클라우드 커스텀 실리콘까지

(Agentic AI Silicon Stack)

본문 4는 "AI의 지능은 소프트웨어에서 발현되지만, 그 한계는 하드웨어(실리콘)가 결정한다"는 대원칙 아래 하드웨어 스택을 분석합니다.

  • 물리적 병목 현상의 이해: AI 연산 속도를 데이터 전송 속도가 따라가지 못하는 근본적인 '메모리 월(Memory Wall)'과 극심한 열 발생으로 인한 '열역학적 한계(Thermodynamic Wall)'를 진단합니다.

  • 한계 돌파를 위한 반도체 기술: 이 병목을 해결하기 위해 데이터 고속도로를 수직으로 적층한 HBM(고대역폭 메모리)의 원리와, 무어의 법칙 한계를 극복하기 위해 칩을 레고처럼 연결하는 첨단 패키징(Advanced Packaging) 및 칩렛(Chiplet) 기술을 심층 해부합니다.

  • AI 칩 전쟁과 커스텀 실리콘: NVIDIA의 압도적인 CUDA 생태계(해자)와 이를 극복하기 위해 구글(TPU), 아마존(Trainium) 등 빅테크가 자체 개발하는 맞춤형 ASIC 전략, 그리고 추론 속도를 극대화하는 LPU 및 웨이퍼 스케일 엔진의 등장 배경을 다룹니다.


📘 [Section 5] AI 기술 주권과 미래 산업 혁신

(Sovereign AI Strategy and SDV Engineering Synthesis)

본문 5는 거시적인 AI 지정학부터 미시적인 칩 레벨의 엔지니어링까지 아우르는 융합 전략과 SDV(소프트웨어 중심 자동차) 적용 사례를 다룹니다.

  • 주권 AI (Sovereign AI) 전략: 데이터 프라이버시와 문화적 정체성을 지키기 위해 국가가 자체 인프라와 모델을 구축하는 주권 AI의 중요성과, 메모리와 파운드리 경쟁력을 갖춘 한국의 전략적 레버리지를 분석합니다.

  • 산업 혁신의 용광로, SDV: 바퀴 달린 데이터센터라 불리는 SDV의 R&D 파이프라인 전 과정(VAE 디자인, GAN 시뮬레이션, RAG 정비 매뉴얼)을 생성형 AI로 어떻게 가속화하는지 보여줍니다.

  • 안전과 지능의 융합 (SLM & SLM): 차량 내 프라이버시와 응답 속도를 위한 '소형 언어 모델(Small Language Model)'과 반도체의 건강 상태를 감시하는 '실리콘 수명주기 관리(Silicon Lifecycle Management)'가 결합하여 기능 안전(Functional Safety)을 완성하는 시너지를 배웁니다.


📘 [Section 6] 요약 및 결론 : AI의 심장: 파운데이션 모델과 에이전트 아키텍처 해부

(Engineering Agentic AI: Deconstructing the Engine)

본문 6은 앞선 1~5부의 모든 공학적 원리와 전략을 총망라하여, 리더가 가져야 할 '모델 기반 엔지니어링(Model-Based Engineering)'의 완결판을 제시합니다.

  • 설계도로 보는 AI의 해부학: 트랜스포머의 어텐션 메커니즘을 텐서 연산 관점에서 분해하고, 사전 학습부터 SFT, RLHF로 이어지는 야생의 지능 통제 공정을 도면(Blueprint)처럼 구체화하여 복습합니다.

  • 전략적 의사결정 프레임워크: 막연한 LLM 만능주의를 경계하며, 데이터의 유형(동적 사실 vs 정적 스타일)과 자원의 제약(클라우드 vs 엣지)에 따라 RAG, Fine-Tuning, SLM을 정확하게 배치하는 의사결정 매트릭스를 체화합니다.

  • 예측에서 창조와 행동으로: AI를 단순히 정답을 묻는 사용(User)의 관점에서 벗어나, 실리콘의 물리적 한계부터 에이전트의 워크플로우까지 통합(Integration)하여 비즈니스에 적용하는 'AI 아키텍트'로서의 시야를 완성합니다.

다음은 본 강의를 Infographic 형식으로 정리하였습니다.
https://tinyurl.com/29y6ycmw

  1. 본 강의 기반이 된 , 저의 출판 책자는 커리큘럼 최하단에 유첨되어 있습니다. 아울러 저의 소개 동영상도 참조하시기 바랍니다.

  2. 본 강의를 이해하기 위한 오디오 파일도 함께 유첨되어(URL)있습니다.

이런 분들께
추천드려요

학습 대상은
누구일까요?

  • 막대한 예산을 쓰고도 AI의 환각 현상과 블랙박스 오류 원인을 찾지 못해 프로젝트 중단 위기에 처해 있습니다.

  • GPU 등 하드웨어를 무작정 증설해도 해결되지 않는 메모리 병목과 성능 한계 때문에 깊은 무력감을 느낍니다.

  • RAG와 파인튜닝 중 무엇이 최적인지 판단할 공학적 기준이 없어, 밑 빠진 독에 물 붓기 식으로 자원을 낭비 중입니다.

  • AI를 단순 요약 도구로만 활용하다가 자율 에이전트라는 거대한 패러다임 변화의 흐름에서 완전히 소외되어 있습니다.

  • 빅테크 모델에 무비판적으로 의존하다 결국 데이터 주권과 시스템 통제권을 모두 잃고 기술 종속의 길로 내몰리고 있습니다.

선수 지식,
필요할까요?

  • AI를 마법으로 여기는 수동적 태도를 버리고, 내부 학습 파이프라인과 트랜스포머 아키텍처를 해부하려는 모델 기반 사고방식이 필요합니다.

  • 기본적인 AI·ML 패러다임과 클라우드 생태계에 대한 기초 지식은 RAG 및 에이전트 설계라는 복잡한 구조를 이해하는 든든한 밑바탕이 됩니다.

  • 능의 한계를 결정짓는 물리적 제약인 '메모리 월'을 직시하고, 하드웨어와 소프트웨어를 통합적으로 바라보는 아키텍트의 시야를 갖춰야 합니다.

  • 모든 문제를 LLM으로 해결하려는 만능주의를 경계하며, 도메인 특성에 맞춰 ROI를 극대화할 최적의 기술(RAG vs Fine-tuning)을 선택할 수 있어야 합니다.

안녕하세요
HJ Kim (DaeGam)입니다.

40여 년간의 국내 대기업 및 중견기업 근무 경력의(1984.1~2024.5) 은퇴자입니다. 

재직기간 40년 중 18년은 중역으로 근무한 파워트레인 및 동력 추진계 기술자이면서, 마지막 5년은 중견기업에서 부사장과 대표이사를 역임하였습니다. 

현대자동차 그룹에서는 해외 기술 이전 수익을(약 1,300억 상당, 중형 가솔린 엔진, 터보차져, AWD 등)달성하였습니다. 다수의 정부투자 R&D 과제를 수행한  이력이 있습니다. 현재는 경력 기간 중의 확보 된 지식과 경험을 공유를 목적으로 저술 활동을  시작하였습니다. 독자 여러분의 많은 관심과 격려를 부탁드립니다. 

  • 성명: 김홍집

  • 출판물 안내 :  https://khjyhy.upaper.kr/new

  • 국내 대형 서점 e-book에서 "김홍집"으로 검색하시면 좀더 많은 출판 책자를 보실 수 있습니다.

  • 교육 훈련 : KAIST 인공지능 경영자 과정 수료(25.2~25.6)

  • 경력 1 : 현대차 그룹 R&D (현대자동차(주), 현대위아(주) : 1984~2018 

  • 경력 2 :  인지컨트롤스(주): 2019~2024 

            

  • 수상 경력 1 : 한국의 100대 기술과 주역 (2010.12.) (한국공학한림원, 산업자원부)

  • 수상경력 2 : IR52(장영실상)의 대통령상 수상 (중형 가솔린엔진 개발,산업자원부, 2005년)

                     

  • 자동차 공학 분야의 파워트레인 및 동력추진계의 국내외 전문 기술학회 논문 13편

  • 직무발명 특허 다수 출원 및 공개

더보기

커리큘럼

전체

17개 ∙ (1시간 54분)

해당 강의에서 제공:

수업자료
강의 게시일: 
마지막 업데이트일: 

수강평

아직 충분한 평가를 받지 못한 강의입니다.
모두에게 도움이 되는 수강평의 주인공이 되어주세요!

HJ Kim (DaeGam)님의 다른 강의

지식공유자님의 다른 강의를 만나보세요!

비슷한 강의

같은 분야의 다른 강의를 만나보세요!

얼리버드 할인 중

₩9,900

70%

₩33,000